Reunión 2026 03 11
Desarrollo de un Sistema de Alerta Temprana para Tsunamis
Introducción al Proyecto
- Se busca desarrollar escenarios con alta confiabilidad para calcular amenazas por tsunamis de manera precisa.
- Carlos y Julián están trabajando en el procesamiento de alto rendimiento, utilizando tanto CPU como GPU para acelerar cálculos y obtener respuestas más rápidas.
Simulación y Escenarios
- Se discute la generación de escenarios simulados, destacando que se han creado más de mil escenarios en el proyecto S3.
- La necesidad de corroborar aspectos sismológicos es fundamental, ya que la cantidad de escenarios dependerá de la resolución inicial utilizada.
Objetivos del Sistema
- Propuesta para un sistema de soporte a decisiones que analiza datos previamente calculados y entrega información útil para la toma de decisiones.
- El objetivo es fortalecer el sistema de alerta temprana, enfocándose en emitir niveles de alerta dentro del protocolo establecido.
Optimización del Modelo Numérico
- Se optimizan modelos numéricos utilizando TUNAMI N2, implementando herramientas avanzadas y validando resultados con datos históricos.
- Comparación entre tiempos: antes se tardaban casi 4 horas en simulaciones, ahora se logra en menos de 4 minutos.
Generación y Validación de Base de Datos
- Inspirado en el sistema chileno CIPAT, se generarán miles de escenarios categorizados para análisis post-sismo.
- Se desarrollará un sistema que simule condiciones desfavorables durante eventos sísmicos específicos.
Implementación del Sistema
- Propuesta para crear un sistema similar al C-pad pero mejorado, validándolo con eventos históricos como los sismos en Kamana (2001) y Pisco (2007).
- Desarrollo preliminar incluye reportes web sobre estadísticas relacionadas con personas e infraestructura expuesta ante tsunamis.
Presentación del Proyecto de Investigación
Colaboraciones y Objetivos
- Se menciona la colaboración con Julian Palacios y el doctor Fuyita, así como con los doctores Eric, Jorge de Tohoku y Kojimura para coordinar avances en la investigación.
- Se busca asesoría del doctor Jiménez para generar sismos y verificar la adecuación del sistema de grías sanidad antes de desarrollar la topografía y batimetría.
Sistema de Grías Sanidadas
- Se propone un sistema de 4 grías con resoluciones que varían desde 810 hasta 30 metros, resultando en un total de 19 grías en el dominio número 4.
- Este sistema es crucial para la simulación numérica del tsunami, utilizando una propuesta del doctor Senona Aguilar sobre regiones hismogénicas.
Análisis de Sismos Históricos
- Se recopilan sismos históricos relevantes para definir parámetros sísmicos como strike, deep y rake necesarios para las simulaciones.
- Cada sistema de gría se compone de filas y columnas específicas según su resolución, sumando un total estimado de 46 billones de grías a analizar.
Almacenamiento y Optimización
- Para almacenar resultados se estima que se necesitarán aproximadamente 1.3 gigas por escenario si se consideran inundaciones máximas.
- Se discute cómo optimizar el almacenamiento ignorando valores cero o no válidos, lo que podría reducir el tamaño a solo 7 megas por escenario.
Generación de Escenarios Sísmicos
- La clasificación inicial se basa en zonas sismogénicas propuestas por el doctor Sino Naguilar; se han recopilado datos históricos significativos.
- Se considera utilizar un modelo desarrollado por Jaius (2012-2013), que proporciona valores específicos para cada región respecto al strike, deep y rake.
Discusión sobre Modelos Sísmicos
- El análisis sugiere que los valores pueden variar entre sismos dentro de una misma región; esto requiere consenso sobre los parámetros a utilizar.
- La discusión incluye recomendaciones sobre cómo calcular el musamiento utilizando modelos existentes como Slap.
Análisis de Magnitudes Sísmicas y Escenarios de Simulación
Definición de Valores y Magnitudes Máximas
- Se definen valores para cada región, incluyendo la magnitud máxima propuesta por Tarazona en su estudio. Esto establece un marco para las simulaciones sísmicas.
- Utilización de relaciones de escala de papasachos, generando hismos desde 7.5 con intervalos de 0.1 en magnitud, a una resolución de epicentros cada 20 kilómetros.
Recursos y Tiempo de Simulación
- Cada sistema tiene aproximadamente 46 millones de grías que deben ser analizadas utilizando una tarjeta gráfica específica del sysmeet. La simulación está optimizada pero requiere tiempo considerable para procesar los datos.
- Se discute la necesidad de ajustar los intervalos de magnitudes utilizados en comparación con el SIPAD en Chile, que utiliza intervalos más amplios (0.5). Esto podría afectar la resolución y el tiempo requerido para obtener resultados significativos.
Metodología para Generar Escenarios
- En colaboración con Benjamín, se ha desarrollado una metodología preliminar para determinar cuántos escenarios sísmicos podrían generarse basándose en las regiones definidas por el Dr. Senón Aguilar.
- Se han identificado siete regiones y se busca establecer cómo generar escenarios dentro de estas áreas geográficas específicas, considerando que cada punto representa el extremo inferior izquierdo del área afectada por un sismo.
Límites Geográficos y Comportamiento Sísmico
- Los sismos no deben sobrepasar límites geográficos como la dorsal de Nazca o la fractura Mendaña; esto es crucial para modelar correctamente los eventos sísmicos esperados en diferentes regiones del Perú.
- Se estima un total preliminar de 4,600 escenarios posibles basados en estos límites geográficos y patrones históricos observados en sismos previos.
Observaciones sobre Acoplamiento Intersísmico
- Es importante verificar el mapa del acoplamiento intersísmico ya que hay zonas donde se espera que ocurran eventos sísmicos significativos (ejemplo: gap sísmico Paracas-Huarmé). Estos patrones deben integrarse al modelo actual para mejorar su precisión predictiva.
- La discusión incluye detalles sobre cómo ciertos sismos no cruzarán barreras tectónicas como la dorsal de Nazca o la fractura Mendaña, lo cual es consistente con registros históricos previos sobre propagación sísmica entre regiones específicas del Perú.
Revisión y Ajustes Necesarios
- Se plantea revisar los límites establecidos entre las diferentes zonas geográficas debido a discrepancias observadas durante el análisis cartográfico; esto incluye ajustes necesarios entre las zonas 3 y 4 así como entre las zonas 4 y 5 según lo discutido por los participantes involucrados en la investigación.[]
Propuesta de Segmentación Sísmica
Discusión sobre la Dorsal de Nazca
- Se sugiere incluir gráficamente la ubicación de la dorsal de Nazca en el mapa, como recomendó el Dr. Jiménez.
- Las regiones se plantean según la distribución de epicentros del catálogo sísmico y características tectónicas, lo que es fundamental para la segmentación.
Consenso sobre Modelos Sísmicos
- Se discute cómo llegar a un consenso sobre los valores de Strike, Deep y Rake, ya que estos pueden variar significativamente entre estudios.
- Se menciona un sismo en Ecuador (7.8), donde se activó una alerta para Perú, aunque el impacto fue mínimo (11 cm).
Simulación del Terremoto
- Se propone simular el terremoto de 1906 (magnitud 8.8) para evaluar su impacto en Tumbes y Piura; se sugiere que no sería significativo.
- La simulación debe considerar diferentes alturas del tsunami dependiendo del sismo simulado.
Sugerencias para Modelos Computacionales
- Para el modelo Strike, se recomienda usar uno paralelo a la fosa marina o línea de costa; para Rake, mantenerlo a 90 grados.
- La profundidad debe ajustarse según la magnitud del sismo; se sugieren profundidades estándar entre 3 y 5 kilómetros cerca de la costa.
Consideraciones sobre Topografía y Batimetría
- Los puntos cercanos a la fosa marina deben tener una profundidad estándar ajustada; no todos tendrán las mismas características.
- Se discute cómo utilizar datos topográficos y batimétricos disponibles (SRTM y GEPCO), enfatizando que deben coincidir con las grías utilizadas en los modelos.
Edición de Datos Topográficos
- Para topografía, se recomienda usar SRTM por su resolución adecuada; si hay datos de campo disponibles, estos deben ser complementados.
Uso de Batimetría en Puertos
Importancia de la Batimetría
- Se destaca la necesidad de utilizar batimetría en hidroografía para obtener detalles precisos en el caso de los puertos.
Acceso a Datos de Batimetría
- Se menciona que existen portulanos disponibles que son libres y se sugiere solicitar formalmente a H&N la batimetría de los principales puertos del Perú para fines de investigación.
Distribución y Resolución de Grillas
Análisis de Distribución
- Se discute la distribución de grillas, mencionando un estudio sobre el acoplamiento del cinturón del Pacífico y cómo se ha definido el límite norte en Perú.
Tamaño y Resolución
- La resolución propuesta para las grillas es discutida, considerando un nivel provincial. Se pregunta sobre el tamaño específico para una grilla pequeña, como la de Tacna.
Cálculos y Simulación
Desempeño Computacional
- Se plantea que una grilla pequeña (4 mil por 4 mil) puede requerir un servidor potente debido al tiempo que tomará procesar los datos.
Condiciones en Simulaciones
- El modelo simula condiciones basadas en valores específicos (como 50 metros), lo cual afecta los cálculos realizados por el sistema.
Estrategias para Optimización
Tamaño Uniforme de Grillas
- Se propone mantener un tamaño uniforme para todas las grillas con el fin de optimizar el cómputo paralelo, evitando demoras innecesarias durante los cálculos.
Reducción del Tiempo de Cálculo
- Se menciona que simulaciones previas han demostrado que definir dominios diagonales podría reducir significativamente el tiempo total requerido para cálculos complejos.
Eficiencia en Cálculos y Resolución de Escenarios
Optimización del Tiempo de Cálculo
- Se discute la posibilidad de mejorar la eficiencia en los cálculos, sugiriendo que el tiempo de cálculo podría reducirse a la mitad comparado con definiciones anteriores.
- Se menciona que para la elaboración de cartas de inundación se utiliza una resolución estándar de 30 metros, lo cual es considerado adecuado.
Comparación Histórica y Actual
- Hace 15 años, se utilizaba una resolución de 90 metros; sin embargo, gracias al avance computacional, ahora se trabaja con 30 metros.
- Se plantea la necesidad de revisar las grillas junto a Julián para optimizar aún más el proceso.
Análisis de Escenarios y Alertas
- El protocolo establece niveles de alerta desde magnitudes 5 hasta 7; sin embargo, un límite menor puede generar un análisis excesivo e innecesario.
- Se presenta un caso del terremoto en Yauca (2018), donde una magnitud de 7.1 generó una alerta por tsunami pero resultó en una altura mínima observada.
Simulaciones y Resultados Observados
Comparativa entre Simulación y Datos Reales
- La simulación del tsunami mostró resultados similares a los datos observados en Yauca, validando así el modelo utilizado.
- Se sugiere realizar un ejercicio comparativo utilizando batimetría diferente (DHN vs. Yepco) para evaluar posibles diferencias en los resultados.
Costos y Desafíos en Batimetría
- Levantar batimetría es costoso; se propone comparar resultados entre diferentes fuentes para determinar si hay variaciones significativas.
- Existen problemas con la batimetría Yepco debido a formaciones no reales como pozos o picos que pueden afectar los resultados.
Herramientas para Filtrar Datos Irregulares
Uso del Software ARGIS PRO
- Se menciona una función llamada FIL en ARGIS PRO que elimina picos y pozos; sin embargo, su efectividad depende del tipo y tamaño del pozo o pico.
Limitaciones del Filtro Mediano
- Aunque se utiliza un filtro mediano para eliminar picos impulsivos, este tiene limitaciones cuando se trata de irregularidades más grandes o anchas.
Impacto Histórico: Tsunami en Chimbote
Detalles sobre el Tsunami de 1996
- En Chimbote (1996), un tsunami asociado a un terremoto con magnitud 7.5 causó daños significativos y pérdidas humanas.
¿Cómo afectan los terremotos a la generación de tsunamis?
Magnitud y Tsunamis
- Los terremotos con magnitudes menores a 7.5 pueden no ser percibidos por las personas, pero aún así pueden generar tsunamis significativos. Un ejemplo es el evento de 2018 que produjo un microsunami de 17 centímetros.
- Se sugiere que para eventos sísmicos en Perú, una magnitud de 7.5 o superior es recomendable para esperar tsunamis notables. En el norte del país, los terremotos grandes son raros.
Simulación y Modelado
- Tarazona propone valores de magnitud hasta 8.9 en ciertas regiones, aunque se discute la resolución adecuada para simulaciones sísmicas, sugiriendo un tamaño de malla de 30x30 km para equilibrar precisión y eficiencia.
- Una malla más pequeña (20x20 km) puede ser demasiado detallada y aumentar innecesariamente el número de escenarios a simular.
Escenarios Heterogéneos
- Se recomienda utilizar modelos heterogéneos en simulaciones donde no se conocen las longitudes de ruptura sísmica, como lo hizo Papasachos en sus investigaciones desde 2004.
- La creación de escenarios debe considerar tanto distribuciones homogéneas como heterogéneas para reflejar mejor la realidad geológica.
Tiempo de Simulación
- En Chile se utilizan ocho horas para simulaciones debido a su extensa costa; sin embargo, se debate si seis horas son suficientes en Perú basándose en cartas de inundación estándar.
- Seis horas es considerado un tiempo adecuado ya que permite alcanzar la altura máxima esperada del tsunami antes que las olas disminuyan significativamente.
Eficiencia Computacional
- Para optimizar recursos computacionales, se sugiere reducir el tiempo mínimo de simulación a cuatro horas sin comprometer la calidad del análisis.
- La experiencia indica que después de tres horas las olas tienden a disminuir considerablemente, lo cual podría justificar tiempos más cortos dependiendo del contexto específico del estudio.
Propuesta de Modelos y Métodos para Análisis de Inundaciones
Consideración del Tiempo en Modelos
- Se sugiere considerar un tiempo de 5 horas para los modelos, alineándose con prácticas anteriores donde se usaron 3 horas para resultados rápidos y 5 horas para mapas.
- El modelo desarrollado para el SBS también utilizó un marco temporal de 5 horas, lo que permite una comparación coherente entre resultados actuales y pasados.
Profundidad y Velocidad en Análisis
- Se propone calcular la profundidad máxima en la zona desde Zikiki hasta Tumbes, utilizando esta información para estimar la velocidad y el tiempo necesario.
- La idea es obtener la raíz de GH (altura geométrica) para calcular distancias y tiempos aproximados como parte del ejercicio.
Coeficiente de Manning
- Se discute el uso del coeficiente de Manning, sugiriendo un valor estándar de 0.025, pero reconociendo que este puede variar según si las zonas son pobladas o no.
- Se menciona que el paso del tiempo debe ajustarse a condiciones específicas (CFL), sugiriendo que podría ser más eficiente usar valores mayores como 0.2 o 0.3 en ciertas áreas.
Dinamismo en Simulaciones
- Se plantea hacer dinámico el cálculo del paso del tiempo basado en condiciones regionales específicas, lo cual podría mejorar la eficiencia computacional.
- La propuesta incluye crear un código pequeño que ajuste automáticamente los parámetros según las características geográficas.
Uso de Imágenes Satelitales
- Se sugiere utilizar imágenes Landsat para calcular NDVI (Índice de Vegetación Diferencial Normalizado), lo cual ayudaría a identificar zonas agrícolas no pobladas.
- Las imágenes Landsat tienen una resolución adecuada (30 metros o menos), permitiendo análisis detallados sobre cobertura terrestre disponible desde Sendinide.
Información Adicional sobre Cobertura Terrestre
- Existe información actualizada sobre uso y cobertura terrestre desde World Cover con datos recientes (2020).
- Esta información puede ser útil para ajustar modelos basados en características físicas observadas mediante imágenes satelitales.
Este resumen proporciona una visión clara sobre las discusiones relacionadas con modelos de inundación, ajustes temporales, coeficientes relevantes y el uso innovador de tecnología satelital.
Mapa de ocupación y GPUs en análisis de datos
Discusión sobre el mapa de cobertura del suelo
- Se menciona un "mapa de ocupación" o "mapa de cobertura del suelo", conocido como World Cover, que es un proyecto destacado disponible en Google Power Data.
Consideraciones sobre la resolución y factibilidad
- Se discute la necesidad de revisar la factibilidad del análisis y cómo incluir información sobre el coeficiente de rugosidad en la matriz utilizada para el estudio.
Sugerencias sobre coautoría y hardware
- Un participante sugiere ser incluido como coautor en el paper, destacando la importancia de esta colaboración.
- Se plantea la posibilidad de utilizar otra máquina con una GPU similar para mejorar los cálculos, sugiriendo así optimizar recursos existentes.
Optimización del tiempo mediante uso de múltiples GPUs
- La idea es aprovechar un slot libre en una computadora existente para no tener que comprar una nueva tarjeta gráfica, lo que podría acelerar significativamente los procesos al usar dos GPUs.
Análisis del costo y rendimiento esperado
- Se estima que si se utilizan dos tarjetas gráficas trabajando en paralelo, se podría reducir a la mitad el tiempo necesario para las simulaciones, lo cual es crucial dado el número elevado (2000 escenarios).
Disponibilidad y características técnicas
- Se menciona que sería ideal utilizar GPUs disponibles en otro laboratorio, ya que son modelos de alta gama (RTX 5000), lo cual mejoraría considerablemente los tiempos de procesamiento.
Evaluación del costo actual del hardware
- Un participante investiga precios actuales para tarjetas gráficas RTX 4500, encontrando costos alrededor de 11 mil soles. Esto resalta la preocupación por los gastos asociados a mejorar el equipo.
Importancia del rendimiento gráfico
- Se discuten especificaciones técnicas relevantes como Flops (operaciones por segundo), enfatizando su relevancia para determinar qué tan efectivas serán las GPUs elegidas para las simulaciones.
Estimación del tiempo total requerido para simulaciones
- Carlos estima que cada simulación tomará aproximadamente 90 minutos y se han considerado preliminarmente 4600 escenarios. La discusión gira en torno a cómo realizar estas simulaciones eficientemente utilizando múltiples GPUs.
Posibilidades futuras con computadoras conectadas
- Se menciona una técnica anterior donde varias computadoras fueron conectadas por red para trabajar simultáneamente, sugiriendo que esto podría ser explorado nuevamente con CPUs y GPUs.
¿Cómo se puede mejorar un clúster de computadoras?
Propuestas iniciales para el clúster
- Se sugiere realizar pruebas con una tarjeta de video de una máquina a otra como primer paso práctico antes de construir un clúster.
- La conversación incluye la importancia del apoyo entre colegas y la planificación para futuras reuniones, destacando la colaboración en el proyecto.
Colaboración y aportes
- Se menciona que el Dr. Jiménez ha hecho contribuciones útiles al equipo, lo que refuerza la idea de generar escenarios y simularlos.
- Se discute la resolución adecuada para simulaciones, sugiriendo que podría ser escalable para futuros proyectos utilizando inteligencia artificial.
Equipos y recursos necesarios
- Hay discusiones sobre recomendaciones para comprar equipos informáticos, mencionando un presupuesto disponible de 50 mil soles.
- La necesidad de decidir entre comprar una computadora o un mini servidor es debatida, enfatizando la importancia de tener un buen servidor con GPU adecuado.
Simulaciones y metodologías
- Se plantea practicar con una región específica (región 4 frente a Lima), considerando el tiempo y almacenamiento necesarios antes de escalar las simulaciones.
- Se hace referencia a experiencias pasadas donde se distribuyeron simulaciones en colaboración con profesores en Japón, buscando replicar ese modelo en el presente.
Simulación y Coordinación en Proyectos
Discusión sobre la Simulación en Lima y Tohoku
- Se menciona que la primera parte del proyecto se realizó en Lima, pero también hubo simulaciones en Tohoku. El hablante no estaba presente durante esa fase.
- La gestión de las simulaciones fue llevada a cabo por Bruno, quien tenía acceso completo al sistema necesario para realizar las pruebas.
- Se destaca que el sistema permitió seleccionar una región específica y ajustar la rotimetría para llevar a cabo las simulaciones.
Apoyo y Consulta entre los Participantes
- Se plantea la necesidad de apoyo por parte de los doctores Adrián y Eric, sugiriendo que no debería haber problemas con su colaboración.
- Carlos expresa preocupación sobre posibles dificultades, pero se le asegura que no hay inconvenientes hasta el momento. Se recomienda consultar anticipadamente para evitar sorpresas.
Preparativos Técnicos
- En caso de que surjan problemas, se discute la posibilidad de adquirir una computadora potente para facilitar el trabajo en el Smith.
Resumen de Reunión
- Se solicita a Carlos enviar un correo con un resumen de la reunión para asegurar que todos los participantes estén informados sobre lo discutido.
- Fernando agradece a Carlos por su participación y se despide cordialmente, mencionando otros participantes como Joaquín y Benjamin.