Story Transcript
Capítulo 1
UNIVERSIDAD AUTONÓMA DE NUEVO LEÓN FACULTAD DE CIENCIAS DE LA TIERRA
LA TESIS ANÁLISIS DE REGRESIÓN LINEAL PARA CORRELACIONAR DATOS DEL VALOR b EN CATÁLOGOS DE SISMICIDAD, OBTENIDOS CON DOS TÉCNICAS QUE PRESENTA ERNESTO GUADALUPE LÓPEZ BRICEÑO HA SIDO ACEPTADA COMO REQUISITO PARCIAL PARA OBTENER EL TÍTULO DE INGENIERO GEOFÍSICO
Vo. Bo. Director de Titulación
______________________ Dr. Juan Carlos Montalvo Arrieta LINARES, NUEVO LEÓN Ernesto López
Vo. Bo. Asesor
______________________ Dr. Fco. Ramón Zúñiga Dávila-Madrid FEBRERO 2011
Capítulo 1 RESUMEN
El interés de los investigadores sobre la posibilidad de pronosticar efectos de eventos sísmicos ha ido aumentando debido a los graves daños que estos fenómenos pueden causar, como lo evidencian los casos recientes en Haití y Chile (2010). Para la Sismología Estadística son objetivos primordiales lo relacionado con el peligro y el riesgo sísmico. Dentro de éste tema, un parámetro muy importante es el conocido como “valor b”, que está definido por la relación Gutenberg‐Richter. Dicha relación representa el número de eventos acumulados (N) con respecto a las magnitudes (M). Este es un parámetro básico en cualquier cálculo de probabilidad de ocurrencia de un sismo de cierta magnitud, pero su cálculo esta sujeto a incertidumbre ocasionada por varios factores (estaciones sísmicas antiguas y falta de datos), por lo cual los cálculos para diseñar estructuras sismorresistentes se pueden ver seriamente afectados. Un parámetro crucial en el cálculo del valor b es la magnitud mínima de completitud (Mc). Existen varios métodos para el cálculo de dicho parámetro, entre los más robustos se encuentran el “Método de rango total de magnitudes (EMR)” y el “Método de mejor combinación (BC)”, los que son abordados en el presente trabajo. En este estudio se muestran resultados de un análisis de regresión lineal con el objeto de evaluar el comportamiento de los métodos. Debido a que el método EMR requiere de un mayor tiempo de cómputo, se espera encontrar una relación lineal que explique su variabilidad en función del regresor aleatorio que en este caso será el resultado del método BC. Se pretende mostrar las ventajas y posibles causas de error sistemático si se emplea el método BC en sustitución del EMR. Como una investigación extra, se habla respecto a la sismicidad en el noreste de México, con el propósito de motivar a estudiantes e investigadores a realizar estudios detallados en ésta zona.
Ernesto López
Capítulo 1
ABSTRACT The interest of researchers on the possibility of predicting effects of seismic events has been increasing due to the damage that these events may cause, as evidenced by recent cases in Haiti and Chile (2010). For Statistical Seismology first order objectives are those related to seismic hazard and risk. Within this theme, a very important parameter is the so‐called "b ‐ value", which is defined by the Gutenberg‐Richter relationship. This relationship represents the accumulated number of events (N) with respect to the magnitudes (M). This is a basic parameter in any calculation of probability of occurrence of an earthquake of certain magnitude, but its calculation is subjected to uncertainty caused by several factors (old seismic stations and lack of data), so calculations for designing earthquake resistant structures can be seriously affected. A crucial parameter in calculating the b value is the minimum magnitude of completeness (Mc). There are several methods for calculating this parameter, the most robust are the "entire magnitude range method (EMR) " and the "best combination method (BC)", which are addressed in this paper. In this study we present results of a linear regression analysis to evaluate the behavior of the methods. Because the EMR method requires more computation time, we expect to find a linear relationship to explain its variability depending on the random regressor, in this case, the result of the BC method. We intend to show the advantages and possible causes of systematic error if BC method is used in place of EMR. As an additional point of research, we talk about the seismicity in northeastern Mexico, in order to motivate students and researchers to perform detailed studies in this area.
Ernesto López
Capítulo 1
1.‐ INTRODUCCIÓN 1.1.‐ GENERALIDADES La estadística asume un papel importante dentro del campo de ciencias de la Tierra, debido a que en muchos casos los parámetros de interés no pueden o fue imposible evaluarlos de forma determinista por la complejidad del planeta. Por consiguiente, ésta herramienta es fundamental tanto para modelar datos, interpretar información y hasta predecir fenómenos. Una técnica estadística utilizada frecuentemente es el análisis de regresión lineal, se podría decir que hasta es la más utilizada, debido a que los modelos lineales son una explicación simplificada de la realidad, mucho más ágil y con un soporte teórico por parte de la matemática y la estadística mucho más extenso a los que se puede recurrir para simular diferentes procesos, si cumplen con algunas condiciones. El análisis de regresión es una técnica estadística para investigar y modelar la relación entre variables. Las aplicaciones son múltiples, ya que existen en casi cualquier campo, incluyendo ingeniería, ciencias físicas y químicas, economía, administración, ciencias biológicas y en las ciencias sociales. El término regresión fue utilizado por primera vez en un estudio realizado por Francis Galton sobre variables antropométricas en 1889, al comparar la estatura de padres e hijos, resultó que los hijos cuyos padres tenían una estatura superior al valor medio tendían a igualarse a este; mientras que aquellos cuyos padres eran muy bajos, tendían a reducir su diferencia respecto a la estatura media; es decir, “regresaban” al promedio. El término lineal es utilizado para distinguir de las demás técnicas de regresión, que emplean modelos basados en cualquier función matemática, como por ejemplo cuadráticas, cúbicas, exponenciales, etc.
Ernesto López
Capítulo 1 Uno de los métodos más empleados para definir el modelo (ecuación lineal) de regresión es el método de mínimos cuadrados, él cual fue propuesto por Legendre en 1805 y Gauss en 1809. El termino “mínimos cuadrados” proviene de la descripción dada por Legendre “moindres carrés”. Como se mencionó, ésta técnica tiene múltiples usos dentro del campo científico, y en sismología su uso es muy extenso. El término sismología proviene del griego “seismos” (terremoto) y “logia” (estudio de). El estudio de los terremotos se puede enfocar principalmente a tres aspectos: (a) la fuente sísmica, (b) trayectoria de las ondas y (c) los efectos en la superficie, mejor conocidos como la respuesta del sitio. De acuerdo con los efectos experimentados a lo largo de tiempo, existen regiones o áreas donde se han realizado diversos estudios de detalle para entender los tres aspectos mencionados anteriormente, ejemplos de esto son: la Ciudad de México, Los Ángeles, San Francisco en los EE.UU., Kobe en Japón; así como otras ciudades importantes ubicadas dentro del llamado Cinturón de Fuego que corresponde a las fronteras de las placas tectónicas en donde es preponderante el proceso de subducción y que se encuentran circundando el Océano Pacífico, principalmente. Una de las características de estos estudios ha sido la de analizar y cuantificar la respuesta sísmica y daños asociados a terremotos que se han presentado. Sin embargo, es todavía poco el trabajo realizado en torno a las variaciones estadísticas e incertidumbres en parámetros tales como la energía liberada, las distribuciones fractales y el esfuerzo. 1.2.‐ ANTECEDENTES En la Sismología, un tema central es la evaluación del impacto de los sismos en la vida humana, por lo tanto, es preponderante tener una estimación del riesgo sísmico para todas las regiones de un país. La estadística es una herramienta indispensable, tanto para hacer un estimado de ocurrencia de eventos en el tiempo como para proponer posibles periodos de recurrencia, y para efectuar modelaciones. Pero debido a la falta de datos por carencia de estaciones sísmicas, estas predicciones están sujetas a grandes
Ernesto López
Capítulo 1 incertidumbres; sin embargo, dentro de cierto grado de confianza (acotados con métodos estadísticos, e información de catálogos sísmicos y geológicos) pueden llegar a ser aceptables. Por ejemplo, zonas consideradas asísmicas erróneamente, pueden repercutir en los cálculos estadísticos sobre la posible ocurrencia de un evento, debido a que no se cuenta con un control real de la actividad histórica, por ausencia de redes sísmicas en la zona. Debido a estudios recientes, a partir de datos de catálogos de sismicidad bastante completos (Servicio Sismológico Nacional, Nacional Earthquake Information Center de los E.U., Internacional Seismological Centre en el R.U., etc.) se han podido hacer observaciones sobre el comportamiento de los sismos, y con esto desarrollar diferentes metodologías confiables para el cálculo de predicción y riesgo sísmico. La importancia del pronóstico de terremotos recae en la necesidad de reducir el riesgo de estos eventos naturales vía la construcción de edificios más resistentes, a partir de identificar regiones propensas a temblores y la estimación de la ocurrencia de estos y los efectos podrían generar (Stein y Wysession, 2003). En general se considera una predicción sísmica formal a aquélla en la que se indica el tiempo, sitio (con la profundidad) y la dimensión (magnitud) del evento por ocurrir, incluyendo con todos estos parámetros una indicación del error o la incertidumbre en cada valor dado. El tiempo de ocurrencia se proporciona como un intervalo en el que exista la probabilidad de que suceda un evento y se deben especificar los métodos empleados como la justificación de los mismos (Zúñiga, 1991). Es de gran importancia profundizar sobre el tema de predicción sísmica, debido a que es sabido lo devastadores que pueden ser estos fenómenos y de todas las vidas que puede costar no alertar a la población; casos recientes Haití y Chile en 2010. Por lo que es una prioridad para los sismólogos realizar estimaciones adecuadas de la ocurrencia de sismos para evaluar el peligro asociado en zonas susceptibles a estos eventos.
Ernesto López
Capítulo 1 Para hacer una estimación aceptable sobre predicción sísmica es necesario conocer de manera detallada el entorno sismotectónico, la dinámica de deformación existente y a partir de esto estimar el tiempo necesario en el cual la acumulación de esfuerzos sobrepase el limite de fricción causando rompimientos en la corteza con magnitudes significativas capaces de causar severos daños a centros urbanos. Esto se lleva a cabo a través de estudios determinísticos, es decir, realizar un estudio concentrándose en el mecanismo físico del evento, tratando de determinar todos y cada uno de los parámetros involucrados en él, de manera que al conocer el fenómeno a fondo se pueda determinar la ocurrencia futura. Pero debido a la complejidad de la estructura interna del planeta puede no ser viable el predecir con una incertidumbre baja a los eventos sísmicos de manera global (Zúñiga, 1991). A causa de este problema, la herramienta más utilizada y aceptada es la estadística, en particular el análisis probabilístico; es decir, la probabilidad de ocurrencia de un evento. Ésta se establece tratando al fenómeno como una serie de ocurrencias de eventos en el tiempo y sus características con una distribución a determinarse. Se sabe que existen ciertos parámetros observables con un posible carácter predictivo; en cuanto al proceso físico de un sismo, ciertos fenómenos relacionados con el esfuerzo al que están sometidas las rocas pueden ser observados y algunos medidos antes de la ocurrencia del terremoto, a éstos se les conocen como fenómenos precursores. Ejemplos de éstos son: cambios en el campo eléctrico natural de las rocas, variaciones en el nivel de agua de pozos, anormalidades en el comportamiento animal, cambios en las emanaciones naturales de diversos gases tales como el radón, deformación de la corteza (medida de distintas formas, incluyendo variaciones en la aceleración de la gravedad en la zona), variaciones de temperatura en aguas subterráneas, cambios en la coloración infrarroja, etc., (Zúñiga, 1991). Otro tipo de fenómenos que han sido de gran utilidad para evaluar la posibilidad de una predicción, son las variaciones en espacio y tiempo de algunos fenómenos
Ernesto López
Capítulo 1 relacionados con la sismicidad de una zona de interés. Entre éstos se encuentran los llamados patrones de sismicidad, los cuales se refieren a los cambios que pueden tener lugar en el número y características de los sismos que normalmente ocurren en una zona, y que se pueden presentar con anticipación a la ocurrencia de un macrosismo. Sin embargo, el problema en este caso es determinar cuál es el nivel "normal" de actividad sísmica. Como es de esperarse, a lo largo del tiempo ha habido avances, pero todavía se siguen presentando problemas debido a falta de instrumentación como también implementación de nuevas metodologías que proporcionen resultados distintos. Actualmente se siguen realizando estudios de predicción debido a la gran importancia que existe respecto a este tema, con el propósito de que en un futuro, debido a que no es posible detener la naturaleza de estos eventos ni tampoco contrarrestar sus efectos, deje como posibilidad el prevenir a la población en zonas de peligro causado por éstos fenómenos. 1.2.1.‐ Relación Gutenberg‐Richter Muchos estudios de sismicidad hacen énfasis al tema de predicción, debido a su gran importancia por el peligro que podría representar un evento fuerte en una zona donde no se tengan medidas de prevención para una catástrofe de tal magnitud (Stein y Wysession, 2003). Los estudios de predicción y riesgo sísmico descansan en el concepto de autosimilitud de los sismos. Un objeto auto‐similar o auto‐semejante es en el que todo es exacta o aproximadamente similar a una parte de si mismo (el fenómeno es igual a todas las escalas). Éste concepto es una propiedad de los fractales que se describe como objeto semigeométrico cuya estructura básica, fragmentada o irregular, se repite a diferentes escalas. El término fue propuesto por el matemático Benoît Mandelbrot en 1975 y deriva del latín “fractus”, que significa quebrado o fracturado. Muchas estructuras naturales son de tipo fractal.
Ernesto López
Capítulo 1 Esta distribución auto‐similar se presenta en forma escalada en orden descendiente respecto a sismos grandes; es decir que para un evento de cierta magnitud mayor, habrá otros de menor magnitud en una escala de número de eventos definida. Por ejemplo, para un sismo de magnitud 7 habrá 10 de magnitud 5, para uno de magnitud 5 habrá 100 de magnitud 4 (si se tiene un exponente de escalamiento igual a 1.0), y así sucesivamente debido a que el escalamiento aumenta exponencialmente; es decir, una ley de escalamiento o de potencias que de forma matemática es llamada “ZipF” (Per Bak, 1996). 1.2.1.1.‐ ¿Qué es el valor b? El proceso auto‐similar de la distribución de los sismos queda definido en la relación Gutenberg‐Richter (1944; G‐R) ó Ishimoto‐Ida (1939) dependiendo la región. Ésta relación representa a un escalamiento de eventos con respecto a sus magnitudes. La ecuación G‐R esta representada por: LogN = a − bM (1) Donde N es el número de eventos acumulados en una región para una ventana de tiempo específica con magnitudes iguales o mayores a M . La constante b o “valor b ” es la pendiente de la distribución de los sismos en escala logarítmica de la distribución G‐R, (se puede considerar como el exponente de escalamiento en la ley de potencias), la cual se ha demostrado que tiene una relación directa con el esfuerzo promedio para una región en particular, o puede también verse como una forma de cuantificar el tamaño promedio de las rupturas (Wiemer y Wyss, 2002). El valor b generalmente es cercano a 1 (Zúñiga y Wyss, 2001). Valores de b >1 se relacionan con una concentración de esfuerzos menores (Zúñiga y Wyss, 2001; Wiemer y Wyss 1997) y viceversa. La constante a es una medida del nivel de sismicidad o productividad sísmica de la región (Kossobokov et al, 2000), matemáticamente expresa el logaritmo del número de sismos con magnitudes mayores a cero, es decir, el total esperado de eventos en la región si se extrapola la relación hasta las magnitudes más pequeñas.
Ernesto López
Capítulo 1 En la figura 1, se observa gráficamente la relación G‐R con un valor b =1. Teóricamente la distribución de los sismos debería verse de esta forma; es decir una relación logarítmica lineal.
Figura 1: Relación G‐R ideal.
Pero debido a la falta de datos de sismos pequeños (por ausencia de redes) y por la poca ocurrencia de sismos grandes, la distribución de los sismos pequeños tiende a converger en un punto determinado y los grandes a desestabilizar la parte lineal. Esto es presentado en la figura 2.
Figura 2: Relación G‐R como se presenta normalmente.
Ernesto López
Capítulo 1 En la cual se observa un nuevo parámetro; éste es conocido como la magnitud mínima de completitud Mc debido a que es la magnitud a partir de la cual el catálogo se puede considerar completo (incluye todos los eventos ocurridos para esa magnitud y mayores) y a partir de ahí se corta éste para encontrar la parte lineal que satisfaga a la relación G‐R. Los sismos que se encuentran encerrados con círculos rojos en la parte inferior derecha y superior izquierda representan los sismos de magnitudes mayores y menores respectivamente, en los cuales se observa que estos eventos desestabilizan la parte lineal. Lo anterior se debe a que sismos de magnitudes grandes ocurren de forma menos frecuente que los de magnitudes pequeñas y éstos no alcanzan a ser detectados. Sin embargo, teóricamente considerando una ventana de tiempo grande y contando con una gran red de estaciones sismológicas capaces de detectar eventos pequeños, estos eventos deberían ajustarse de forma lineal, desafortunadamente en estas fechas no es posible. Existe otro problema que afecta la linealidad de los eventos, se refiere a ciertos eventos poco estudiados llamados “sismos caracteristicos”. Estos eventos son sismos de una magnitud preferencial que ocurren más frecuentemente de lo previsto por la relación G‐R. En la figura 3 se muestran estos eventos encerrados con un circulo rojo.
Figura 3: Visualización de sismos característicos.
Ernesto López
Capítulo 1 Este tipo de eventos afectan el cálculo del valor b y se ha observado que aún y cuando se toma en cuenta una ventana de tiempo grande, se siguen presentando. Debido a esto, se han propuesto modelos en los cuales se tome en cuenta este tipo de fenómenos, pero la validez de dichos modelos siguen siendo no aprobados (Zoller, 2008). A nivel teórico el concepto de auto‐similitud conlleva a que el resultado del valor b debería ser estable a nivel regional una vez que se considere un intervalo de tiempo que incluya una muestra suficientemente completa de posibles ocurrencias de eventos de todas las magnitudes. De otra forma, el valor b estimado a partir de un tiempo suficiente (un catálogo completo), no debería cambiar al aumentar el tamaño del catálogo con el tiempo. Pero el cálculo del valor b depende de muchos factores (falta de datos, catálogos erróneos, etc.), lo que da lugar a que la incertidumbre sea difícil de evaluar. 1.2.1.2.‐ ¿Cómo se mide el valor b? Existen dos formas para calcular este parámetro. 1.‐ Ajuste de mínimos cuadrados. 2.‐ Máxima verosimilitud.
Figura 4: Cálculo del valor b mediante mínimos cuadrados
Ernesto López
Capítulo 1 En la figura 4 se presenta el cálculo por mínimos cuadrados. Esta forma de calcular el parámetro tiene como ventajas el control visual de la variación con pequeños ajustes, pero presenta como principales desventajas la identificación del rango lineal y las variaciones en la linealidad. La otra forma de calcular este parámetro es mediante la relación propuesta por Aki (1965) quien la determinó siguiendo el principio de Máxima Verosimilitud o Máxima Posibilidad, que es expresada en la siguiente ecuación: b =
log10 (e) [ M − (Mc − ΔM bin / 2)] (1.1)
En donde se representa el número de Euler e , la magnitud promedio M , la magnitud mínima de completitud o de corte Mc y ΔM bin es la dimensión del intervalo mínimo de magnitud (lo más común es que sea igual a 0.1). Ahora bien, ésta forma de calcular el valor b es más confiable que la forma del ajuste lineal y tiene como principal ventaja el cálculo sistemático y objetivo del valor, pero sus desventajas consisten en que depende de la magnitud promedio M y de la magnitud mínima de completitud Mc . Ésta última representa un parámetro crucial para el cálculo del valor b . Existen varios métodos para el cálculo de dicho parámetro, entre los más robustos se encuentran el “Método de rango total de magnitudes (EMR)” y el “Método de mejor combinación (BC)”, los cuales son abordados en el presente trabajo. En la figura 5 se resume el método llamado EMR (Woessner y Wiemer, 2005), en el cual por debajo de la magnitud Mc se usa la probabilidad de que una red detecte un evento de cierta magnitud y por arriba de Mc se usa la ley de potencias con máxima
Ernesto López
Capítulo 1 verosimilitud. Es el método más confiable, pero su procesamiento podría tardar varias horas para un catálogo extenso.
Figura 5: Cálculo de Mc con el método EMR.
Ernesto López
Capítulo 1 En la figura 6 se observa otra forma para el cálculo de Mc , que es mediante el método de máxima curvatura MAXC o BC (Best Combination) (Wiemer y Wyss, 2000). Este método se basa en encontrar la Mc como el valor máximo de la primera derivada de la distribución. Es bastante rápido debido a que calcula este parámetro en cuestión de minutos y confiable ya que posee M + 95% de ajuste lineal, pero puede tener problemas cuando se trata de distribuciones que muestran una curva suave.
Figura 6: Cálculo de Mc con el método BC
Ernesto López
Capítulo 1 Los métodos antes presentados son a los que se enfocará éste trabajo, aunque existen otros métodos para el cálculo de éste parámetro. Entre ellos están el método de Bondad de Ajuste a la Distribución Frecuencia‐Magnitud GFT (Wiemer y Wyss 2000; Kagan 2003), y el método de Estabilidad del valor b contra Mc (Cao y Gao, 2002; Marsan, 2003), que han mostrado ser menos confiables para todo tipo de datos (Woessner y Wiemer, 2005). Los métodos EMR y BC al parecer presentan una correlación en cuanto al cálculo de la magnitud mínima de completitud Mc y por consiguiente el cálculo del valor b . Por esta razón se abordan estos métodos en éste trabajo. 1.2.2.‐ Trabajos previos En el pasado, se ha estudiado la sismicidad caracterizando zonas en particular. Considerándolas de manera independiente se han descuidado otros argumentos, como detalles de la fuente sísmica o características de la energía liberada por eventos mayores. Los catálogos sísmicos utilizados para caracterizar éstas zonas sismogénicas carecen de homogeneidad y distan mucho de ser catálogos completos en el intervalo de magnitudes consideradas en ingeniería. Adicionalmente las diferentes consideraciones para determinar las magnitudes pueden inducir sesgos en las estimaciones de riesgo sísmico, por lo que es necesario realizar correcciones de magnitud. En la figura 7 se observa el mapa sismotectónico de México propuesto por la Comisión Federal de Electricidad (CFE), en el cual se divide el país en 4 secciones.
Ernesto López
Capítulo 1
Figura 7: Regionalización sísmica de México
Donde la zona A es aquella donde no se tienen registros históricos de sismos y donde las aceleraciones del terreno se esperan menores al 10% de g. En la zona D ocurren con frecuencia temblores de gran magnitud (M > 7) y las aceleraciones del terreno pueden ser superiores al 70% de g. Los niveles de sismicidad y de aceleración propios de las zonas B y C están acotados por los valores correspondientes de A y D, los temblores grandes son poco frecuentes (Zúñiga y Guzmán, 1994). En la mayoría de los trabajos de sismicidad relacionados a predicción se ha discutido sobre la variabilidad del valor b tanto en escala local como regional; Zúñiga, Figueroa y Suárez et al., (2009) discuten sobre esta variación y su relación para actualizar la regionalización sismotectónica de México con fines de riesgo sísmico en México, ellos discuten además que son pocos lo trabajos donde se ha enfocado el estudio de la variabilidad del valor b con el tiempo. La figura 8 presenta un estudio posterior teniendo como base el valor b , en el cual se da una mejor perspectiva acerca de la sismicidad presente en nuestro país, debido a que éste parámetro muestra las diferentes características de las regiones definidas,
Ernesto López
Capítulo 1 utilizando diferentes métodos para su determinación y comparando los resultados con las observaciones de sismos grandes para cada región delimitada.
Figura 8: Mapa sismotectónico de México (Zúñiga, Figueroa y Suárez, 2009).
Donde: SUB1.‐ Eventos de subducción someros (h