UNIVERSIDAD AUTONÓMA DE NUEVO LEÓN FACULTAD DE CIENCIAS DE LA TIERRA LA TESIS

Capítulo 1 UNIVERSIDAD AUTONÓMA DE NUEVO LEÓN FACULTAD DE CIENCIAS DE LA TIERRA LA TESIS ANÁLISIS DE REGRESIÓN LINEAL PARA CORRELACIONAR DATOS DEL V

9 downloads 16 Views 3MB Size

Recommend Stories


CIENCIAS DE LA TIERRA
PS/EARTH SCIENCE The University of the State of New York SPANISH EDITION EARTH SCIENCE WEDNESDAY, August 16, 2006 12:30 p.m. TO 3:30 p.m. ONLY REGEN

CIENCIAS DE LA TIERRA
P.S./EARTH SCIENCE The University of the State of New York SPANISH EDITION PS/EARTH SCIENCE THURSDAY, JUNE 19, 2014 1:15 to 4:15 P.M., ONLY REGENTS

CIENCIAS DE LA TIERRA
P.S./EARTH SCIENCE The University of the State of New York REGENTS HIGH SCHOOL EXAMINATION SPANISH EDITION PS/EARTH SCIENCE FRIDAY, AUGUST 17, 2012 1

CIENCIAS DE LA TIERRA
SPANISH EDITION EARTH SCIENCE WEDNESDAY, JUNE 22, 2005 9:15 a.m. TO 12:15 p.m. ONLY PS/EARTH SCIENCE The University of the State of New York REGENTS

CIENCIAS DE LA TIERRA
SPANISH EDITION EARTH SCIENCE WEDNESDAY, JANUARY 26, 2005 1:15 to 4:15 p.m., only The University of the State of New York REGENTS HIGH SCHOOL EXAMINAT

Story Transcript

Capítulo 1

UNIVERSIDAD AUTONÓMA DE NUEVO LEÓN FACULTAD DE CIENCIAS DE LA TIERRA

LA TESIS ANÁLISIS DE REGRESIÓN LINEAL PARA CORRELACIONAR DATOS DEL VALOR b EN CATÁLOGOS DE SISMICIDAD, OBTENIDOS CON DOS TÉCNICAS QUE PRESENTA ERNESTO GUADALUPE LÓPEZ BRICEÑO HA SIDO ACEPTADA COMO REQUISITO PARCIAL PARA OBTENER EL TÍTULO DE INGENIERO GEOFÍSICO

Vo. Bo. Director de Titulación

______________________ Dr. Juan Carlos Montalvo Arrieta LINARES, NUEVO LEÓN Ernesto López 

Vo. Bo. Asesor

______________________ Dr. Fco. Ramón Zúñiga Dávila-Madrid FEBRERO 2011

Capítulo 1   RESUMEN  

  El  interés  de  los  investigadores  sobre  la  posibilidad  de  pronosticar  efectos  de  eventos  sísmicos  ha  ido  aumentando  debido  a  los  graves  daños  que  estos  fenómenos  pueden  causar,  como  lo  evidencian  los  casos  recientes  en  Haití  y  Chile  (2010).  Para  la  Sismología Estadística son objetivos primordiales lo relacionado con el peligro y el riesgo  sísmico. Dentro de éste tema, un parámetro muy importante es el conocido como “valor  b”,  que  está  definido  por  la  relación  Gutenberg‐Richter.  Dicha  relación  representa  el  número  de  eventos  acumulados  (N)  con  respecto  a  las  magnitudes  (M).  Este  es  un  parámetro  básico  en  cualquier  cálculo  de  probabilidad  de  ocurrencia  de  un  sismo  de  cierta  magnitud,  pero  su  cálculo  esta  sujeto  a  incertidumbre  ocasionada  por  varios  factores  (estaciones  sísmicas  antiguas  y  falta  de  datos),  por  lo  cual  los  cálculos  para  diseñar estructuras sismorresistentes se pueden ver seriamente afectados. Un parámetro  crucial  en  el  cálculo  del  valor  b  es  la  magnitud  mínima  de  completitud  (Mc).  Existen  varios métodos para el cálculo de dicho parámetro, entre los más robustos se encuentran  el  “Método  de  rango  total  de  magnitudes  (EMR)”  y  el  “Método  de  mejor  combinación  (BC)”,  los  que  son  abordados  en  el  presente  trabajo.  En  este  estudio  se  muestran  resultados de un análisis de regresión lineal con el objeto de evaluar el comportamiento  de los métodos. Debido a que el método EMR requiere de un mayor tiempo de cómputo,  se  espera  encontrar  una  relación  lineal  que  explique  su  variabilidad  en  función  del  regresor aleatorio que en este caso será el resultado del método BC. Se pretende mostrar  las  ventajas  y  posibles  causas  de  error  sistemático  si  se  emplea  el  método  BC  en  sustitución del EMR. Como una investigación extra, se habla respecto a la sismicidad en el  noreste de México, con el propósito de motivar a estudiantes e investigadores a realizar  estudios detallados en ésta zona. 

          Ernesto López 

Capítulo 1

  ABSTRACT    The interest of researchers on the possibility of predicting effects of seismic events  has  been  increasing  due  to  the  damage  that  these  events  may  cause,  as  evidenced  by  recent cases in Haiti and Chile (2010). For Statistical Seismology first order objectives are  those related to seismic hazard and risk. Within this theme, a very important parameter  is the so‐called "b ‐ value", which is defined by the Gutenberg‐Richter relationship. This  relationship  represents  the  accumulated  number  of  events  (N)  with  respect  to  the  magnitudes (M). This is a basic parameter in any calculation of probability of occurrence  of  an  earthquake  of  certain  magnitude,  but  its  calculation  is  subjected  to  uncertainty  caused  by  several  factors  (old  seismic  stations  and  lack  of  data),  so  calculations  for  designing earthquake resistant structures can be seriously affected. A crucial parameter   in calculating the  b value  is the minimum magnitude of completeness  (Mc). There are  several  methods  for  calculating  this  parameter,  the  most  robust  are  the  "entire  magnitude  range  method  (EMR)  "  and  the  "best  combination  method  (BC)",  which  are  addressed in this paper. In this study we present results of a linear regression analysis to  evaluate  the  behavior  of  the  methods.  Because  the  EMR  method  requires  more  computation  time,  we  expect  to  find  a  linear  relationship  to  explain  its  variability  depending on the random regressor, in this case, the result of the BC method.  We intend  to show the advantages and possible causes of  systematic error if BC  method is used in  place  of  EMR.  As  an  additional  point  of  research,  we  talk  about  the  seismicity  in  northeastern Mexico, in order to motivate students and researchers to perform detailed  studies in this area. 

           

Ernesto López 

Capítulo 1

  1.‐  INTRODUCCIÓN    1.1.‐  GENERALIDADES    La estadística asume un papel importante dentro del campo de ciencias de la Tierra,  debido  a  que  en  muchos  casos  los  parámetros  de  interés  no  pueden  o  fue  imposible  evaluarlos de forma determinista por la complejidad del planeta. Por consiguiente, ésta  herramienta es fundamental tanto para modelar datos, interpretar información y hasta  predecir  fenómenos.  Una  técnica  estadística  utilizada  frecuentemente  es  el  análisis  de  regresión lineal, se podría decir que hasta es la más utilizada, debido a que los modelos  lineales son una explicación simplificada de la realidad, mucho más ágil y con un soporte  teórico  por  parte  de  la  matemática  y  la  estadística  mucho  más  extenso  a  los  que  se  puede recurrir para simular diferentes procesos, si cumplen con algunas condiciones.    El  análisis  de  regresión  es  una  técnica  estadística  para  investigar  y  modelar  la  relación entre variables. Las aplicaciones son múltiples, ya que existen en casi cualquier  campo,  incluyendo  ingeniería,  ciencias  físicas  y  químicas,  economía,  administración,  ciencias biológicas y en las ciencias sociales.    El  término  regresión  fue  utilizado  por  primera  vez  en  un  estudio  realizado  por  Francis  Galton  sobre  variables  antropométricas  en  1889,  al  comparar  la  estatura  de  padres  e  hijos,  resultó  que  los  hijos  cuyos  padres  tenían  una  estatura  superior  al  valor  medio  tendían  a  igualarse  a  este;  mientras  que  aquellos  cuyos  padres  eran  muy  bajos,  tendían  a  reducir  su  diferencia  respecto  a  la  estatura  media;  es  decir,  “regresaban”  al  promedio.  El  término  lineal  es  utilizado  para  distinguir  de  las  demás  técnicas  de  regresión,  que  emplean  modelos  basados  en  cualquier  función  matemática,  como  por  ejemplo cuadráticas, cúbicas, exponenciales, etc.       

Ernesto López 

Capítulo 1   Uno  de  los  métodos  más  empleados  para  definir  el  modelo  (ecuación  lineal)  de  regresión  es  el  método  de  mínimos  cuadrados,  él  cual  fue  propuesto  por  Legendre  en  1805 y Gauss en 1809. El termino “mínimos cuadrados” proviene de la descripción dada  por  Legendre  “moindres  carrés”.  Como  se  mencionó,  ésta  técnica  tiene  múltiples  usos  dentro del campo científico, y en sismología su uso es muy extenso.     El término sismología proviene del griego “seismos” (terremoto) y “logia” (estudio  de). El estudio de los terremotos se puede enfocar principalmente a tres aspectos: (a) la  fuente  sísmica,  (b)  trayectoria  de  las  ondas  y  (c)  los  efectos  en  la  superficie,  mejor  conocidos como la respuesta del sitio. De acuerdo con los  efectos experimentados a lo  largo  de  tiempo,  existen  regiones  o  áreas  donde  se  han  realizado  diversos  estudios  de  detalle  para  entender  los  tres  aspectos  mencionados  anteriormente,  ejemplos  de  esto  son: la Ciudad de México, Los Ángeles, San Francisco en los EE.UU., Kobe en Japón; así  como  otras  ciudades  importantes  ubicadas  dentro  del  llamado  Cinturón  de  Fuego  que  corresponde  a  las  fronteras  de  las  placas  tectónicas  en  donde  es  preponderante  el  proceso  de  subducción  y  que  se  encuentran  circundando  el  Océano  Pacífico,  principalmente.  Una  de  las  características  de  estos  estudios  ha  sido  la  de  analizar  y  cuantificar la respuesta sísmica y daños asociados a terremotos que se han presentado.  Sin embargo, es todavía poco el trabajo realizado en torno a las variaciones estadísticas e  incertidumbres en parámetros tales como la energía liberada, las distribuciones fractales  y el esfuerzo.    1.2.‐ ANTECEDENTES     En la Sismología, un tema central es la evaluación del impacto de los sismos en la  vida  humana,  por  lo  tanto,  es  preponderante  tener  una  estimación  del  riesgo  sísmico  para todas las regiones de un país. La estadística es una herramienta indispensable, tanto  para  hacer  un  estimado  de  ocurrencia  de  eventos  en  el  tiempo  como  para  proponer  posibles periodos de recurrencia, y para efectuar modelaciones. Pero debido a la falta de  datos por carencia de estaciones sísmicas, estas predicciones están sujetas a grandes  

Ernesto López 

Capítulo 1   incertidumbres;  sin  embargo,  dentro  de  cierto  grado  de  confianza  (acotados  con  métodos estadísticos, e información de catálogos sísmicos y geológicos) pueden llegar a  ser  aceptables.  Por  ejemplo,  zonas  consideradas  asísmicas  erróneamente,  pueden  repercutir en los cálculos estadísticos sobre la posible ocurrencia de un evento, debido a  que  no  se  cuenta  con  un  control  real  de  la  actividad    histórica,  por  ausencia  de  redes  sísmicas  en  la  zona.  Debido  a  estudios  recientes,  a  partir  de  datos  de  catálogos  de  sismicidad  bastante  completos  (Servicio  Sismológico  Nacional,  Nacional  Earthquake  Information Center de los E.U., Internacional Seismological Centre en el R.U., etc.) se han  podido  hacer  observaciones  sobre  el  comportamiento  de  los  sismos,  y  con  esto  desarrollar  diferentes  metodologías  confiables  para  el  cálculo  de  predicción  y  riesgo  sísmico.    La  importancia  del  pronóstico  de  terremotos  recae  en  la  necesidad  de  reducir  el  riesgo de estos eventos naturales vía la construcción de edificios más resistentes, a partir  de identificar regiones propensas a temblores y la estimación de la ocurrencia de estos y  los  efectos  podrían  generar  (Stein  y  Wysession,  2003).  En  general  se  considera  una  predicción  sísmica  formal  a  aquélla  en  la  que  se  indica  el  tiempo,  sitio  (con  la  profundidad)  y  la  dimensión  (magnitud)  del  evento  por  ocurrir,  incluyendo  con  todos  estos  parámetros  una  indicación  del  error  o  la  incertidumbre  en  cada  valor  dado.  El  tiempo de ocurrencia se proporciona como un intervalo en el que exista la probabilidad  de  que  suceda  un  evento  y  se  deben  especificar  los  métodos  empleados  como  la  justificación de los mismos (Zúñiga, 1991).      Es de gran importancia profundizar sobre el tema de predicción sísmica, debido a  que es sabido lo devastadores que pueden ser estos fenómenos y de todas las vidas que  puede costar no alertar a la población; casos recientes Haití y Chile en 2010. Por lo que es  una prioridad para los sismólogos   realizar estimaciones adecuadas de la ocurrencia de  sismos para evaluar el peligro asociado en zonas susceptibles a estos eventos.     

Ernesto López 

Capítulo 1   Para hacer una estimación aceptable sobre predicción sísmica es necesario conocer  de manera detallada el entorno sismotectónico, la dinámica de deformación existente y a  partir  de  esto  estimar  el  tiempo  necesario  en  el  cual  la  acumulación  de  esfuerzos  sobrepase  el  limite  de  fricción  causando  rompimientos  en  la  corteza  con  magnitudes  significativas capaces de causar severos daños a centros urbanos. Esto se lleva a cabo a  través  de  estudios  determinísticos,  es  decir,  realizar  un  estudio  concentrándose  en  el  mecanismo físico del evento, tratando de determinar todos y cada uno de los parámetros  involucrados en él, de manera que al conocer el fenómeno a fondo se pueda determinar  la  ocurrencia  futura.  Pero  debido  a  la  complejidad  de  la  estructura  interna  del  planeta  puede  no  ser  viable  el  predecir  con  una  incertidumbre  baja  a  los  eventos  sísmicos  de  manera global (Zúñiga, 1991).     A causa de este problema, la herramienta más utilizada y aceptada es la estadística,  en  particular  el  análisis  probabilístico;  es  decir,  la  probabilidad  de  ocurrencia  de  un  evento.  Ésta  se  establece  tratando  al  fenómeno  como  una  serie  de  ocurrencias  de  eventos en el tiempo y sus características con una distribución a determinarse.    Se  sabe  que  existen  ciertos  parámetros  observables  con  un  posible  carácter  predictivo; en cuanto al proceso físico de un sismo, ciertos fenómenos relacionados con  el esfuerzo al que están sometidas las rocas pueden ser observados y algunos medidos  antes  de  la  ocurrencia  del  terremoto,    a  éstos  se  les  conocen  como  fenómenos  precursores. Ejemplos de éstos son: cambios en el campo eléctrico natural de las rocas,   variaciones en el nivel de agua de pozos, anormalidades en el comportamiento animal,  cambios  en  las  emanaciones  naturales  de  diversos  gases  tales  como  el  radón,  deformación  de  la  corteza  (medida  de  distintas  formas,  incluyendo  variaciones  en  la  aceleración  de  la  gravedad  en  la  zona),  variaciones  de  temperatura  en  aguas  subterráneas, cambios en la coloración infrarroja, etc., (Zúñiga, 1991).     Otro tipo de fenómenos que han sido de gran utilidad para evaluar la posibilidad de  una predicción, son las variaciones en espacio y tiempo de algunos fenómenos  

Ernesto López 

Capítulo 1   relacionados  con  la  sismicidad  de  una  zona  de  interés.  Entre  éstos  se  encuentran  los  llamados patrones de sismicidad, los cuales se refieren a los cambios que pueden tener  lugar en el número y características de los sismos que normalmente ocurren en una zona,  y  que  se  pueden  presentar  con  anticipación  a  la  ocurrencia  de  un  macrosismo.  Sin  embargo, el problema en este caso es determinar cuál es el nivel "normal" de actividad  sísmica.     Como  es  de  esperarse,  a  lo  largo  del  tiempo  ha  habido  avances,  pero  todavía  se  siguen  presentando  problemas  debido  a  falta  de  instrumentación  como  también  implementación de nuevas metodologías que proporcionen resultados distintos.    Actualmente  se  siguen  realizando  estudios  de  predicción  debido  a  la  gran  importancia  que  existe  respecto  a  este  tema,  con  el  propósito  de  que  en  un  futuro,  debido  a  que  no  es  posible  detener  la  naturaleza  de  estos  eventos  ni  tampoco  contrarrestar  sus  efectos,  deje  como  posibilidad  el  prevenir  a  la  población  en  zonas  de  peligro causado por éstos fenómenos.      1.2.1.‐ Relación Gutenberg‐Richter    Muchos  estudios  de  sismicidad  hacen  énfasis  al  tema  de  predicción,  debido  a  su  gran  importancia  por  el  peligro  que  podría  representar  un  evento  fuerte  en  una  zona  donde no se tengan medidas de prevención para una catástrofe de tal magnitud (Stein y  Wysession, 2003). Los estudios de predicción y riesgo sísmico descansan en el concepto  de  autosimilitud  de  los  sismos.  Un  objeto  auto‐similar  o  auto‐semejante  es  en  el  que  todo es exacta o aproximadamente similar a una parte de si mismo (el fenómeno es igual  a  todas  las  escalas).  Éste  concepto  es  una  propiedad  de  los  fractales  que  se  describe  como objeto semigeométrico cuya estructura básica, fragmentada o irregular, se repite a  diferentes  escalas.  El  término  fue  propuesto  por  el  matemático  Benoît  Mandelbrot  en  1975 y deriva del latín “fractus”, que significa quebrado o fracturado. Muchas estructuras  naturales son de tipo fractal. 

Ernesto López 

Capítulo 1   Esta distribución auto‐similar se presenta en forma escalada en orden descendiente  respecto a sismos grandes; es decir que para un evento de cierta magnitud mayor, habrá  otros  de  menor  magnitud  en  una  escala  de  número  de  eventos  definida.  Por  ejemplo,  para un sismo de magnitud 7 habrá 10 de magnitud 5, para uno de magnitud 5 habrá 100   de magnitud 4 (si se tiene un exponente de escalamiento igual a 1.0), y así sucesivamente  debido  a  que  el  escalamiento  aumenta  exponencialmente;  es  decir,  una  ley  de  escalamiento o de potencias que de forma matemática es llamada “ZipF” (Per Bak, 1996).    1.2.1.1.‐ ¿Qué es el valor b?    El proceso auto‐similar de la distribución de los sismos queda definido en la relación  Gutenberg‐Richter  (1944;  G‐R)  ó  Ishimoto‐Ida  (1939)  dependiendo  la  región.  Ésta  relación  representa  a  un  escalamiento  de  eventos  con  respecto  a  sus  magnitudes.  La  ecuación G‐R esta representada por:                                                                     LogN = a − bM                                                          (1)    Donde  N es el número de eventos acumulados en una región para una ventana de  tiempo específica con magnitudes iguales o mayores a  M . La constante  b  o “valor  b ” es  la pendiente de la distribución de los sismos en escala logarítmica de la distribución G‐R,   (se puede considerar como el exponente de escalamiento en la ley de potencias), la cual   se  ha  demostrado  que  tiene  una  relación  directa  con  el  esfuerzo  promedio  para  una  región  en  particular,  o  puede  también  verse  como  una  forma  de  cuantificar  el  tamaño  promedio de las rupturas (Wiemer y Wyss, 2002). El valor  b generalmente es cercano a 1  (Zúñiga y Wyss, 2001). Valores de  b >1 se relacionan con una concentración de esfuerzos  menores (Zúñiga y Wyss, 2001; Wiemer y Wyss 1997) y viceversa. La constante  a  es una  medida  del  nivel  de  sismicidad  o  productividad  sísmica  de  la  región  (Kossobokov  et  al,  2000),  matemáticamente  expresa  el  logaritmo  del  número  de  sismos  con  magnitudes  mayores  a  cero,  es  decir,  el  total  esperado  de  eventos  en  la  región  si  se  extrapola  la  relación hasta las magnitudes más pequeñas. 

Ernesto López 

Capítulo 1   En  la  figura  1,  se  observa  gráficamente  la  relación  G‐R  con  un  valor  b =1.  Teóricamente  la  distribución  de  los  sismos  debería  verse  de  esta  forma;  es  decir  una  relación logarítmica lineal.  

  Figura 1: Relación G‐R ideal. 

  Pero debido a la falta de datos de sismos pequeños (por ausencia de redes) y por la  poca  ocurrencia  de  sismos  grandes,  la  distribución  de  los  sismos  pequeños  tiende  a  converger en un punto determinado y los grandes a desestabilizar la parte lineal. Esto es  presentado en la figura 2. 

  Figura 2: Relación G‐R como se presenta normalmente. 

Ernesto López 

Capítulo 1   En  la  cual    se  observa  un  nuevo  parámetro;  éste  es  conocido  como  la  magnitud  mínima de completitud  Mc  debido a que es la magnitud a partir de la cual el catálogo se  puede  considerar  completo  (incluye  todos  los  eventos  ocurridos  para  esa  magnitud  y  mayores) y a partir de ahí se corta éste para encontrar la parte lineal que satisfaga a la  relación  G‐R.  Los  sismos  que  se  encuentran  encerrados  con  círculos  rojos  en  la  parte  inferior  derecha  y  superior  izquierda  representan  los  sismos  de  magnitudes  mayores  y  menores respectivamente, en los cuales se observa que estos eventos desestabilizan la  parte lineal. Lo anterior se debe a que sismos de magnitudes grandes ocurren de forma  menos frecuente que los de magnitudes pequeñas y éstos no alcanzan a ser detectados.  Sin embargo, teóricamente considerando una ventana de tiempo grande y contando con  una  gran  red  de  estaciones  sismológicas  capaces  de  detectar  eventos  pequeños,  estos  eventos  deberían  ajustarse  de  forma  lineal,  desafortunadamente  en  estas  fechas  no  es  posible.      Existe  otro  problema  que  afecta  la  linealidad  de  los  eventos,  se  refiere  a  ciertos  eventos poco estudiados llamados “sismos caracteristicos”. Estos eventos son sismos de  una  magnitud  preferencial  que  ocurren  más  frecuentemente  de  lo  previsto  por  la  relación G‐R. En la figura 3 se muestran estos eventos encerrados con un circulo rojo.   

  Figura 3: Visualización de sismos característicos. 

Ernesto López 

Capítulo 1   Este  tipo  de  eventos  afectan  el  cálculo  del  valor  b   y  se  ha  observado  que  aún  y  cuando  se  toma  en  cuenta  una  ventana  de  tiempo  grande,  se  siguen  presentando.   Debido a esto, se han propuesto modelos en los cuales se tome en cuenta este tipo de  fenómenos, pero la validez de dichos modelos siguen siendo no aprobados (Zoller, 2008).    A nivel teórico el concepto de auto‐similitud conlleva a que el resultado del valor  b   debería ser estable a nivel regional una vez que se considere un intervalo de tiempo que  incluya  una  muestra  suficientemente  completa  de  posibles  ocurrencias  de  eventos  de  todas las magnitudes. De otra forma, el valor  b  estimado a partir de un tiempo suficiente  (un catálogo completo), no debería cambiar al aumentar el tamaño del catálogo con el  tiempo.  Pero  el  cálculo  del  valor  b   depende  de  muchos  factores  (falta  de  datos,  catálogos erróneos, etc.), lo que da lugar a que la incertidumbre sea difícil de evaluar.    1.2.1.2.‐ ¿Cómo se mide el valor b?    Existen dos formas para calcular este parámetro.   1.‐ Ajuste de mínimos cuadrados.  2.‐ Máxima verosimilitud. 

  Figura 4: Cálculo del valor  b mediante mínimos cuadrados 

 

Ernesto López 

Capítulo 1             En la figura 4 se presenta el cálculo por mínimos cuadrados. Esta forma de calcular  el parámetro tiene como ventajas el control visual de la variación con pequeños ajustes,  pero  presenta  como  principales  desventajas  la  identificación  del  rango  lineal  y  las  variaciones en la linealidad.    La otra forma de calcular este parámetro es mediante la relación propuesta por Aki  (1965)  quien  la  determinó  siguiendo  el  principio  de  Máxima  Verosimilitud  o  Máxima  Posibilidad, que es expresada en la siguiente ecuación:                                                       b =

log10 (e) [ M − (Mc − ΔM bin / 2)]                                                 (1.1)   

En  donde  se  representa  el  número  de  Euler  e ,  la  magnitud  promedio  M ,  la  magnitud mínima de completitud o de corte  Mc  y  ΔM bin  es la dimensión del intervalo  mínimo de magnitud (lo más común es que sea igual a 0.1).    Ahora  bien,  ésta  forma  de  calcular  el  valor  b   es  más  confiable  que  la  forma  del  ajuste  lineal  y  tiene  como  principal  ventaja  el  cálculo  sistemático  y  objetivo  del  valor,  pero  sus  desventajas  consisten  en  que  depende  de  la  magnitud  promedio  M   y  de  la  magnitud mínima de completitud   Mc . Ésta última representa un parámetro crucial para  el cálculo del valor  b .    Existen varios métodos para el cálculo de dicho parámetro, entre los más robustos  se encuentran el “Método de rango total de magnitudes (EMR)” y el “Método de mejor  combinación (BC)”, los cuales son abordados en el presente trabajo.    En la figura 5 se resume el método llamado EMR (Woessner y Wiemer, 2005), en el  cual  por  debajo  de  la  magnitud  Mc   se  usa  la  probabilidad  de  que  una  red  detecte  un  evento de cierta magnitud y por arriba de  Mc  se usa la ley de potencias con máxima    

Ernesto López 

Capítulo 1   verosimilitud.  Es  el  método  más  confiable,  pero  su  procesamiento  podría  tardar  varias  horas para un catálogo extenso.     

    Figura 5: Cálculo de  Mc  con el método EMR. 

Ernesto López 

Capítulo 1   En  la  figura  6  se  observa  otra  forma  para  el  cálculo  de  Mc ,  que    es  mediante  el  método  de  máxima  curvatura  MAXC  o  BC  (Best  Combination)  (Wiemer  y  Wyss,  2000).   Este método se basa en encontrar la  Mc  como el valor máximo de la primera derivada  de la distribución.  Es bastante rápido debido a que calcula este parámetro en cuestión  de  minutos  y  confiable  ya  que  posee  M + 95%   de  ajuste  lineal,  pero  puede  tener  problemas cuando se trata de distribuciones que muestran una curva suave.    

  Figura 6: Cálculo de  Mc  con el método BC 

     

Ernesto López 

Capítulo 1   Los  métodos  antes  presentados  son  a  los  que  se  enfocará  éste  trabajo,  aunque  existen otros métodos para el cálculo de éste parámetro. Entre ellos están el método de  Bondad  de  Ajuste  a  la  Distribución  Frecuencia‐Magnitud  GFT  (Wiemer  y  Wyss  2000;  Kagan  2003),  y  el  método  de  Estabilidad  del  valor  b   contra  Mc   (Cao  y  Gao,  2002;  Marsan,  2003),  que  han  mostrado  ser  menos  confiables  para  todo  tipo  de  datos  (Woessner y Wiemer, 2005).     Los métodos EMR y BC al parecer presentan  una correlación en cuanto al cálculo  de la magnitud mínima de completitud  Mc  y por consiguiente el cálculo del valor  b .  Por  esta razón se abordan estos métodos en éste trabajo.    1.2.2.‐ Trabajos previos    En  el  pasado,  se  ha  estudiado  la  sismicidad  caracterizando  zonas  en  particular.  Considerándolas  de  manera  independiente  se  han  descuidado  otros  argumentos,  como  detalles de la fuente sísmica o características de la energía liberada por eventos mayores.    Los catálogos sísmicos utilizados para caracterizar éstas zonas sismogénicas carecen  de  homogeneidad  y  distan  mucho  de  ser  catálogos  completos  en  el  intervalo  de  magnitudes  consideradas  en  ingeniería.  Adicionalmente  las  diferentes  consideraciones  para  determinar  las  magnitudes  pueden  inducir  sesgos  en  las  estimaciones  de  riesgo  sísmico, por lo que es necesario realizar correcciones de magnitud.    En  la  figura  7  se  observa  el  mapa  sismotectónico  de  México  propuesto  por  la  Comisión Federal de Electricidad (CFE), en el cual se divide el país en 4 secciones.            

Ernesto López 

Capítulo 1  

  Figura 7: Regionalización sísmica de México 

  Donde  la  zona  A  es  aquella  donde  no  se  tienen  registros  históricos  de  sismos  y  donde  las  aceleraciones  del  terreno  se  esperan  menores  al  10%  de  g.  En  la  zona  D  ocurren  con  frecuencia  temblores  de  gran  magnitud  (M  >  7)  y  las  aceleraciones  del  terreno  pueden  ser  superiores  al  70%  de  g.  Los  niveles  de  sismicidad  y  de  aceleración  propios de las zonas B y C están acotados por los valores correspondientes de A y D, los  temblores grandes son poco frecuentes (Zúñiga y Guzmán, 1994).    En  la  mayoría  de  los  trabajos  de  sismicidad  relacionados  a  predicción  se  ha  discutido  sobre  la  variabilidad  del  valor  b   tanto  en  escala  local  como  regional;  Zúñiga,  Figueroa y Suárez et al., (2009) discuten sobre esta variación y su relación para actualizar  la regionalización sismotectónica de México con fines de riesgo sísmico en México, ellos  discuten  además  que  son  pocos  lo  trabajos  donde  se  ha  enfocado  el  estudio  de  la  variabilidad del valor  b con el tiempo.    La figura 8 presenta un estudio posterior teniendo como base el valor  b , en el cual  se da una mejor perspectiva acerca de la sismicidad presente en nuestro país, debido a  que éste parámetro muestra las diferentes características de las regiones definidas,  

Ernesto López 

Capítulo 1   utilizando  diferentes  métodos  para  su  determinación  y  comparando  los  resultados  con  las observaciones de sismos grandes para cada región delimitada.   

                   

  Figura 8: Mapa sismotectónico de México (Zúñiga, Figueroa y Suárez, 2009). 

Donde:   SUB1.‐  Eventos  de  subducción  someros  (h 

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.