SciELO - Scientific Electronic Library Online

 
vol.19 issue1RentabiLean: Exploration model of the effect of Lean initiatives on financial profitabilitySynthesis and characterization of a polymeric magnetic hybrid material composed of iron oxide nanoparticles and polyvinyl butyral author indexsubject indexsearch form
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • Have no similar articlesSimilars in SciELO

Share


Ingeniería, investigación y tecnología

On-line version ISSN 2594-0732Print version ISSN 1405-7743

Ing. invest. y tecnol. vol.19 n.1 Ciudad de México Jan./Mar. 2018

https://doi.org/10.22201/fi.25940732e.2018.19n1.009 

Artículos

Fragilidad estructural de componentes ante incertidumbres no gaussianas correlacionadas

Component structural fragility facing correlated non-Gaussian uncertainties

Felipe Vázquez-Guillén1 

Gabriel Auvinet-Guichard2 

1 Universidad Nacional Autónoma de México, Instituto de Ingeniería, Coordinación de Geotecnia y Estructuras, México. Correo: fvazquezg@exii.unam.mx

2 Universidad Nacional Autónoma de México, Instituto de Ingeniería, Coordinación de Geotecnia y Estructuras, México. Correo: gauvinetg@iingen.unam.mx


Resumen

El presente artículo describe las modificaciones realizadas a dos metodologías clásicas de la confiabilidad estructural que permitirán considerar incertidumbres no gaussianas correlacionadas en la evaluación de la fragilidad estructural de componentes. La primera metodología se basa en el método de Monte Carlo y la segunda en el método de confiabilidad de primer orden. Ambos métodos se utilizan posteriormente para construir curvas de fragilidad para la falla por erosión de un bordo perimetral sujeto a un desbordamiento. Los resultados del análisis de fragilidad muestran lo siguiente: 1) Al considerar densidades marginales no gaussianas en las variables de diseño, la curva de fragilidad difiere significativamente de la distribución lognormal; 2) el tipo de densidad de probabilidad de la variable aleatoria con mayor influencia sobre la falla del bordo no necesariamente determina el tipo de curva de fragilidad. Por lo tanto, en un contexto más realista de incertidumbres no gaussianas, no parece correcto suponer a priori un modelo teórico para la curva de fragilidad ignorando las distribuciones de las variables básicas, ya que no se puede anticipar su tipo basándose únicamente en la distribución de la variable aleatoria con mayor incidencia sobre la falla del componente.

Descriptores: curvas de fragilidad; probabilidad de falla; falla por erosión superficial; método de Monte Carlo; método FORM

Abstract

The modifications implemented on two classical methodologies of structural reliability that will allow to consider correlated non-Gaussian uncertainties at evaluating the structural fragility of components are described in this paper. The first methodology is based on the Monte Carlo method and the second is based on the First Order Reliability Method. Both methods are then used to construct fragility curves for the surge only overtopping erosion failure of one hypothetical levee. Results of fragility analysis show that: 1) Considering non-Gaussian marginal densities for the design variables, fragility curves differs significantly from the lognormal distribution; 2) The type of the random variable with the strongest influence on the levee failure does not necessarily determine the type of fragility curve. Therefore, within a more realistic context of non-Gaussian uncertainties, it is not correct to assume a prior theoretical model for the fragility curve ignoring the distributions of the basic variables because it is not possible to anticipate its type based only on the distribution of the random variable with the strongest incidence on the component failure.

Keywords: fragility curves; failure probability; overtopping erosion failure; Monte Carlo method; FORM method

Introducción

El término fragilidad estructural se refiere a la probabilidad condicional de la falla de una estructura o componente dado un valor específico de la intensidad de la solicitación. La fragilidad se expresa en función de una variable aleatoria que representa la incertidumbre asociada a la intensidad. Los resultados de un análisis de fragilidad se representan a través de una curva de fragilidad. La curva de fragilidad se puede interpretar como la función de distribución acumulativa de la capacidad de la estructura o componente. Conforme la intensidad aumenta, la curva de fragilidad se aproxima a uno. La fragilidad de una estructura en efecto dependerá de las probabilidades de falla de sus múltiples componentes. Por simplicidad, el presente artículo aborda el problema de la fragilidad estructural de componentes o modos de falla individuales.

El análisis estocástico de la falla de componentes se ha utilizado extensamente en la evaluación probabilista del riesgo estructural desde finales de la década de los setentas, en aplicaciones relacionadas con el diseño de plantas de energía nuclear (Kennedy et al. 1980, 1984). Este tipo de análisis también se ha utilizado ampliamente en ingeniería sísmica para analizar la fragilidad -llamada en ocasiones vulnerabilidad sísmica- (Mayoral et al., 2016), y en geotecnia para determinar la probabilidad de falla de elementos de cimentación y otras obras (Popescu et al., 2005; Wu, 2015). En ingeniería hidráulica, este tipo de análisis se utiliza para evaluar el riesgo de inundación de las poblaciones (Vorogushyng et al., 2010; Apel et al., 2004).

Al analizar la fragilidad estructural de componentes, usualmente se supone a priori una distribución lognormal para la curva de fragilidad y sus parámetros se obtienen posteriormente recurriendo a alguna técnica de estimación estadística, ignorando el tipo de densidades de probabilidad de las variables básicas de diseño. Con base en el teorema del límite central (Papoulis, 1984), se puede mostrar que esta hipótesis a priori solo se cumple cuando la función de estado se da por el producto de un número grande de variables de diseño positivas e independientes. Sin embargo, suponer variables de diseño independientes no es una hipótesis válida en la mayoría de los casos. En otras ocasiones, la fragilidad estructural de componentes se evalúa suponiendo implícitamente que las densidades de probabilidad conjuntas entre cualquier par de variables aleatorias son gaussianas (Altarejos et al., 2015; Vorogushyn et al., 2010). El efecto de las densidades de probabilidad conjunta y marginales de las variables básicas de diseño sobre la fragilidad se ha abordado poco en la literatura (Popescu et al., 2005; Choi et al., 2004). El tipo de curva de fragilidad tendrá consecuencias importantes en la cuantificación del riesgo. Por lo tanto, es necesario conocer el efecto de las densidades de probabilidad de las variables básicas de diseño sobre la fragilidad estructural de componentes respecto a un mecanismo y amenaza específicos.

El uso de densidades marginales no gaussianas se justifica en la práctica de la ingeniería cuando los parámetros presentan un intervalo de variación estrictamente positivo y la información que se conoce del comportamiento de las variables incluye, además de un valor esperado y varianza, un valor mínimo y un valor máximo. En otras ocasiones puede suceder que la probabilidad de que ocurran valores positivos excepcionalmente grandes de la variable sea mayor que la que asocia un modelo gaussiano. Además, los resultados de experimentos de campo o laboratorio pueden mostrar un comportamiento distinto al gaussiano.

Al trabajar con variables aleatorias no gaussianas se presenta, sin embargo, la dificultad de expresar su correlación, porque el coeficiente de correlación lineal de Pearson, que se utiliza tradicionalmente para cuantificar la correlación entre pares de variables aleatorias, depende del tipo de densidad de probabilidad de las variables (Lemhann, 1966). Por ello, algunos autores proporcionan soluciones analíticas para el coeficiente de correlación de Pearson entre variables aleatorias con distintos tipos de densidades de probabilidad (Mood y Graybill, 1974). En este artículo se propone recurrir a medidas de correlación invariantes, como es el caso del coeficiente de correlación de Spearman (Schweizer y Wolf, 1981), para expresar correlación entre variables con distintas densidades de probabilidad. Este coeficiente se determina por las variables aleatorias asociadas a las distribuciones acumulativas, que siempre serán uniformes independientemente del tipo de densidad de probabilidad (Papoulis, 1984). Además, tiene la ventaja de estar relacionado directamente con el coeficiente de correlación de Pearson a través de expresiones sencillas (Gnest y Favre, 2007). Como una primera aproximación, en el presente artículo se considera que las densidades de probabilidad conjuntas entre variables aleatorias son gaussianas; una hipótesis muy razonable en ausencia de información acerca del comportamiento multivariado de las variables de diseño. En este contexto, el coeficiente de correlación de Pearson se puede utilizar para expresar la correlación de las densidades gaussianas conjuntas, a partir del coeficiente de correlación de Spearman, que expresaría la correlación deseada entre las variables marginales no gaussianas.

Conceptos básicos

Sea xT =[X1, X2,…, XN] un vector de estado que contiene variables aleatorias básicas de diseño X1, X2,…, XN con densidades de probabilidad conjunta N -variadas, representadas por fx(x). Por simplicidad, los eventos de seguridad y falla ante un mecanismo específico se describen en términos de una función de estado gX(x), escrita de tal manera que {gX(x) ≥ 0}, representa el evento de seguridad; i.e. {x ϵ S} y {gx(x) <0}, representa el evento de falla; i.e. {x ϵ 𝔍}. En particular, la probabilidad de que x se encuentre en 𝔍 es la probabilidad de falla Pf. Formalmente (Casciati y Faravelli, 1991)

Pf=Px ϵ J=Jfxxdx (1)

La probabilidad de falla dado un valor específico h de la intensidad es la fragilidad y se puede expresar como

FHh=Px ϵ I|H=h=I|hfxxdx (2)

En la ec. 2 el dominio de falla depende de la intensidad h. La curva dada por FH(h) es la curva de fragilidad. La curva de fragilidad expresa la probabilidad de que la capacidad sea menor que la demanda dada, una intensidad h de la solicitación, y se puede interpretar entonces como la función de distribución acumulativa de la capacidad para el mecanismo de falla considerado. En esta interpretación, la capacidad se muestra en las mismas unidades de h. Conforme la intensidad aumenta, la probabilidad de falla se aproxima a la unidad.

Enfoque basado en el método de Monte Carlo

En este contexto, la probabilidad de falla se obtiene escribiendo la ec. 1 en la siguiente forma (Rubistein, 1987)

Pf=Px ϵ I=ΘIxfxxdx (3)

donde Θ representa el dominio de las variables aleatorias en x e I(x) es una variable aleatoria binaria tal que: I(x)=0, si g(x) ≥ 0 o I(x) = 1, si g(x) <0.

Para diferentes valores de h, se podrá definir entonces una curva de fragilidad empírica (punto por punto) como

F^Hh=Px ϵ I|H=h=Θ|hI(x)fxxdx (4)

El símbolo “^” encima de FH(h) enfatiza que la curva dada por la ec. 4 es una curva de fragilidad empírica. La versión teórica de la curva experimental se puede obtener por medio de algún procedimiento de ajuste, usualmente recurriendo al método de mínimos cuadrados.

Para determinar el valor que toma la variable aleatoria binaria I(x), es necesario simular las variables aleatorias del vector x. Para simular variables aleatorias no gaussianas correlacionadas se puede utilizar, por ejemplo, una alternativa basada en el método de descomposición de Cholesky (Rao, 1992), en la siguiente manera:

  1. Especificar la matriz de correlación deseada en términos del “rho” de Spearman 𝜌s.

  2. Obtener la matriz de correlación correspondiente R en términos del “rho” de Pearson 𝜌 como: 𝜌=2sen(π𝜌s/6).

  3. Realizar la descomposición de Cholesky de R, tal que: R = ΓΓT.

  4. Simular N variables aleatorias gaussianas independientes: zT = (Z1,Z2,…,ZN).

  5. Hacer: y = Γz.

  6. Obtener: U = Φ(y); donde Φ(·) es la función de distribución gaussiana.

  7. Hacer: X1 = F1-1(U1), X2 =F2-1(U2),…, X N = FN -1(UN); donde Fj-1(·) para j=1,2,…, N son los inversos de las funciones de distribución deseadas.

Con el procedimiento anterior es posible determinar la probabilidad de falla para diferentes valores de la intensidad h por medio de la ec. 4. La interpretación geométrica de dicho cálculo para un caso ilustrativo con dos variables aleatorias se muestra en la Figura 1. Debido a que las variables aleatorias del vector y se obtienen como una combinación lineal de las variables gaussianas en z, las densidades de probabilidad conjuntas de las variables aleatorias del vector y serán gaussianas con matriz de correlación dada por Γ.

Figura 1 Ilustración de la región de falla y seguridad en función de la intensidad para una función de estado límite con dos variables aleatorias en el contexto del método de Monte Carlo con variables no gaussianas correlacionadas 

Enfoque basado en el método FORM

Sea zT=[Z1,Z2,…,ZN] un vector que contiene variables aleatorias Z1,Z2,…,ZN gaussianas estandarizadas, independientes, con media cero y desviación estándar unitaria, con densidades de probabilidad conjunta N-variadas gaussianas, representadas por fz(z). En el conocido método de confiabilidad de primer orden (FORM), la función de estado se aproxima por medio de un hiperplano tangente a un punto z* y la probabilidad de falla se expresa como

Pf=Px ϵ IPβ+α*T z*0=Φ-β (5)

donde α* representa un vector que contiene los cosenos directores de la normal al plano β+α*Tz*=0 y β corresponde a la distancia mínima del origen, en el espacio de las variables en z, al punto z* sobre la superficie de falla gz(z)=0. Debido a su simetría, fz(z) será invariante a cualquier rotación y su valor máximo a lo largo de gz(z)=0 ocurrirá en z*. Además, debido a que las variables en z son gaussianas, la variable aleatoria de la combinación lineal α*Tz* será gaussiana, con función de distribución acumulativa dada por Φ(∙) y β como su argumento. Hasofer y Lind (1974) propusieron utilizar β como un índice de confiabilidad que se puede obtener resolviendo el siguiente problema de optimación

míngzz=0βz=zTz1/2 (6)

El vector z que minimiza la ec. 6, sujeto a la restricción g z(z)=0, es z* y corresponde a un vector x* cuyos elementos definen el punto de diseño (xx). El punto de diseño es el punto de falla más verosímil. Dado un valor específico h de la intensidad, se tendrá un índice de confiabilidad β por medio de la ec. 6. La curva de fragilidad empírica se puede escribir por lo tanto como

F^Hh=Φ-βz;h (7)

Para determinar el índice β, Hohenbichler y Rackwitz (1981) proponen recurrir a la transformación de Rosenblatt con el propósito de transformar las variables originales en variables gaussianas no correlacionadas (Figura 2) y optimizar la ec. 6 con el algoritmo de Rackwitz y Fiessler (1978). La transformación de Rosenblatt mapea las variables en x a las variables en z a través de la ley de correspondencia dada como

Figura 2 Ilustración de la región de falla y seguridad en función de la intensidad para una función de estado límite con dos variables aleatorias. Espacio de las variables aleatorias originales (izquierda). Espacio de las variables aleatorias transformadas (derecha) 

Z1=Φ-1FX1x1

Z2=Φ-1FX2|X1x2|x1

ZN=Φ-1FXN|X1,X2,,XN-1xN|x1,x2,,xN-1 (8)

donde: FXi|X1,X2,,Xi-1xi|x1,x2,,xi-1 es la función de distribución acumulativa condicional a X1=x1, X2=x2,…, Xi-1 =xi-1.

La transformación inversa de Rosenblatt mapea las variables aleatorias en z a las variables en x de tal manera que

gxx;h=gZT-1z;h=gZz;h (9)

donde el inverso de la ley de correspondencia está dado por

X1=FX1-1ΦZ1

X2=FX2|X1-1ΦZ2|Z1

XN=FXNX1,X2,,XN-1-1ΦZNZ1,Z2,,ZN-1 (10)

Como una primera aproximación, en el presente artículo se considera que las densidades de probabilidad conjuntas entre variables aleatorias son gaussianas. Por lo tanto, las funciones de distribución acumulativas condicionales serán gaussianas. Utilizando la transformación de Rosenblatt y una variante del algoritmo descrito en Madsen et al. (1986), un punto de la curva de fragilidad en la intensidad h se puede calcular entonces de la siguiente manera:

  1. Definir la matriz de correlación de las variables en x en términos del “rho” de Spearman 𝜌s.

  2. Obtener la matriz de correlación correspondiente en términos del “rho” de Pearson 𝜌 haciendo: 𝜌 = 2sen(π𝜌s / 6).

  3. Aplicar la transformación T al vector xj para obtener el vector zj. Usualmente, en la iteración j=1 se consideran los valores esperados de las variables aleatorias en x.

  4. Obtener la matriz jacobiana: J=[ƏZi/ƏXj] y evaluar su inversa J-1.

  5. Determinar la función gz(z) por medio de la ec. 9.

  6. Calcular el gradiente de gz(z) como ∇gz(z)=(J-1)Tg(x). T indica “la transpuesta de”.

  7. Obtener zj+1 =((zj)Tαj)αj-gz(zj)/|∆gz(zj)|; donde αj , es un vector unitario normal a gz(zj) dado por αj=gz(zj)/|∇gz(zj)|, siendo |∙|, la norma de ∇gz(zj).

  8. Evaluar gz(zj+1 ). Si gz(zj+1)≅0, dentro de una aproximación aceptable, entonces obtener xj+1 =T-1(zj+1) y hacer x*=xj+1; z*=zj+1; α*=αj y βi =-(z*)Tα*. De lo contrario, ir al punto 3.

  9. Repetir el procedimiento a partir del punto 3 con diferentes valores iniciales del vector xj y obtener: β=mín{β i ,…, β k }, donde i=1,2,…,k.

Observe que el nuevo vector x j+1 se obtiene aquí a partir de la solución analítica de la transformación inversa de Rosenblatt (punto 8), evitando así la recurrencia del algoritmo original que suele producir inestabilidades numéricas (Madsen et al., 1986). A la variante del método FORM descrita en este inciso se denomina en lo sucesivo método FORM-NG.

Análisis de la falla por erosión de un bordo perimetral sometido a un desbordamiento

Para ilustrar los resultados que se obtienen con el método de Monte Carlo (MC) y el método FORM-NG descritos atrás, en este inciso se comparan las curvas de fragilidad de un bordo perimetral para la falla por erosión debida al desbordamiento y se evalúa el desempeño general de ambos métodos.

La falla por erosión se refiere a la ruptura parcial o total de un bordo sometido a un flujo de agua sobre su superficie. Esta condición representa la principal causa de falla en presas (Foster et al., 2000). El modelo teórico comúnmente aceptado que describe el flujo a superficie libre sobre un bordo perimetral durante un desbordamiento gradual (sin oleaje) se muestra en la Figura 3 (Powledge et al., 1989). El efecto erosivo del agua se puede cuantificar recurriendo a la ecuación de momento de Saint-Venant para flujo establecido unidimensional de donde se obtiene el esfuerzo cortante en la interfaz suelo-agua (Nadal y Hughes, 2009). Para determinar la tasa de erosión del material del bordo, con frecuencia se recurre a la ecuación del exceso del esfuerzo cortante (Zhao et al., 2015; Partheniades, 1965). Con base en esta última formulación, la ecuación de estado límite se puede escribir entonces en la siguiente forma

Figura 3 Condiciones hidráulicas del desbordamiento y variables de análisis 

gXx;h=ξ-kdτ0-τc.t (11)

donde

ξ

= erosión [mm]

t

= tiempo [h]

kd

= coeficiente de erosionabilidad [mm/h/Pa]

τc

= esfuerzo cortante crítico [Pa]

τ0

= esfuerzo cortante en la interfaz suelo-agua [Pa]

τ0=ρgh0senθ (12)

donde

𝜌

= densidad del agua [kg/m3]

g

= aceleración de la gravedad [m/s2]

h0

= tirante de agua normal a la superficie del talud en régimen establecido

Aguas abajo, el flujo es súper-crítico y el tirante normal al talud se puede obtener por medio de la fórmula para vertedores de cresta amplia (Henderson, 1966) y la ecuación de Manning en la siguiente forma

h0=233/2gh3/235senθn35 (13)

Cuando τ0 > τ c , la erosión del bordo ocurre a una velocidad dada por k d (Figura 4).

Figura 4 Ilustración del proceso de erosión del bordo 

El umbral ξ determina la frontera entre la región de falla y seguridad. La experiencia muestra que un bordo de material fino compactado usando procedimientos modernos de compactación bajo un estricto control de calidad, puede tolerar una erosión superior a un metro de profundidad sin comprometer su seguridad (Hughes, 2010; Yuan et al., 2015). En el presente trabajo se adopta una escala de erosión permisible arbitraria en la siguiente forma:

  • Daño menor: Si la erosión es mayor que 0.30m

  • Daño intermedio: Si la erosión es mayor que 0.60m

  • Daño severo: Si la erosión es mayor que 0.90m

Se considera una situación de la práctica en la que el diseñador tiene incertidumbre en la estimación de cuatro variables básicas de diseño: n, τ c , k d y 𝜃. Estas incertidumbres se representan por medio del vector de variables aleatorias: x T = {X 1,…,X 4}. Las fragilidades se determinan para diferentes muestras de una variable aleatoria que refleja las fluctuaciones del nivel de agua en el embalse dentro del intervalo: 0 ≤ h ≤ 2. Los parámetros del conjunto de variables aleatorias básicas de diseño se indican en la Tabla 1. Estas variables y sus parámetros reflejan el conocimiento limitado que prevalece en la mente del diseñador. La dependencia entre las distintas variables aleatorias se indica por medio del coeficiente de correlación de Spearman en la Tabla 2. Se ha considerado que existe correlación entre los tres parámetros que dependen del tipo de material del bordo.

Tabla 1 Parámetros probabilistas de las variables básicas de diseño 

Parámetro Unidad E{X} CV Mín. Máx. Tipo
n s/m1/3 0.0158 0.1 0.01 0.035 Beta
τc Pa 16 6 0.0 ---- Lognormal
kd mm/h/Pa 2.5 6 0.1 ---- Weibull
θ rad 0.197396 0.1 ---- ---- Normal

Tabla 2 Correlación entre las variables básicas de diseño 

Coeficiente de correlación de Spearman
Parámetro θ n τc kd
n 0.0 1.0 -0.8 0.8
τc 0.0 -0.8 1.0 -0.7
kd 0.0 0.8 -0.7 1.0
θ 1.0 0.0 0.0 0.0

La fragilidad del bordo se analiza para dos tiempos de permanencia del desbordamiento; es decir, para un periodo de 4h y otro de 20h. En la evaluación de las fragilidades con el método de Monte Carlo se consideran 500,000 simulaciones en cada caso.

Resultados y discusión

Las Figuras 5 y 6 muestran con símbolos las curvas de fragilidad empíricas para permanencias del desbordamiento de 4 y 20h, respectivamente. Los círculos corresponden a las fragilidades del método MC y los triángulos a las del método FORM-NG. Los resultados de ambos enfoques proporcionan resultados prácticamente idénticos cuando la permanencia del desbordamiento es de 4h. Cuando la permanencia del desbordamiento aumenta a 20h se observan pequeñas diferencias entre los resultados de ambos enfoques para desbordamientos cercanos a 2m, en los daños intermedio y severo. En otras palabras, las pequeñas diferencias ocurren cuando la probabilidad de falla se aproxima con mayor rapidez a uno, es decir, cuando el índice de confiabilidad tiende a ser más rápido a un valor muy pequeño. En esta situación, la no linealidad de la función de estado hace que el método de optimación quede atrapado fácilmente en un mínimo local. Otros métodos de optimación más robustos se pueden incorporar fácilmente en el contexto de la metodología descrita en el presente artículo y aumentar así su exactitud (Wang et al., 2016; Ezzati et al., 2015). La forma de la curva de fragilidad, sin embargo, se captura contundentemente con el método FORM-NG en un tiempo de cálculo muy inferior al del método MC comúnmente utilizado por varios autores (Popescu et al., 2005; Zentner, 2010). Además, el método FORM-NG permite modelar las incertidumbres en las variables de diseño de una manera más realista por lo que la evaluación de la curva de fragilidad resulta menos subjetiva que las aproximaciones utilizadas en los métodos de factores de seguridad (Kennedy et al., 1980; Pisharady y Basu, 2010).

Figura 5 Comparación entre las curvas de fragilidad empíricas y la curva de fragilidad teórica para una permanencia del desbordamiento igual a 4h 

Figura 6 Comparación entre las curvas de fragilidad empíricas y la curva de fragilidad teórica para una permanencia del desbordamiento igual a 20h 

En las Figuras 5 y 6 se observa además, que conforme la duración del desbordamiento aumenta la probabilidad de falla también aumenta, pero conforme el umbral de falla ξ aumenta la probabilidad de falla disminuye. Este último resultado se debe a que la frecuencia con la que ocurre una falla más severa es menor si se mantienen constantes los parámetros probabilistas de las variables básicas de diseño. Para un desbordamiento próximo a 2m y una duración de 20h, el bordo alcanza la falla con probabilidad muy cercana a uno. Adoptando la interpretación de Shinozuka (2000), las curvas de fragilidad en las Figuras 5 y 6 representan la probabilidad de que el bordo sufra al menos el daño especificado cuando se somete a un desbordamiento con intensidad h.

En los análisis de fragilidad tradicionalmente se supone a priori una distribución lognormal para la curva de fragilidad teórica y sus parámetros se obtienen posteriormente en forma estadística. Para determinar la forma de la curva de fragilidad teórica se ajustó por medio del método de mínimos cuadrados una función de distribución acumulativa a cada curva experimental del método MC. Se encontró que la curva teórica está dada por una distribución de Weibull compuesta (Razali y Al-Wakeel, 2013) en la siguiente forma:

GXx=j=13wjFXx (14)

donde

Gx(x)

= función de distribución compuesta

wj

= ponderación asociada a la j-ésima distribución de Weibull

F x(x)

= función de distribución de Weibull dada por: F x (x) = 1 ˗ exp[ ˗ (x/𝛼)𝛽] con parámetros de escala y forma dados por 𝛼 y 𝛽, respectivamente.

Las curvas de fragilidad teóricas se muestran con líneas discontinuas en las Figuras 5 y 6. Los parámetros que definen estas curvas se indican en la Tabla 3. Las curvas de fragilidad teóricas difieren, por tanto, significativamente de la distribución lognormal. La influencia de la densidad de probabilidad del parámetro k d sobre el tipo de curva de fragilidad es entonces mayor que la influencia de las densidades de probabilidad de las variables n, τ c y θ. La forma de la curva de fragilidad teórica dada por la ecuación 14 se puede explicar por el efecto no lineal de la función de estado sobre la densidad de probabilidad de k d . Cálculos preliminares mostraron que la correlación entre las variables de diseño modifica los parámetros de las curvas teóricas pero no cambian el tipo.

Tabla 3 Parámetros probabilistas de las curvas de fragilidad teóricas 

Daño Duración Ponderación Escala Forma
w 1 w 2 w 3 α 1 α 2 α 3 β 1 β 2 β 3
Menor 4h 0.179 1.303 0.277 0.065 3.867 0.672 0.804 3.120 1.167
20h 0.184 0.551 0.263 0.419 0.112 0.434 9.029 0.601 3.014
Intermedio 4h 0.196 0.120 0.181 0.163 1.459 1.898 0.762 0.981 1.405
20h 0.414 0.505 0.208 0.893 0.255 9.815 5.872 0.636 0.355
Severo 4h 0.083 0.354 0.037 0.936 1.776 0.102 0.613 0.714 0.714
20h 0.345 0.525 0.446 1.392 3.560 0.686 7.480 0.571 0.516

Además de su eficiencia computacional, otra ventaja que ofrece el método FORM-NG es la posibilidad de evaluar la sensibilidad de la falla a cada una de las variables aleatorias básicas de diseño por medio de los cosenos directores que contiene el vector 𝛼*, sin necesidad de realizar análisis estadísticos adicionales, como sucedería con el método MC. En estricto rigor, la influencia de las variables de diseño sobre la falla del bordo cambia con la intensidad de la solicitación, sin embargo, se pueden destacar las principales tendencias mostradas en el diagrama de la Figura 7. En dicha figura se puede observar que la falla por erosión del bordo es significativamente más sensible a la incertidumbre del coeficiente n de Manning, y que las incertidumbres en el esfuerzo cortante crítico τ c y el ángulo de inclinación 𝜃 del talud aguas abajo sobre dicha falla son prácticamente despreciables. Destaca que la influencia del coeficiente de erosionabilidad k d del material del bordo sobre la falla sea considerablemente inferior a la del coeficiente n de Manning y que aun así influya sobre el tipo de curva de fragilidad. Por lo tanto, el tipo de densidad de probabilidad de la variable aleatoria con mayor influencia sobre la falla del bordo no necesariamente determina el tipo de curva de fragilidad. En un contexto más realista de incertidumbres no gaussianas, no parece correcto suponer a priori un modelo teórico para la curva de fragilidad ignorando las distribuciones de las variables básicas, ya que no se puede anticipar su tipo teniendo en cuenta únicamente la distribución de la variable aleatoria con mayor incidencia sobre la falla del componente. El coeficiente de variación de las variables básicas podría tener un efecto sobre el tipo de curva de fragilidad. Sin embargo, un escenario distinto al que muestra la Tabla 1 no sería representativo de los contrastes que existen entre las variaciones de los parámetros. En efecto, la variabilidad de τ c y k d siempre será significativamente mayor que la variabilidad de n y 𝜃.

Figura 7 Sensibilidad de la función de estado a las variables básicas de diseño. X 1= Coeficiente de Manning, X 2= Esfuerzo cortante crítico, X 3= Coeficiente de erosionabilidad, X 4= Ángulo de inclinación del talud aguas abajo 

Conclusiones

Este artículo describe cómo se pueden modificar dos métodos clásicos de la confiabilidad estructural con el propósito de considerar incertidumbres no gaussianas correlacionadas en las variables básicas de diseño al evaluar la fragilidad estructural de componentes. Una de estas metodologías modificadas se basa en el método de Monte Carlo (MC) y la otra en el método de confiabilidad de primer orden (FORM). La variante del segundo método se ha denominado aquí “método FORM-NG”.

El desempeño general de ambos métodos se evaluó comparando las curvas de fragilidad para la falla por erosión asociada al desbordamiento de un bordo perimetral. El método MC y el método FORM-NG proporcionaron resultados muy semejantes debido a que ambos toman en cuenta la información completa de las variables aleatorias y suponen un mismo tipo de dependencia, es decir, ambos métodos suponen que la dependencia entre las variables de diseño es gaussiana y que se puede cuantificar a través del coeficiente de correlación de Spearman. Se observaron pequeñas diferencias en algunos casos, específicamente, cuando la probabilidad de falla se aproxima rápidamente a uno, es decir, cuando el índice de confiabilidad tiende rápidamente a un valor muy pequeño. Tales diferencias se pueden asociar a la no linealidad de la función de estado. Sin embargo, debe destacarse que la forma de la curva de fragilidad se captura muy satisfactoriamente utilizando el método FORM-NG y que su eficiencia en términos de tiempo de cálculo es superior a la del método de Monte Carlo.

En la práctica, la curva de fragilidad teórica se multiplica por la curva asociada a la amenaza específica para obtener la probabilidad de falla anualizada del componente respecto al mecanismo y amenaza específicos. El tipo de curva de fragilidad tendrá entonces consecuencias importantes en la cuantificación del riesgo. Por lo tanto, es recomendable que el efecto del tipo de densidad de las variables básicas de diseño sobre el riesgo se evalúe en todos los casos. En la práctica profesional el diseñador encontrará estructuras expuestas a múltiples modos de falla, pero la curva de fragilidad para cada modo se podrá evaluar con los métodos descritos en este artículo. Las metodologías son generales y se pueden utilizar en el análisis estocástico de la falla de componentes.

Agradecimientos

El primer autor agradece a CONAGUA el patrocinio otorgado para realizar los trabajos del “Programa de estudios de inundaciones fluviales para las ciudades medias del país, primera etapa, para la zona de Coatzacoalcos-Minatitán-Cosoleacaque”, Convenio: IIS-GCONV-089-2015, del que se derivó la presente investigación. Ambos autores agradecen los comentarios de dos revisores anónimos.

Referencias

Altarejos-García L., Silva-Tulla F., Escudero-Bueno I., Morales-Torres A. Practical risk assessment for embankments, dams and slopes, en: Phoon K.K. y Ching J. (Eds.), Risk and Reliability in Geotechnical Engineering, CRC Press, 2015, pp. 437-469. [ Links ]

Apel H., Thieken A.H., Merz B., Blöschl G. Flood risk assessment and associated uncertainty. Natural Hazards and Earth System Sciences, volumen 4, 2004: 295-308. [ Links ]

Casciati F. y Faravelli L. Fragility analysis of complex structural systems, Nueva York, John Wiley, 1991. [ Links ]

Choi S.K., Grandhi R.V., Canfield R.A. Structural reliability under non-Gaussian stochastic behavior. Computers and Structures, volumen 82, 2004: 1113-1121. [ Links ]

Ezzati G., Mammadov M., Kulkarni S. A new reliability analysis method based on the conjugate gradient direction. Structural Multidisciplinary Optimization, volumen 51, 2015: 89-98. Doi 10.1007/s00158-014-1113-z [ Links ]

Foster M., Fell R., Spannagle M. The statistics of embankment dam failures and accidents. Canadian Geotechnical Journal, volumen 37, 2000: 1000-1024. [ Links ]

Genest C. y Favre A.C. Everything you always wanted to know about copula modeling but were afraid to ask. Journal of Hydrologic Engineering, volumen 12 (número 4), 2007: 347-368. Doi: 10.1061/(ASCE)1084-0699(2007)12:4(347) [ Links ]

Hasofer A.A. y Lind A.M. Exact and invariant second-moment code format. J. Eng. Mech. Division, ASCE, volumen 100, 1974: 11-21. [ Links ]

Henderson F.M. Open channel flow, Nueva York, MacMillan Publishing Co., Inc, 1966. [ Links ]

Hohenbichler M. y Rackwitz R. Nonnormal dependent vectors in structural reliability. J. Eng. Mech. Division, ASCE, volumen 107, 1981: 1127-1238. [ Links ]

Hughes S.A. Flood-Side wave erosion of earthen levees: Present state of knowledge and assessment of armoring necessity, US Army Engineering Research and Development Center, USACE, 2010, pp. 109. [ Links ]

Kennedy R.P., Cornell C.A., Campbell R.D., Kaplan S., Perla H.F. Probabilistic seismic safety study of an existing nuclear power plant. Nuclear Engineering and Design, volumen 59 (número 2), 1980: 315-338. Doi: 10.1016/0029-5493(80)90203-4 [ Links ]

Kennedy R.P. y Ravindra M.K. Seismic fragilities for nuclear power plant risk studies. Nuclear Engineering and Design, volumen 79, 1984: 47-68. Doi:10.1016/0029-5493(84)90188-2 [ Links ]

Lehmann E.L. Some concepts of dependence. Annals of Mathematical Statistics, volumen 37 (número 5), 1966: 1137-1153. [ Links ]

Madsen H.O., Krenk S., Lind N.C. Methods of structural safety, USA, Prentice-Hall, 1986. [ Links ]

Mayoral J.M., Argyroudis S., Castañon E. Vulnerability of floating tunnel shafts for increasing earthquake loading. Soil Dynamics and Earthquake Engineering, volume 80, 2016: 1-10 [en línea]. Disponible en: http://dx.doi.org/10.1016/j.soildyn.2015.10.002Links ]

Mood A. y Graybill F. Introduction to the theory of statistics, EUA, McGraw-Hill, 1963. [ Links ]

Nadal N.C. y Hughes S.A. Shear stress estimates for combined wave and surge overtopping at earthen levees, US Army Engineering Research and Development Center, USACE, 2009, pp. 22. [ Links ]

Papoulis A. Probability, random variables and stochastic process, EUA, McGraw-Hill, 1984. [ Links ]

Partheniades E. Erosion and deposition of cohesive soils. Journal of the Hydraulics Division, ASCE, volumen 91 (número HY1), 1965: 105-139. [ Links ]

Pisharady A.S. y Basu P.C. Methods to derive seismic fragility of NPP components: A summary. Nuclear Engineering and Design, volumen 240, 2010: 3878-3887. [ Links ]

Popescu R., Deodatis G., Nobahar A. Effects of random heterogeneities of soil properties on bearing capacity. Probabilistic Engineering Mechanics, volumen 20, 2005: 324-341. Doi:10.1016/j.probengmech.2005.06.003 [ Links ]

Powledg, G.R., Ralston D.C., Miller P., Chen Y.H., Clopper P.E., Temple D.M. Mechanics of overflow erosion on embankments, II: Hydraulic and design considerations. Journal of Hydraulic Engineering, volumen 115 (número 8), 1989: 1056-1075. [ Links ]

Rackwitz R. y Fiessler B. Structural reliability under combined random load sequences. Computers and Structures, volumen 9, 1978: 489-494. [ Links ]

Rao S.S. Reliability-based design, EUA, McGraw-Hill, 1992. [ Links ]

Razali A.M. y Al-Wakeel A.A. Mixture Weibull distributions for fitting failure times data. Applied Mathematics and Computation, volumen 219, 2013: 11358-11364. [en línea]. Disponible en: http://dx.doi.org/10.1016/j.amc.2013.05.062Links ]

Rubistein R.Y. Simulation and the Monte Carlo Method, Nueva York, John Wiley, 1987. [ Links ]

Schweizer B. y Wolff E.F. On nonparametric measures of dependence for random variables. The Annals of Statistics, volumen 9 (número 4), 1981: 879-885. [ Links ]

Shinozuka M., Feng M.Q., Kim H., Kim S. Nonlinear static procedure for fragility curve development. Journal of Engineering Mechanics, volumen 126 (número 12), 2000: 65-79. Doi: 10.1061/(ASCE)0733-9399(2000)126:12(1287) [ Links ]

Vorogushyn S., Merz B., Lindenschmidt K.E., Apel H. A new methodology for flood hazard assessment considering dike breaches. Water Resources Research, volumen 46, 2010: W08541. Doi: 10.1029/2009WR008475 [ Links ]

Wang Z., Broccardo M., Der-Kiureghian K. An algorithm for finding a sequence of design points in reliability analysis. Structural Safety, volumen 58, 2016: 52-59. [ Links ]

Wu X.Z. Development of fragility functions for slope instability analysis. Landslides, volumen 12, 2015: 165-175. Doi 10.1007/s10346-014-0536-3 [ Links ]

Yuan S., Tang H., Li L., Pan Y., Amini F. Combined wave and surge overtopping erosion failure model of HPTRM levees: Accounting for grass-mat strength. Ocean Engineering, volumen 109, 2015: 256-269 [en línea]. Disponible en: http://dx.doi.org/10.1016/j.oceaneng.2015.09.005Links ]

Zentner I. Numerical computation of fragility curves for NPP equipment. Nuclear Engineering and Design, volumen 240, 2010: 1614-1621. [ Links ]

Zhao G., Visser P.J., Peeters P., Vrijling J.K. Hydrodynamic erosion in cohesive embankment breach, en Cheng-Draper y An (Eds.), Scour and Erosion, 2015, pp. 441-445. [ Links ]

Citación sugerida:

Citación estilo Chicago

Vázquez-Guillén, Felipe, Gabriel Auvinet-Guichard. Fragilidad estructural de componentes ante incertidumbres no gaussianas correlacionadas. Ingeniería Investigación y Tecnología, XIX, 01 (2018): 101-112.

Citación estilo ISO 690

Vázquez-Guillén F., Auvinet-Guichard G. Fragilidad estructural de componentes ante incertidumbres no gaussianas correlacionadas. Ingeniería Investigación y Tecnología, volumen XIX (número 1), eneromarzo 2018: 101-112.

Recibido: 19 de Enero de 2017; Aprobado: 17 de Marzo de 2017

Semblanzas de los autores

Felipe Vázquez-Guillén. Es doctor en ingeniería por la Universidad Nacional Autónoma de México desde el año 2014. Actualmente colabora en el Instituto de Ingeniería de la UNAM en proyectos de aplicación inmediata y en investigaciones elementales relacionadas con el diseño óptimo de redes de monitoreo, la evaluación cuantitativa de riesgos, la geoestadística de atributos espacio-temporales, la modelación estocástica inversa y el diseño de políticas para la administración del agua subterránea combinando modelación numérica e indicadores de la sustentabilidad. En el año 2012 fue Visiting Scholar en la Universidad del Sur de California. Desde el año 2013 es miembro de la comunidad de exbecarios Fullbright.

Gabriel Auvinet-Guichard. Se graduó como ingeniero civil en l’Ecole Spéciale des Travaux Publics de Paris en 1964. Obtuvo el grado de doctor en ingeniería en la División de Estudios de Posgrado de la Facultad de Ingeniería de la Universidad Nacional Autónoma de México en 1986. Es profesor de esta misma División de Estudios de Posgrado desde 1968. Ha sido profesor invitado en las universidades francesas de Grenoble (1986), Nancy (1993-1994) y de Clermont (2003-2004). Ha dirigido 41 tesis de licenciatura, 58 de maestría y 14 de doctorado. Ha ocupado el puesto de subdirector del Instituto de Ingeniería de la UNAM. Fue presidente de la Sociedad Mexicana de Mecánica de Suelos y vice-presidente por Norte-América de la Sociedad Internacional de Mecánica de Suelos e Ingeniería Geotécnica. Ha recibido distintos premios y reconocimientos, incluyendo el premio “Larivière” del CNAM de Paris, Francia, el premio “Javier Barrios Sierra” del Colegio de Ingenieros Civiles de México y el premio “Liebermann” de Ingeniería de la Ciudad de México. En 2002, impartió la decimosexta conferencia: “Nabor Carrillo” con el tema “Incertidumbre en Geotecnia”. Es profesor honorario de las Universidades Ricardo Palma, Antenor Orrego y San Pedro, Perú y Doctor Honoris Causa de la Universidad de Córdoba, Argentina. Es miembro de la Academia de Ciencias y de la Academia Nacional de Ingeniería de México. Ha dedicado su trabajo de investigación a problemas de mecánica de suelos con énfasis en la ingeniería de cimentaciones en suelos blandos en zonas sísmicas y en presencia de hundimiento regional. En este campo su trabajo se ha concentrado particularmente en el análisis del comportamiento de cimentaciones sobre pilotes de fricción y de punta. Ha realizado numerosas investigaciones sobre aplicaciones de los métodos probabilistas y geoestadísticos a la Ingeniería Civil. Actualmente dirige el laboratorio de Geoinformática del Instituto de Ingeniería de la UNAM.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons