Вы находитесь на странице: 1из 32

Introducción

¿Cómo se puede evaluar la aceptabilidad de un diseño de ingeniería?


Basándose en el juicio por sí solo puede conducir a uno de los dos
extremos ilustrados en la Figura 1, a continuación. El primer caso es
económicamente inaceptable mientras que el ejemplo ilustrado en el
segundo dibujo viola todas las normas de seguridad normales.

Figura 1: Rockbolting alternativas implican juicio individual. (Dibujos basa en una caricatura en un
folleto sobre desprendimientos publicados por el Departamento de Minas de Australia Occidental.)
2
Los estudios de sensibilidad
El enfoque clásico utilizado en el diseño de estructuras de
ingeniería es considerar la relación entre la capacidad C (fuerza o
la fuerza de resistencia) del elemento y la demanda D (tensión o
fuerza perturbadora). El factor de seguridad de la estructura se
define como F = C / D y se asume falla a ocurrir cuando F es
menor que la unidad.
En lugar de basar una decisión de diseño de ingeniería en un solo
factor calculado de seguridad, un enfoque, que se utiliza con
frecuencia para dar una evaluación más racional de los riesgos
asociados con un diseño particular, es llevar a cabo un estudio de
sensibilidad. Esto implica una serie de cálculos en la que cada
parámetro significativo se varía sistemáticamente a lo largo de su
rango máximo creíble con el fin de determinar su influencia sobre
el factor de seguridad.
3 III. Modelo de Macizo Rocoso
Los estudios de sensibilidad
En el siguiente curso esta idea de los estudios de sensibilidad se
extenderá a la utilización de la teoría de probabilidades y se
demostrará que, incluso con los datos de campo muy limitadas,
información útil y práctica se puede obtener a partir de un análisis de
la probabilidad de falla.
Teoría de la Probabilidad

5
APLICACIÓN DE METODOS ESTADISTICOS EN
INGENIERIA DE TALUDES

Las técnicas estadísticas permiten evaluar, de manera mas o


menos aproximada, el riesgo asociado a un determinado diseño
y, por tanto, la fiabilidad de la misma.

La diferencia entre los enfoques deterministas y probabilistas


radica en que en este último caso no se estima un valor
específico del parámetro en cuestión, sino que dicho
parámetro puede tomar cualquier valor dentro del rango
definido por una función de densidad de probabilidad. Por
tanto, para un modelo de partida, las variables del mismo se
pueden considerar como aleatorias, quedando definidas como
funciones de densidad de probabilidad.

6
Una introducción a la Teoría de la
Probabilidad
La mayoría de los ingenieros geotécnicos consideran el tema de la
teoría de la probabilidad con duda y desconfianza. Al menos parte
de la razón de esta desconfianza está asociada con el lenguaje que
ha sido adoptado por aquellos que se especializan en el campo de
la teoría de la probabilidad y de la evaluación de riesgos. Las
siguientes definiciones se dan en un intento de disipar algo del
misterio que suele rodear a este tema.

Para describir de una manera realista el valor que puede tomar un


parámetro, sobre todo en una disciplina en la que se acumula
tanta incertidumbre como la geomecánica, resulta muy apropiado
el uso de la teoría de la probabilidad.

7
Variables aleatorias
Los parámetros tales como el ángulo de fricción de juntas de
roca, la resistencia uniaxial a la compresión de muestras de roca,
la inclinación y la orientación de las discontinuidades en un
macizo rocoso y la medida tensiones in situ en la roca que rodea
una abertura no tienen un único valor fijo sino que puede asumir
cualquier número de valores. No hay manera de predecir
exactamente lo que el valor de uno de estos parámetros será en
cualquier localización dada. Por lo tanto estos parámetros se
describen como variables aleatorias.

8
Distribución de probabilidad
Una función de densidad de
probabilidad (PDF) describe la
probabilidad relativa de que una
variable aleatoria asumirá un
valor particular. Una función de
densidad de probabilidad típico
se ilustra opuesto. En este caso la
variable aleatoria se distribuye de
forma continua (es decir, puede
tomar todos los valores posibles). Figura 1: la función de densidad de
probabilidad para una distribución
El área bajo la PDF es siempre la normal.
unidad
Distribución de probabilidad
Una manera alternativa de presentar la
misma información se encuentra en la
forma de una función de distribución
acumulativa (CDF), que da la probabilidad
de que la variable tendrá un valor menor o
igual al valor seleccionado. El CDF es la
integral de la función de densidad de
probabilidad correspondiente, es decir, la
ordenada en X1 en la distribución
acumulada es el área bajo la función de
densidad de probabilidad a la izquierda de
x1. Tenga en cuenta la fx (x) se utiliza para Figura 2: función de distribución
la ordenada de un PDF mientras Fx (x) se acumulada de una distribución
utiliza para una CDF. normal.
Una de las representaciones gráficas más comunes de una distribución de probabilidad
es un histograma en el que la fracción de todas las observaciones que caen dentro de
un intervalo especificado se representa como una barra por encima de ese intervalo.
Análisis de Datos
La media de la muestra o valor esperado o primer momento indica
el centro de gravedad de una distribución de probabilidad. Una
aplicación típica sería el análisis de un conjunto de resultados x1,
x2, ...., xn de ensayos de resistencia uniaxial llevadas a cabo en el
laboratorio. Suponiendo que hay N individuo Xi valores de prueba,
la media está dada por:

El ejemplo s2 varianza o el segundo momento acerca de la media


de una distribución se define como la media del cuadrado de la
diferencia entre el valor de la Xi y el valor medio. Por lo tanto:
Desviación estándar
La desviación estándar s viene dada por la raíz cuadrada positiva de la
varianza s2. En el caso de la distribución normal de uso común,
aproximadamente el 68% de los valores de prueba caerá dentro de un
intervalo definido por la media + / - una desviación estándar mientras que
aproximadamente el 95% de todos los resultados de la prueba caerá
dentro del intervalo definido por la media + / - dos desviaciones estándar.
Una desviación estándar pequeña indicará los datos estrechamente
agrupadas establecidas mientras que una gran desviación estándar se
pueden encontrar para un conjunto de datos en la que hay una gran
dispersión alrededor de la media.
El coeficiente de variación (COV) es la relación de la desviación estándar de
la media, es decir COV = s /promedio. COV es adimensional y es una
medida particularmente útil de incertidumbre. Una pequeña
incertidumbre típicamente estaría representada por un COV = 0,05
mientras que una considerable incertidumbre estaría indicada por un COV
= 0,25.
La distribución normal

13
Distribución Normal
La distribución normal o gaussiana es el tipo más común de la
función de distribución de probabilidad y las distribuciones de
muchas variables aleatorias se ajustan a esta distribución. Se utiliza
generalmente para estudios probabilísticos en la ingeniería
geotécnica a menos que haya buenas razones para seleccionar una
distribución diferente. Por lo general, las variables que se
presentan como una suma de una serie de efectos aleatorios,
ninguno de los cuales dominan del total se distribuyen
normalmente
The problem of defining a normal distribution is to estimate the
values of the governing parameters which are the true mean (μ)
and true standard deviation (σ). Generally, the best estimates for
these values are given by the sample mean and standard deviation,
determined from a number of tests or observations. Hence, from
equations for sample mean and sample variance s2
Distribución Normal
The problem of defining a normal distribution is to estimate the
values of the governing parameters which are the true mean (μ)
and true standard deviation (σ). Generally, the best estimates for
these values are given by the sample mean and standard deviation,
determined from a number of tests or observations. Hence, from
equations for sample mean and sample variance s2

Es importante reconocer que las ecuaciones anteriores dan los


valores más probables de μ y σ y no necesariamente los valores
verdaderos.
Distribución Normal
Obviamente, es deseable incluir el mayor número posible de
muestras en cualquier conjunto de observaciones, pero, en la
ingeniería geotécnica, existen serias limitaciones prácticas y
financieras a la cantidad de datos que se pueden recoger. En
consecuencia, a menudo es necesario para hacer estimaciones
sobre la base de juicio, la experiencia o de las comparaciones con
los resultados publicados por otros. Estas dificultades se utilizan a
menudo como una excusa para no usar herramientas probabilísticas
en la ingeniería geotécnica, pero, como se verá más adelante, los
resultados útiles aún se puede obtener a partir de datos muy
limitados.
Habiendo estimado las medias μ y
desviación estándar σ, la función de
densidad de probabilidad para una
distribución normal se define por:
Distribución Normal
Como se verá más adelante, este rango de - ∞ ≤ x ≤ ∞ puede causar
problemas cuando se utiliza una distribución normal como base
para un análisis de Monte Carlo en la que se toman muestras al azar
todo el rango de valores. Esto puede dar lugar a algunos números
muy pequeños (a veces negativa) y un número muy elevado que, en
ciertos análisis, pueden causar inestabilidad numérica. Con el fin de
superar este problema de la distribución normal se trunca a veces
de modo que sólo los valores que caen dentro de un rango
especificado se consideran válidos.

No hay una solución de forma cerrada para la función de


distribución acumulativa (CDF), que debe ser encontrado por
integración numérica.
Otras Distribuciones
Además de la distribución normal de uso común hay una
serie de distribuciones alternativas que se utilizan en
los análisis de probabilidad . Algunos de los más útiles
son:
• Distribuciones beta (Harr (1987))
• distribuciones exponenciales
• Distributionsare lognormal distribución lognormal
• distribuciones de Weibull

18
TEORIA DE LA PROBABILIDAD

Variables aleatorias.

Distribución de probabilidad.
Distribución de probabilidad o función de
densidad de probabilidad (PDF).

Función de probabilidad acumulada (CDF).

Histogramas.

19
TEORIA DE LA PROBABILIDAD

Media Promedio

Varianza de la muestra S2. Variabilidad de datos

Desviación estándar (S) S= 𝑠 2 Agrupación y dispersión de datos

Coeficiente de variación (COV). Nivel de incertidumbre

La distribución normal o de gauss. Media real

Desviación estándar real


Para:
20
TEORIA DE LA PROBABILIDAD
Además de la distribución normal existen otras distribuciones que se pueden usar en los análisis
estadísticos. Entre las más utilizadas en el ámbito geotécnico se encuentran las siguientes:

Distribuciones Beta
Distribuciones Exponenciales.
Distribuciones Log-normales.
Distribuciones tipo Weibull
Distribuciones triangulares.
Distribuciones Equiprobables.
Distribuciones Logísticas.
21
TÉCNICAS DE MUESTREO

22
Técnicas de Muestreo
Considere la posibilidad de un problema en el que el factor de
seguridad depende de una serie de variables aleatorias, tales
como la resistencia cohesiva C, el ángulo φ de la fricción y la α
aceleración debida a terremotos o explosiones grandes.
Suponiendo que los valores de estas variables se distribuyen
sobre sus medios de una manera que puede ser descrito por una
de las funciones de distribución continuas, tales como la
distribución normal se ha descrito anteriormente, el problema es
cómo utilizar esta información para determinar la distribución
del factor de seguridad los valores y la probabilidad de falla.
MÉTODOS PROBABILISTICOS PARA EL
ANÁLISIS DE ESTABILIDAD DE TALUDES
El objetivo final de un análisis de estabilidad de taludes probabilístico
es obtener la distribución completa de los valores del factor de
seguridad que figuran un conjunto de ( inciertos ) variables de entrada
aleatorias (φ, C, UCS, Otros) con propiedades estadísticas especificadas
(promedio, varianza, COV, otros). Desde la distribución de los valores
del factor de seguridad, la probabilidad de falla se puede determinar.
En este caso, el factor de seguridad se conoce como una variable de
respuesta, y el algoritmo utilizado para calcular el factor de seguridad
como una función de respuesta.

Métodos probabilísticos

Método de Método Método de

PEM
Monte Carlo Hipercubo latino estimación de
puntos

24
EL MÉTODO DE ESTIMACIÓN PUNTUAL

El PEM utiliza una serie de estimaciones de punto - punto por


punto las valoraciones de la función de respuesta a los valores
seleccionados (conocidos como puntos de ponderación) de los
insumos variables aleatorias - para calcular los momentos de la
variable respuesta.

Aunque el método es muy simple , puede ser muy preciso.


La principal desventaja de la PEM es que sufre de la “maldición
de la bimensionalidad”: como el número de variables aleatorias
aumenta el número de puntos de evaluaciones aumenta
exponencialmente. Esto aumenta significativamente el tiempo y
el esfuerzo computacional.

25
EL MÉTODO DE ESTIMACIÓN PUNTUAL

26
EL MÉTODO DE MONTECARLO

La técnica hipercubo latino de muestreo (Iman et al


(1980), Startzman y Watterbarger (1985)) es un
desarrollo relativamente reciente que da resultados
comparables a la técnica de Monte Carlo, pero con un
menor número de muestras. El método se basa en el
muestreo estratificado con selección al azar dentro de
cada estrato. Típicamente un análisis utilizando 1.000
muestras obtenidas por la técnica de hipercubo latino
producirá resultados comparables a un análisis
utilizando 5.000 muestras obtenidas usando el
método de Monte Carlo.

27
EL MÉTODO DE MONTECARLO

28
EL MÉTODO DE ESTIMACIÓN PUNTUAL

29
EL MÉTODO DE MONTECARLO
El método de Monte Carlo es muy potente y flexible, y se puede aplicar a una
amplia gama de problemas. También es muy fácil de usar y puede ser bastante
preciso si se realizan suficientes simulaciones.

En el método de Monte Carlo, se generan muestras de variables de entrada


probabilísticas y sus combinaciones aleatorias estas se utilizan para realizar un
número de cálculos deterministas. La información sobre la distribución y los
momentos de la variable de respuesta se obtiene entonces a partir de las
simulaciones resultantes.

La simulaciones de Monte Carlo se pueden utilizar en programas deterministas


existente sin modificaciones. Como resultado, son muy populares para el
análisis FEM probabilístico [ Olsson, A. M. ]. Al igual que el PEM, que permiten
múltiples funciones de respuesta en un único modelo. A diferencia de la PEM ,
sin embargo, que no se ven afectados por la "maldición de la dimensionalidad,
' el número de simulaciones necesarias es independiente del número de
variables aleatorias de entrada.

30
RESULTADO DE LOS ENSAYOS DE LABORATORIO - VOLCANICO ROJIZO

Propiedades
φ h Área Peso Relación Indice Propiedades Mecánicas
Tipo de
Identificación (cm) (cm) (cm2) (gr) L/D γ (gr/cm3) UCS LPT Ruptura
A 3.81 7.21 11.40 208.4 1.9 2.54 68.99 Matriz
B 3.81 7.52 11.40 217.8 2.0 2.54 91.52 Matriz
C 3.81 7.52 11.40 215.2 2.0 2.51 67.09 Matriz
D 3.81 7.22 11.40 207.4 1.9 2.52 72.77 Matriz
E 3.81 7.24 11.40 207.3 1.9 2.51 72.68 Matriz
F 3.81 7.52 11.40 217.6 2.0 2.54 91.26 Matriz
G 3.81 7.22 11.40 208.6 1.9 2.53 69.16 Matriz
P 3.81 7.54 11.40 215.5 2.0 2.51 65.37 Matriz
P-3 3.81 3.73 11.40 108.2 1.0 2.54 64.5 Matriz
P-4 3.81 3.64 11.40 105.1 1.0 2.53 63.6 Matriz
P-7 3.81 3.71 11.40 107.9 1.0 2.55 72.4 Matriz
P-8 3.81 3.66 11.40 108.1 1.0 2.59 77.2 Matriz
12 8 4
Numero de resultados 2.52 74.86 69.43
Valor máximo, MAX 2.59 91.52 77.20
Valor mínimo, MIN 2.51 65.37 63.60
Mediana, MED 2.53 70.92 68.45
Valor promedio, MEAN 2.53 74.86 69.43
Desviación estándar, SDEV 0.02 10.51 6.52
Coeficiente de variación, CV 1.21 1.20 0.43

31
32

Вам также может понравиться