Вы находитесь на странице: 1из 5

REPÚBLICA BOLIVARIANA DE VENEZUELA

UNIVERSIDAD BICENTENARIA DE ARAGUA


VICERRECTORADO ACADÉMICO
FACULTAD DE INGENIERIA: ESCUELA DE INGENIERÍA DE
SISTEMAS
MARACAY – VENEZUELA

ENSAYO
Simulación de Procesos estocásticos

Gabriel Mejias
C.I.: 26090656

San Joaquín de Turmero 29 de octubre de 2018


Introducción

En el presente ensayo hablaremos de:


1. Generación de eventos para distribuciones discretas.
2. Generación de Funciones empíricas.
3. Distribución Bernoulli.
4. Distribuciones geométricas.

Un proceso estocástico es cualquier familia de variables aleatorias {Xt}t∈T definidas sobre un mismo
espacio probabilístico (Ω, σ, P), donde T denota un conjunto de índices. En función de las relaciones
existentes entre las distintas variables que componen la sucesión, el proceso estocástico recibe
diferentes nombres: cadena de Markov, movimiento Browniano, etc.
De un modo muy general, podemos decir que la probabilidad es la disciplina que se ocupa del estudio
de lo aleatorio (o estocástico) y que un proceso estocástico es el estudio de lo aleatorio cuando se
incorpora la variable tiempo. Por ejemplo, lo que sucede al lanzar una moneda no es un proceso
estocástico; sin embargo, la secuencia de resultados obtenidos al lanzar una moneda varias veces
seguidas sí que lo es. En el campo de las telecomunicaciones encontramos distintas ´áreas que
requieren del “control” de lo aleatorio.
Uno de los conceptos más importantes de la teoría de probabilidades es el de variable aleatoria que,
intuitivamente, puede definirse como cualquier característica medible que toma diferentes valores
con probabilidades determinadas. Toda variable aleatoria posee una distribución de probabilidad que
describe su comportamiento (vale decir, que desagrega el 1 a lo largo de los valores posibles de la
variable).
Las distribuciones discretas incluidas en el sub módulo de Generación de distribuciones son:
- Uniforme discreta: La distribución uniforme discreta describe el comportamiento de una variable
discreta que puede tomar n valores distintos con la misma probabilidad cada uno de ellos
- Binomial: Esta distribución aparece de forma natural al realizar repeticiones independientes de un
experimento que tenga respuesta binaria, generalmente clasificada como “éxito” o “fracaso”;
- Multinomial: La distribución multinomial generaliza esta distribución al caso en que la población
se divide en m > 2 grupos mutuamente excluyentes y exhaustivos o, equivalentemente, a
experimentos con m resultados.
- Hipergeométrica: que mide la probabilidad de obtener x (0 ≤ x ≤ d) elementos de una determinada
clase formada por d elementos pertenecientes a una población de N elementos, tomando una muestra
de n elementos de la población sin reemplazo.
- Geométrica: que describe el número de intentos necesarios hasta conseguir el primer acierto.
- Binomial negativa: o distribución de Pascal, que describe el número de ensayos de Bernoulli
independientes necesarios para conseguir n aciertos, dada una probabilidad individual de éxito p
constante.
Generación de Funciones empíricas
 Se denomina probabilidad empírica a aquella que se determina de forma experimental.
 Al repetir un experimento bajo las mismas condiciones, la frecuencia relativa de un suceso
se aproxima a su probabilidad (denominada frecuencia o empírica)
 A mayor cantidad de repeticiones, la probabilidad empírica tiende a establecerse en un valor
que coincide con la probabilidad teórica del suceso.
Si se tiene una muestra aleatoria simple, es posible encontrar una distribución a partir de la muestra
que proporcionará un cierto parecido a la distribución verdadera de la variable asociada con la
población.
Distribución de Bernoulli
Experimento de Bernoulli: solo son posibles dos resultados: éxito o fracaso.
Podemos definir una variable aleatoria discreta X tal que:
éxito → 1 fracaso → 0
Si la probabilidad de éxito es p y la de fracaso 1 - p, podemos construir una función de probabilidad:
DISTRIBUCIÓN GEOMÉTRICA O DE PASCAL
Definamos una experiencia aleatoria cuyo resultado sólo puede ser el suceso A o su complementario
Ac, y que se repite secuencialmente hasta que aparece el suceso A por primera vez.
Definamos la variable aleatoria X como el número de veces que repetimos la experiencia en
condiciones independientes hasta que se dé A por primera vez. Bajo estas condiciones, decimos que
la variable X sigue una distribución geométrica o de Pascal de parámetro p = P(A).
La función de densidad puede deducirse fácilmente de la definición:
𝑓(𝑘) = 𝑃[𝑋 = 𝑘] = (1 − 𝑝)𝑘 𝑝 𝑘 = 0, 1, 2, . ..

Supóngase que se efectúa repetidamente un experimento o prueba, que las repeticiones son
independientes y que se está interesado en la ocurrencia o no de un suceso al que se refiere como
“éxito”, siendo la probabilidad de este suceso p. La distribución geométrica permite calcular la
probabilidad de que tenga que realizarse un número k de repeticiones antes de obtener un éxito por
primera vez; esta probabilidad decrece a medida que aumenta k con lo que la función de masa de
probabilidad es siempre decreciente.

La distribución geométrica es un modelo adecuado para aquellos procesos en los que se


repiten pruebas hasta la consecución del éxito a resultado deseado y tiene interesantes
aplicaciones en los muestreos realizados de esta manera. También implica la existencia de
una dicotomía de posibles resultados y la independencia de las pruebas entre sí.
Conclusion
El objetivo de la materia es tanto dar contenidos teóricos que permitan entender y dar
demostraciones rigurosas de que los métodos a estudiar efectivamente simulan procesos con la
distribución (exacta o aproximada) que se desean. De esta manera, el estudiante tiene una base para
el comienzo de este nuevo contenido a ver.

Вам также может понравиться