Вы находитесь на странице: 1из 6

Vivimos en un mundo lleno de muchas ciencias en donde la variación de datos es grande, la

estadística se encarga de agrupar y organizar todos esos datos para de esa forma tener una
mejor comprensión. Dentro de la estadística esta la muy conocida teoría de la probabilidad,
que es una de las ramas de la matemáticas encargada de estudiar los fenómenos aleatorios y
estocásticos. La teoría de probabilidades se ocupa de asignar un cierto número a cada
posible resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar
dichos resultados y saber si un suceso es más probable que otro, un ejemplo de esto puede
ser en la perforación, cuando se perfora un pozo para saber si dicho lugar puede haber un
yacimiento petrolero, ya que la única forma de saber si en un lugar hay petróleo la manera
de confirmarlo es perforando con estudios previos, todo eso viene representado fenómenos
aleatorios. Según la teoría de probabilidad clásica dice que la probabilidad representa la
característica de un evento, que hace que existan razones para creer que éste se realizará. Es
decir La probabilidad p de que suceda un evento S de un total de n casos posibles
igualmente probables es igual a la razón entre el número de ocurrencias h de dicho evento y
el número total de casos posibles n. La probabilidad es un número que varía entre 0 y 1.
Cuando el evento es imposible se dice que su probabilidad es 0, si el evento es cierto y
siempre tiene que ocurrir su probabilidad es 1. Por consiguiente la probabilidad clásica es
aquella en la que todos los casos posibles de un evento tienen la misma probabilidad de
ocurrir, esta se aplica cuando cada evento simple del espacio muestral tiene la misma
probabilidad de ocurrir.

Monleón (2010) indica que vivimos en un mundo lleno de información y que es necesario
tomar decisiones en un ambiente de incertidumbre, que es característico del quehacer del
ingeniero. La probabilidad de frecuencia relativa se refiere a la frecuencia relativa de un
evento esperada en el largo plazo o luego de una secuencia de ensayos. Cuantas más veces
se repita el experimento, al final las posibilidades de que ocurra cada uno de los sucesos
será regular. Aunque cualquier comportamiento sea aleatorio, por proceso empírico
llegaremos a una regularidad. Es cuando se lanza un dado y suponiendo cuantas veces cae
el número que se seleccionó. Normalmente la estadística que estamos acostumbrados a
utilizar es la estadística frecuentista, que es la que se desarrolla a partir de los conceptos de
probabilidad y que se centra en el cálculo de probabilidades y los contrastes de hipótesis.
Dentro de la teoría de probabilidades podemos conseguirnos con el termino de espacio
muestral o espacio de muestreo que este viene denotado por (E, S, Ω o U), consiste en el
conjunto de todos los posibles resultados de un experimento aleatorio, junto con una
estructura sobre el mismo, por ejemplo en un proyecto de perforación de pozos el espacio
muestral sería los posibles resultados que esto conlleve incluyendo el hallazgo de un
yacimiento, los problemas y dificultades, entre otros. Para poder representar de una forma
gráfica el espacio muestral y su relación con los eventos, lo hacemos utilizando el diagrama
de Venn. En un diagrama de Venn representamos el espacio muestral como un rectángulo y
los eventos con círculos trazados dentro del rectángulo. Se usan para hacer un análisis
detallado y para representar cómo se relacionan los elementos entre sí dentro de un
"universo" o segmento determinado. Los diagramas de Venn permiten a los usuarios
visualizar los datos de forma clara y con gran alcance y, por este motivo, se utilizan
comúnmente. Al mismo tiempo para calcular las probabilidades es necesario tener en
cuenta los axiomas y teoremas, los axiomas son las condiciones mínimas que deben verificarse
para que una función definida sobre un conjunto de sucesos determine consistentemente sus
probabilidades. Según Kolmogórov en 1933, los axiomas que hay que tener en cuenta son los
siguientes:

1. La probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno.


2. La probabilidad de que ocurra el espacio muestral d debe de ser 1.
3. Si A y B son eventos mutuamente excluyentes, entonces la p(AÈB) = p(A) + p(B)

Por consiguiente los teoremas son:

1. Si f es un evento nulo o vacío, entonces la probabilidad de que ocurra f debe ser


cero. p(f)=0
2. La probabilidad del complemento de A, Ac debe ser, p(Ac)= 1 – p(A)
3. Si un evento A Ì B, entonces la p(A) £ p(B).
4. La p( A \ B )= p(A) – p(AÇB)
5. Para dos eventos A y B, p(AÈB)=p(A) + p(B) – p(AÇB).

La estadística aporta a los estudiantes herramientas e ideas para usar la información


cuantitativa en el mundo a su alrededor (Garfield y Ben-Zvi, 2007). En el concepto de
probabilidades también se encuentran la probabilidad condicional y la independencia de
eventos, por su parte la probabilidad condicional viene siendo la probabilidad de que ocurra
un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se
escribe P (A|B) o P(A/B), y se lee “la probabilidad de A dado B”. la independencia de
eventos se refiere a lo siguiente, dado 2 eventos A y B, la ocurrencia o no ocurrencia del
evento B no afecta para nada la probabilidad de ocurrencia del evento A, cuando esto
sucede se dice que el evento A y B son Independientes. La principal característica de una
situación con eventos independientes es que el estado original de la situación no cambia
cuando ocurre un evento. También están las variables aleatorias estas son una función que
asocia un número real a cada resultado de un experimento aleatorio. Para referirse a dichas
variables se utilizan letras mayúsculas, mientras que las letras minúsculas servirán para
referirse a los valores concretos de dichas variables, por ejemplo los posibles resultados en
una examinación de una muestra de hidrocarburo. Aquí he de referirme a unos conceptos
matemáticos, para una mejor comprensión del tema. Entre los conceptos matemáticos están
los conjuntos que es la reunión de elementos. Si el conjunto es infinito no puede definirse
por enumeración, ya que es infinito. Por ello debe definirse por extensión. La variable es un
almacén donde puede contener cualquier valor de un conjunto. Una constante es un
elemento de un conjunto donde su valor nunca cambia. La media y mediana, son dos
conceptos clave en estadística, la media corresponde a la suma de una serie de cifras
dividida por el número de sumandos. La mediana, por su parte, es el valor central en un
conjunto de datos. También está la población se define como la totalidad de los valores
posibles de una característica específica que se desean estudiar en un momento
determinado. Así que la Muestra es un subconjunto de la población, seleccionado de forma
tal, que sea representativo de la población estudiada, obteniéndose con el objetivo de
investigar alguna o algunas de las propiedades de la población de la cual se desprende.
Añádase a este el universo es la totalidad de elementos o características que conforman el
ámbito de un estudio o investigación, por ejemplo los pozos productores de petróleo en
Venezuela. La clase o Intervalo de clase son divisiones en las cuales se agrupan un
conjunto de datos ordenados con características comunes. A través de eso está el punto
medio o marca de clase que es el centro de la clase. Este valor se utiliza para el cálculo de
la media aritmética. También se hace mención de la Frecuencia absoluta esta se le designa
con las letras fi. Es el número total de valores de las variables que se encuentran presente en
una clase determinada, de una distribución de frecuencia de clase. Y por último nombramos
a la moda, es la medida de posición que indica la magnitud del valor que se presenta con
más frecuencia en una serie de datos; es pues, el valor de la variable que más se repite en un
conjunto de datos.

En la teoría de probabilidad, y estadística una distribución de probabilidad indica toda la


gama de valores que pueden representarse como resultado de un experimento si éste se
llevase a cabo. Es decir, describe la probabilidad de que un evento se realice en el futuro,
constituye una herramienta fundamental para la prospectiva, puesto que se puede diseñar un
escenario de acontecimientos futuros considerando las tendencias actuales de diversos
fenómenos naturales. Ahora bien la esperanza matemática es la suma del producto de la
probabilidad de cada suceso por el valor de dicho suceso.

Si la esperanza matemática es cero, E(x) = 0, el juego es equitativo, es decir, no existe


ventaja ni para el jugador ni para la banca. De acuerdo a esto sus propiedades son:

1. La Esperanza Matemática de una constante es la constante: E [C] = C

2. La Esperanza Matemática de una Constante por una Variable Aleatoria es igual a la


constante por la Esperanza de la Variable Aleatoria

Esto es E [CX] = CE [X] donde C es una constante y X es una Variable Aleatoria

3. La Esperanza Matemática de una Variable Aleatoria más una Constante es igual a la


Esperanza Matemática de la Variable Aleatoria más la constante

Esto es: E [X + C] = E [X] + C

4. E [X + Y] = E [X] + E [Y] ; donde X y Y son Variable Aleatoria

Para esta demostración es necesario que el estudiante tenga en cuenta los enunciados de
Probabilidad Condicional cuya fórmula es:

5. E [aX + bY] = aE[X] + bE[Y] donde a y b son constantes y X y Y son Variable


Aleatoria Continuas la demostración es análoga a la demostración anterior y se dejará para
que el lector practique sus habilidades para realizar demostraciones matemáticas.

La varianza es la media aritmética del cuadrado de las desviaciones respecto a la media de


una distribución estadística. Para calcular la varianza es necesario tener en cuenta las
siguientes propiedades.

1. La varianza es un valor positivo, la igualdad sólo se da en el caso de que todas las


muestras sean iguales.

2. Si a todos los datos se les suma una constante, la varianza sigue siendo la misma.
3. Si todos los datos se multiplican por una constante, la varianza queda multiplicada
por el cuadrado de la constante.

4. Si se disponen de varias distribuciones con la misma media y se calculan las distintas


varianzas, se puede hallar la varianza total aplicando la fórmula

Para concluir la estadística ha desempeñado un rol de suma importancia en el campo de la


ingeniería, esto se debe principalmente a la toma de decisiones que debe realizar un
ingeniero, dichas decisiones son influenciadas por una cierta cantidad de datos y variables.
Un ejemplo de esto viene siendo el de Havlena y Odeh en donde descubrieron un método
que permitía determinar el petróleo original en sitio de un yacimiento determinado
mediante la linealización de unos ciertos parámetros, este método es netamente estadístico
y de gran importancia para la ingeniería de yacimiento. Se utilizó un método conocido
como regresión lineal por mínimos cuadrados.

Por lo general el hombre siempre ha tenido interés por lo desconocido, a través de ello vino
lo que fue la teoría de las probabilidades. Dentro de ella hay varios conceptos que se deben
tener en cuenta para el cálculo de las probabilidades, por ejemplo el espacio muestral, esta
se puede representar mediante gráficos de Venn. Mayormente en la ingeniería de petróleo
las herramientas estadísticas que suelen usarse son el histograma, el ajuste lineal y la
generación de números pseudoaleatorios. Como hemos comentado en los párrafos anteriores,
la estadística es importante en la vida de cualquier ciudadano para comprender, analizar y
tomar decisiones ante la enorme cantidad de datos que aparecen a su alrededor. Pero de manera
muy especial, en el trabajo que realiza un ingeniero, quién en su quehacer diario enfrenta
situaciones en donde aparece la variabilidad, la incertidumbre. Los métodos estadísticos soy
indispensables para reducir la variabilidad y tomar mejores decisiones en su mundo laboral.
Es indispensable que el ingeniero aplique correctamente el muestreo para recolectar datos,
que aplique la teoría de probabilidades para modelar datos y calcular probabilidades, que
aplique la teoría de confiabilidad para estimar tiempos de vida de productos y estimar
tiempos de falla, que aplique los intervalos de confianza y las pruebas de hipótesis para
estimar parámetros y probar supuestos acerca de ellos, que aplique las series de tiempo y la
regresión lineal para estudiar el comportamiento de una variable en función de otras, que
aplique el diseño de experimentos para determinar qué variables tienen mayor influencia en
la variable de respuesta que interesa, etc. “La estadística es la primera de las ciencias
inexactas.”
EDMOND DE GONCOURT
Bibliografias

Batanero, C. (2013). Sentido estadístico. Componentes y desarrollo.

Behar, R. et al. (2002). El rol de la estadística en el trabajo del ingeniero. Ingeniería y


Competitividad Vol. 4

León, J. (2007). Enseñando estadística a futuros ingenieros.

Вам также может понравиться