Академический Документы
Профессиональный Документы
Культура Документы
estadística se encarga de agrupar y organizar todos esos datos para de esa forma tener una
mejor comprensión. Dentro de la estadística esta la muy conocida teoría de la probabilidad,
que es una de las ramas de la matemáticas encargada de estudiar los fenómenos aleatorios y
estocásticos. La teoría de probabilidades se ocupa de asignar un cierto número a cada
posible resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar
dichos resultados y saber si un suceso es más probable que otro, un ejemplo de esto puede
ser en la perforación, cuando se perfora un pozo para saber si dicho lugar puede haber un
yacimiento petrolero, ya que la única forma de saber si en un lugar hay petróleo la manera
de confirmarlo es perforando con estudios previos, todo eso viene representado fenómenos
aleatorios. Según la teoría de probabilidad clásica dice que la probabilidad representa la
característica de un evento, que hace que existan razones para creer que éste se realizará. Es
decir La probabilidad p de que suceda un evento S de un total de n casos posibles
igualmente probables es igual a la razón entre el número de ocurrencias h de dicho evento y
el número total de casos posibles n. La probabilidad es un número que varía entre 0 y 1.
Cuando el evento es imposible se dice que su probabilidad es 0, si el evento es cierto y
siempre tiene que ocurrir su probabilidad es 1. Por consiguiente la probabilidad clásica es
aquella en la que todos los casos posibles de un evento tienen la misma probabilidad de
ocurrir, esta se aplica cuando cada evento simple del espacio muestral tiene la misma
probabilidad de ocurrir.
Monleón (2010) indica que vivimos en un mundo lleno de información y que es necesario
tomar decisiones en un ambiente de incertidumbre, que es característico del quehacer del
ingeniero. La probabilidad de frecuencia relativa se refiere a la frecuencia relativa de un
evento esperada en el largo plazo o luego de una secuencia de ensayos. Cuantas más veces
se repita el experimento, al final las posibilidades de que ocurra cada uno de los sucesos
será regular. Aunque cualquier comportamiento sea aleatorio, por proceso empírico
llegaremos a una regularidad. Es cuando se lanza un dado y suponiendo cuantas veces cae
el número que se seleccionó. Normalmente la estadística que estamos acostumbrados a
utilizar es la estadística frecuentista, que es la que se desarrolla a partir de los conceptos de
probabilidad y que se centra en el cálculo de probabilidades y los contrastes de hipótesis.
Dentro de la teoría de probabilidades podemos conseguirnos con el termino de espacio
muestral o espacio de muestreo que este viene denotado por (E, S, Ω o U), consiste en el
conjunto de todos los posibles resultados de un experimento aleatorio, junto con una
estructura sobre el mismo, por ejemplo en un proyecto de perforación de pozos el espacio
muestral sería los posibles resultados que esto conlleve incluyendo el hallazgo de un
yacimiento, los problemas y dificultades, entre otros. Para poder representar de una forma
gráfica el espacio muestral y su relación con los eventos, lo hacemos utilizando el diagrama
de Venn. En un diagrama de Venn representamos el espacio muestral como un rectángulo y
los eventos con círculos trazados dentro del rectángulo. Se usan para hacer un análisis
detallado y para representar cómo se relacionan los elementos entre sí dentro de un
"universo" o segmento determinado. Los diagramas de Venn permiten a los usuarios
visualizar los datos de forma clara y con gran alcance y, por este motivo, se utilizan
comúnmente. Al mismo tiempo para calcular las probabilidades es necesario tener en
cuenta los axiomas y teoremas, los axiomas son las condiciones mínimas que deben verificarse
para que una función definida sobre un conjunto de sucesos determine consistentemente sus
probabilidades. Según Kolmogórov en 1933, los axiomas que hay que tener en cuenta son los
siguientes:
Para esta demostración es necesario que el estudiante tenga en cuenta los enunciados de
Probabilidad Condicional cuya fórmula es:
2. Si a todos los datos se les suma una constante, la varianza sigue siendo la misma.
3. Si todos los datos se multiplican por una constante, la varianza queda multiplicada
por el cuadrado de la constante.
Por lo general el hombre siempre ha tenido interés por lo desconocido, a través de ello vino
lo que fue la teoría de las probabilidades. Dentro de ella hay varios conceptos que se deben
tener en cuenta para el cálculo de las probabilidades, por ejemplo el espacio muestral, esta
se puede representar mediante gráficos de Venn. Mayormente en la ingeniería de petróleo
las herramientas estadísticas que suelen usarse son el histograma, el ajuste lineal y la
generación de números pseudoaleatorios. Como hemos comentado en los párrafos anteriores,
la estadística es importante en la vida de cualquier ciudadano para comprender, analizar y
tomar decisiones ante la enorme cantidad de datos que aparecen a su alrededor. Pero de manera
muy especial, en el trabajo que realiza un ingeniero, quién en su quehacer diario enfrenta
situaciones en donde aparece la variabilidad, la incertidumbre. Los métodos estadísticos soy
indispensables para reducir la variabilidad y tomar mejores decisiones en su mundo laboral.
Es indispensable que el ingeniero aplique correctamente el muestreo para recolectar datos,
que aplique la teoría de probabilidades para modelar datos y calcular probabilidades, que
aplique la teoría de confiabilidad para estimar tiempos de vida de productos y estimar
tiempos de falla, que aplique los intervalos de confianza y las pruebas de hipótesis para
estimar parámetros y probar supuestos acerca de ellos, que aplique las series de tiempo y la
regresión lineal para estudiar el comportamiento de una variable en función de otras, que
aplique el diseño de experimentos para determinar qué variables tienen mayor influencia en
la variable de respuesta que interesa, etc. “La estadística es la primera de las ciencias
inexactas.”
EDMOND DE GONCOURT
Bibliografias