Вы находитесь на странице: 1из 19

Probabilidades: Definiciones y Conceptos Las Probabilidades pertenecen a la rama de la matemtica que estudia ciertos experimentos llamados aleatorios, o sea

regidos por el azar, en que se conocen todos los resultados posibles, pero no es posible tener certeza de cul ser en particular el resultado del experimento. Por ejemplo, experimentos aleatorios cotidianos son el lanzamiento de una moneda, el lanzamiento de un dado, extraccin de una carta de un mazo de naipes. Ms adelante se ver que debemos distinguir entre los conceptos de probabilidades matemticas o clsicas de las probabilidades experimentales o estadsticas. Probabilides, Algunas Definiciones Espacio Muestral.- Se llama espacio muestral (E) asociado a un experimento aleatorio, el conjunto de todos los resultados posibles de dicho experimento. Al lanzar una moneda, el espacio muestral es E = {sale cara, sale sello} E = {c, s}. Al lanzar un dado de seis caras, el espacio muestral es E = {sale 1, sale 2, sale 3, sale 4, sale 5, sale 6} E = {1, 2, 3, 4, 5, 6} Al lanzar dos monedas, el espacio muestral es E = {(c,c), (c,s), (s,c), (s,s)}. Al lanzar tres monedas, el espacio muestral es E = {(c,c,c), (c,c,s), (c,s,c), (c,s,s), (s,c,c), (s,c,s), (s,s,c), (s,s,s)} Evento o Suceso. Se llama evento o suceso a todo subconjunto de un espacio muestral. Por ejemplo en el espacio muestral E = {1, 2, 3, 4, 5, 6} del lanzamiento de un dado, los siguientes son eventos: 1. Obtener un nmero primo A = {2, 3, 5} 2. Obtener un nmero primo y par B = {2} 3. Obtener un nmero mayor o igual a 5 C = {5, 6} Eventos mutuamente excluyentes.- Dos eventos son mutuamente excluyentes si no pueden ocurrir en forma simultnea, esto es, si y slo si su interseccin es vaca. Por ejemplo, en el lanzamiento de un dado los eventos B = {2} y C = {5, 6} son mutuamente excluyentes por cuanto BC= Eventos Complementarios.- Si A B = y A B = E, se dice que A y B son eventos complementarios: Ac = By

Bc = A Su Medicin Matemtica o Clsica. Si en un experimento aleatorio todos los resultados son equiprobables (iguales probabilidades), es decir, la ocurrencia de uno es igualmente posible que la ocurrencia de cualquiera de los dems, entonces, la probabilidad de un evento A es la razn: P(A) = nmero de casos favorables para A/nmero total de casos posibles A partir de esta definicin las probabilidades de los posibles resultados del experimento se pueden determinar a priori, es decir, sin realizar el experimento. Se deduce de la definicin lo siguiente: 0 P(A) 1 La medicin probabilstica es un nmero real entre 0 y 1, inclusive, 0% P(A) 100% en porcentaje. P() = 0 y P(E) = 1 Su Medicin Experimental o Estadstica.- La frecuencia relativa del resultado A de un experimento es la razn FR = nmero de veces que ocurre A/nmero de veces que se realiza el experimento Si el experimento se repite un nmero grande de veces, el valor de FR se aproximar a la medicin probabilstica P del evento A. Por ejemplo, si lanzo 100 veces una moneda, el nmero de veces que obtengo cara es cercano a 50, o sea FR es cercano a 50%.

El Teorema de la probabilidad total nos permite calcular la probabilidad de un suceso a partir de probabilidades condicionadas: Ejemplo: supongamos que si llueve la probabilidad de que ocurra un accidentes es x% y si hace buen tiempo dicha probabilidad es y%. Este teorema nos permite deducir cul es la probabilidad de que ocurra un accidente si conocemos la probabilidad de que llueva y la probabilidad de que haga buen tiempo. La frmula para calcular esta probabilidad es:

Es decir, la probabilidad de que ocurra el suceso B (en nuestro ejemplo, que ocurra un accidente) es igual a la suma de multiplicar cada una de las probabilidades condicionadas de este suceso con los diferentes sucesos A (probabilidad de un accidente cuando llueve y cuando hace buen tiempo) por la probabilidad de cada suceso A. Para que este teorema se pueda aplicar hace falta cumplir un requisito:

Los sucesos A tienen que formar un sistema completo, es decir, que contemplen todas las posibilidades (la suma de sus probabilidades debe ser el 100%). Ejemplo: al tirar una moneda, el suceso "salir cara" y el suceso "salir cruz" forman un sistema completo, no hay ms alternativas: la suma de sus probabilidades es el 100% Ejemplo: al tirar un dado, que salga el 1, el 2, el 3, o el 4 no forman un sistema completo, ya que no contempla todas las opciones (podra salir el 5 o el 6). En este caso no se podra aplicar el teorema de la probabilidad total.

Ejercicio 1: En un saquito hay papeletas de tres colores, con las siguientes probabilidades de ser elegidas: a) Amarilla: probabilidad del 50%. b) Verde: probabilidad del 30% c) Roja: probabilidad del 20%. Segn el color de la papeleta elegida, podrs participar en diferentes sorteos. As, si la papeleta elegida es: a) Amarilla: participas en un sorteo con una probabilidad de ganar del 40%. b) Verde: participas en otro sorteo con una probabilidad de ganar del 60% c) Roja: participas en un tercer sorteo con una probabilidad de ganar del 80%. Con esta informacin, qu probabilidad tienes de ganar el sorteo en el que participes?: 1.- Las tres papeletas forman un sistema completo: sus probabilidades suman 100% 2.- Aplicamos la frmula:

Luego, P (B) = (0,50 * 0,40) + (0,30 * 0,60) + (0,20 * 0,80) = 0,54 Por tanto, la probabilidad de que ganes el sorteo es del 54%.

Probabilidad Condicional
Llamamos probabilidad condicionada del suceso denotamos por al cociente respecto del suceso , y lo

Ejemplo
Se lanzan dos dados. Si la suma ha sido 7, cul es la probabilidad de que alguno de los dados haya salido un tres? Sean los sucesos

= "la suma de los puntos es siete" y

= "en alguno de los dados ha salido un tres"

El suceso es salir en algn dado 3, si la suma ha sido 7. Observamos que esta situacin ocurre en las parejas y . Por tanto,

Probabilidad frecuencial En los experimentos aleatorios no se conoce el resultado que se obtendr (por ejemplo al lanzar un dado). La probabilidad es el grado de certidumbre con que se mide la ocurrencia de cierto resultado. La probabilidad frecuencial o emprica es la que se fundamenta en los datos obtenidos por encuestas, preguntas o por una serie larga de realizaciones de un experimento.

El clculo de la probabilidad de un evento y la frecuencia relativa del mismo es lo que se conoce como probabilidad frecuencial.

Para determinar la probabilidad frecuencial, se repite el experimento aleatorio un nmero determinado de veces, se registran los datos y se divide el nmero de veces que se obtiene el resultado que nos interesa, entre el nmero de veces que se realiz el experimento.

Un experimento se dice aleatorio si es posible conocer previamente todos los posibles resultados asociados al experimento, si es imposible predecir el resultado del mismo antes de realizarlo y si es posible repetirlo bajo las mismas condiciones iniciales un nmero ilimitado de veces. Un ejemplo de experimento aleatorio puede ser el lanzamiento de una moneda. Si disponemos de una moneda (sin ningn tipo de sesgo) tenemos un espacio muestral definido por dos casos posibles: Cara o Cruz. El espacio muestral matemticamente se denota as = {Cara, Cruz}. Si lanzamos la moneda n veces y se obtienen nc caras, la frecuencia relativa del suceso C es: fc = nc / n Si esta experiencia la realizan varias personas, las frecuencias relativas obtenidas no coinciden, pero oscilan alrededor de un nmero fijo. En el siglo XVIII Buffon repiti el experimento del lanzamiento de una moneda 4.040 veces y obtuvo una frecuencia de sucesos de cara fc = 0,5069. En el siglo XX Pearson realiz el mismo experimento 24.000 veces, obteniendo un frecuencia de fc = 0,5005. Las probabilidades se ajustan a fc = 0,5, el lmite cuando se realiza infinitas repeticiones del lanzamiento. Observamos que si se realiza un gran nmero de repeticiones, las frecuencias relativas de aparicin de los sucesos presentan regularidad estadstica (sta es la base emprica de la Teoria de la Probabilidad). Aunque la estabilidad de las frecuencias relativas y el valor alrededor del cual oscilan slo se pueden determinar experimentalmente, parece que este nmero puede darse como una medida de la posibilidad de ocurrencia de un suceso, por lo que llamaremos probabilidad de tal suceso. As que obtenemos como probabilidad de un determinado

suceso el nmero en torno al cual oscila su frecuencia relativa f, es decir, el valor lmite de f al repetir un nmero infinito de veces un experimento. La probabilidad es un valor, independiente del observador, que indica aproximadamente con qu frecuencia se producir el suceso considerado en el transcurso de una larga serie de pruebas. A principios del siglo XX, se realiz una profunda revisin del concepto de probabilidad usando las herramientas ms precisas del momento:

La teora de conjuntos (Borel)

La teora de la medida (Lebesgue)

La probabilidad pasa a entenderse como una medida de la incertidumbre, con propiedades similares a las medidas de longitud, tiempo, ... Las propiedades de la probabilidad pueden estudiarse a partir de las propiedades de la frecuencia relativa.

Si al repetir un experimento n veces, el suceso A se produce k veces: 0 k n => 0 k/n 1 => 0 fA 1 fA es un nmero comprendido entre 0 y 1, por lo que tambin deber serlo la probabilidad de A

Si un suceso A ocurre siempre (sea cual sea el resultado del experimento), fA ser 1. Si el suceso A no ocurre nunca (cualquiera que sea el resultado), fA ser cero. Por tanto, la probabilidad del suceso seguro debe ser 1 y la del suceso imposible 0.

Si tomamos dos sucesos posibles A y B, mutuamente excluyentes, y se presentan, respectivamente, nA y nB veces al repetir la prueba n veces, el suceso unin de ambos se habr producido nA + nB veces, por lo que: fAUB = fA + fB

Por tanto, la probabilidad del suceso unin de dos sucesos incompatibles debe ser la suma de las probabilidades de los sucesos individuales.

La axiomtica de Kolmogorov (1933) viene dada por los siguientes tres axiomas:

Axioma 1: A todo suceso A le corresponde un nico nmero no negativo, P(A), al que llamaremos probabilidad de A

Axioma 2: La probabilidad del suceso seguro es 1

Axioma 3: Sean A y B dos sucesos tales que la interseccin entre ambos es 0. Entonces: P(AUB) = P(A) + P(B)

Eventos Independientes

La nocin de eventos independientes tiene un papel muy importante en la Teora de la Probabilidad, pues ciertas relaciones que se presentan una y otra vez en problemas de probabilidad, pueden tener formulacin general en trminos de esta nocin.

Por tanto, dos eventos A y B se dicen independientes si se cumple:

P(AB) = P(A) .P(B)

As, si tiramos dos veces una moneda correcta y se define los eventos:

A: primera tirada resulta en cara

B: segunda tirada resulta en cara

y sabemos que

P(AB) = P(cara, cara) = 1/4

porque cara, cara es uno de los cuatro eventos elementales igualmente posibles, y adems se tiene que:

P(A) = P(cara, cara) + P(cara, sello) = 1/2

P(B) = P(cara, cara) + P(sello, cara) = 1/2

de donde

P(A) P(B) = 1/4 = P(AB)

Teoremas Derivados

Teorema: Si A y B son eventos independientes, tambin lo son los eventos A y C(B).

Teorema: Bajo la hiptesis P(B) > 0, una condicin necesaria y suficiente para que los eventos A y B, sean independientes es que :

P(A/B) = P(A)

Un ejemplo clsico: Al tirar una moneda correcta dos veces, sean los eventos

A: Cara la primera tirada

B: Cara la segunda tirada

C: El mismo lado en las dos tiradas

para lo que se tiene:

P(A) = P(B) = P(C) = 1/2

P(AB) = P(AC) = P(BC) = 1/4

P(ABC) = 1/4

luego:

P(A) P(B) P(C) = 1/18 = 1/4 = P(ABC)

en cambio al tirar una moneda tres veces se define los eventos

Ai: cara en la i-sima tirada, i = 1, 2, 3

se puede probar que

P(Ai) = 1/2 y P(A1 A2 A3) = 1/8

Teorema: Si los eventos de una clase C son independientes y si alguno o todos los eventos en C son reemplazados por sus eventos.

Teorema: Si A y B son eventos independientes, tambin lo son los eventos A y B son eventos independientes, tambin lo son los eventos A y .

Teorema: Bajo la Hiptesis P (B) > 0, una condicin necesaria y suficiente para que los eventos A y B sean independientes es que

Suficiencia: Si, ahora suponemos , por el teorema de multiplicacin

por lo que A y B son independientes.

Definicin. Sea C una coleccin de eventos. Se dice que los eventos en C son totalmente independientes (o estocsticamente independientes), o simplemente que son independientes, si la probabilidad de la ocurrencia conjunta de cualquier nmero finito de ellos es igual al producto de sus probabilidades individuales.

Esta definicin implica que para toda coleccin finita

A1, A2, ..., AN de eventos en C se cumple

As, por ejemplo, si C consiste slo de tres eventos A, B, C, se dir que ellos son independientes si se cumplen las ecuaciones siguientes:

Si se cumple las tres primeras ecuaciones pero no la ltima, se dice que los eventos A, B, C son independientes dos a dos. Como se comprobar por el siguiente ejemplo, si los eventos de una coleccin son independientes dos a dos, ellos no son necesariamente independientes.

La definicin anterior podemos asociarla al acceso a datos de entidades (tablas o ficheros) independientes, dentro de una Base de Datos.

Ejemplo: Al tirar una moneda correcta dos veces, sean los eventos

A : Cara en la primera tirada

B : Cara en la segunda tirada

C : El mismo lado en las dos tiradas

para los cuales se tiene

luego

En cambio si al tirar una moneda tres veces se definen los eventos

Ai : Cara en la i-sima tirada, i = 1, 2, 3

se puede probar que

de lo cual se concluye que los tres eventos Ai son independientes.

Nota. De la definicin de independencia completa se sigue que si C es una coleccin finita con N eventos, para decidir sobre su total independencia hay que comprobar 2N -N-1 ecuaciones para probabilidades de intersecciones, pues el nmero total de subconjuntos de C es 2N incluyendo el conjunto vaco y los conjuntos formados por un solo elemento de C.

Como consecuencia de la definicin de independencia total de eventos se tiene una generalizacin del teorema 2.5 en el siguiente teorema.

Teorema: Si los eventos de una clase C son independientes y si algunos o todos los eventos en C son reemplazados por sus eventos contrarios, entonces los eventos en la clase C resultante son tambin independientes.

Ensayos Repetidos

Al tratar de la caracterizacin de un fenmeno aleatorio, se ha establecido como uno de los rasgos la posibilidad de "repetir indefinidamente, bajo condiciones idnticas", la observacin. Estas observaciones constituyen ensayos repetidos, conceptos que pueden ser formulados analticamente usando la nocin de independencia estocstica.

Para ello, consideremos el espacio muestral asociado a un cierto fenmeno aleatorio, en una sola observacin. Supongamos que los elementos de son w1, w2, ..., a los cuales se les asigna probabilidades p1, p2, ... . Si se realizan dos observaciones sucesivas de este fenmeno, el espacio muestral asociado tiene como elementos los pares (wi, wj), a los cuales se les puede asignar probabilidades de varias maneras. Si las condiciones son idnticas para las dos observaciones, se implica la independencia de las mismas, puesto que el resultado de la primera no influye en el resultado de la segunda observacin, lo que significa que el evento "el primer resultado es wi" y el evento "el segundo resultado es wj" son independientes, o que

Este resultado asigna una probabilidad a cada evento elemental en y define una funcin probabilidad sobre el conjunto potencia a . Adems, con esta funcin probabilidad se puede demostrar que todos los eventos en el segundo ensayo son independientes de eventos en el

primer ensayo. Para los propsitos de la teora de probabilidad, esto describe "experimentos idnticos".

La generalizacin de estas consideraciones a una sucesin de n observaciones, lleva a la siguiente definicin.

Definicin: Sea un espacio muestral con elementos w1, w2..., cuyas probabilidades son p1, p2,... . El espacio muestral cuyos elementos son las n-tuplas (wi1, wi2, ... win) a los cuales se les asigna las probabilidades

es considerado como n ensayos independientes correspondientes al espacio .

Aparte de la independencia de eventos, se puede considerar tambin la nocin de independencia de familias de eventos, clases eventos.

Definicin: Sean A y B dos clases de eventos, es decir A y B son conjuntos cuyos elementos son eventos en algn espacio . Se dice que dos familias A y B son independientes si cada dos eventos seleccionados uno de cada familia, digamos A A y B B, son independientes.

Esta definicin puede ser generalizada mediante lo siguiente:

Definicin: Sea {A} una familia de clases de eventos. Decimos que estas clases de eventos son independientes si para cada seleccin A los eventos {B} son independientes.

El teorema que se enuncia y demuestra a continuacin, proporciona por lo menos un par de familias independientes de eventos.

Teorema: Sean A y B dos eventos independientes y sean las clases o familias de eventos

A=B=

Entonces, las familias A y B son independientes.

teorema de Bayes Saltar a: navegacin, bsqueda

En la teora de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 17631 que expresa la probabilidad condicional de un evento aleatorio A dado B en trminos de la distribucin de probabilidad condicional del evento B dado A y la distribucin de probabilidad marginal de slo A.

En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podra saber -si se tiene algn dato ms-, la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestin para la ciencia en todas sus ramas, puesto que tiene vinculacin ntima con la comprensin de la probabilidad de aspectos causales dados los efectos observados.

Sea \{A_1, A_3, ..., A_i, ..., A_n\} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | A_i). Entonces, la probabilidad P(A_i | B) viene dada por la expresin:

P(A_i|B) = \frac{P(B | A_i) P(A_i)}{P(B)}

donde:

P(A_i) son las probabilidades a priori.

P(B|A_i) es la probabilidad de B en la hiptesis A_i. P(A_i|B) son las probabilidades a posteriori.

Thomas Bayes (1763)

Contenido

1 Frmula de Bayes 2 Aplicaciones 3 Vase tambin 4 Enlaces externos 5 Referencias

Frmula de Bayes

Adems, unido a la definicin de Probabilidad condicionada, obtenemos la Frmula de Bayes, tambin conocida como la Regla de Bayes:

P(A_i|B) = \frac{P(B | A_i) P(A_i)}{\sum_{k=1}^n P(B | A_k) P(A_k)}

Aplicaciones

El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadstica tradicional slo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que los llamados estadsticos

bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de un experimento. La estadstica bayesiana est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en funcin de la evidencia emprica es lo que est abriendo nuevas formas de hacer conocimiento. Una aplicacin de esto son los clasificadores bayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, que se adaptan con el uso.

Como observacin, se tiene \sum_{i=1}^{n}P(A_i |B)=1 y su demostracin resulta trivial.

Variable aleatoria
Saltar a: navegacin, bsqueda

En probabilidad y estadstica, una variable aleatoria o variable estocstica es una variable estadstica cuyos valores se obtienen de mediciones en algn tipo de experimento aleatorio. Formalmente, una variable aleatoria es una funcin, que asigna eventos (p.e., los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc.) a nmeros reales (p.e., su suma). Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento an no realizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto (p.e., como resultado de medicin incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribucin de probabilidad se usa para describir la probabilidad de que se den los diferentes valores. Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores aleatorios como valores lgicos, funciones... El trmino elemento aleatorio se utiliza para englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el de proceso estocstico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o tiempo).

Tipos de variables aleatorias

Para comprender de una manera ms amplia y rigurosa los tipos de variables, es necesario conocer la definicin de conjunto discreto. Un conjunto es discreto si est formado por un nmero finito de elementos, o si sus elementos se pueden enumerar en secuencia de modo que haya un primer elemento, un segundo elemento, un tercer elemento, y as sucesivamente.5

Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto discreto. La variable del ejemplo anterior es discreta. Sus probabilidades se recogen en la funcin de cuanta (vanse las distribuciones de variable discreta). Variable aleatoria continua: una v.a. es continua si su recorrido no es un conjunto numerable. Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de nmeros reales. Por ejemplo, la variable que asigna la estatura a una persona extrada de una determinada poblacin es una variable continua ya que, tericamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible.6 (vanse las distribuciones de variable continua) Variable aleatoria independiente: Supongamos que "X" e "Y" son variables aleatorias discretas. Si los eventos X = x / Y = y son variables aleatorias independientes. En tal caso: P(X = x, Y = y) = P( X = x) P ( Y = y). De manera equivalente: f(x,y) = f1(x).f2(y). Inversamente, si para todo "x" e "y" la funcin de probabilidad conjunta f(x,y) no puede expresarse slo como el producto de una funcin de "x" por una funcin de "y" (denominadas funciones de probabilidad marginal de "X" e "Y" ), entonces "X" e "Y" son dependientes. Si "X" e "Y" son variables aleatorias continuas, decimos que son variables aleatorias independientes si los eventos "X x", e "Y y" y son eventos independientes para todo "x" e "y" . De manera equivalente: F(x,y) = F1(x).F2(y), donde F1(x) y F2(y) son las funciones de distribucin (marginal) de "X" e "Y" respectivamente. Inversamente, "X" e "Y" son variables aleatorias dependientes si para todo "x" e "y" su funcin de distribucin conjunta F(x,y) no puede expresarse como el producto de las funciones de distribucin marginales de "X" e "Y". Para variables aleatorias independientes continuas, tambin es cierto que la funcin de densidad conjunta f(x,y)es el producto de las funciones densidad de probabilidad marginales de "X", f1(x), y de "Y", f2(y).

Funcion De Distribucion Acumulativa FUNCION DE DISTRIBUCION ACUMULATIVA. En la teora de probabilidades y estadsticas , la funcin de distribucin acumulativa (FDA), o simplemente funcin de distribucin, describe la probabilidad de que un valor real variable aleatoria X con una determinada distribucin de probabilidad se encontrar en un valor menor o igual que x. Intuitively, it is the " area so far " function of the probability distribution. Intuitivamente, es el rea "hasta ahora" en funcin de la distribucin de probabilidad. Cumulative distribution functions are also used to specify the distribution of multivariate random variables .

funciones de distribucin acumulativa tambin se utilizan para especificar la distribucin de mltiples variables variables aleatorias .

Media

La media es el promedio de todos los nmeros. Es fcil de calcular: se suman todos los nmeros, luego se divide el resultado por cuantos nmeros hay. Ejemplo: cul es la media de 2, 7 y 9? Suma los nmeros: 2 + 7 + 9 = 18 Divide por la cantidad de nmeros (sumamos 3 nmeros): 18 3 = 6 Entonces la Media es 6.

Moda

La moda es el valor de la variable que ms veces se repite, y en consecuencia, en una distribucin de frecuencias, es el valor de la variable que viene afectada por la mxima frecuencia de la distribucin. En distribuciones no agrupadas en intervalos se observa la columna de las frecuencias absolutas, y el valor de la distribuci6n al que corresponde la mayor frecuencia ser la moda. A veces aparecen distribuciones de variables con ms de una moda (bimodales, trimodales, etc), e incluso una distribucin de frecuencias que presente una moda absoluta y una relativa.

En el caso de estar la variable agrupada en intervalos de distinta amplitud, se define el intervalo modal, y se denota por ( Li-1 , Li ), como aquel que posee mayor densidad de frecuencia ( hi ); la densidad de frecuencia se define como :

Una vez identificado el intervalo modal procederemos al clculo de la moda, a travs de la frmula:

En el caso de tener todos los intervalos la misma amplitud, el intervalo modal ser el que posea una mayor frecuencia absoluta ( ni ) y una vez identificado este, empleando la frmula:

Ventajas e inconvenientes: Su clculo es sencillo. Es de fcil interpretacin. Es la nica medida de posicin central que puede obtenerse en las variables de tipo cualitativo. En su determinacin no intervienen todos lo valores de la distribucin.

Вам также может понравиться