Академический Документы
Профессиональный Документы
Культура Документы
Los cuartiles son los tres valores que dividen al conjunto de datos
ordenados en cuatro partes porcentualmente iguales. Aparecen citados
en la literatura cientfica por primera vez en 1879 por D. McAlister.1
La diferencia entre el tercer cuartil y el primero se conoce como rango
intercuartlico. Se representa grficamente como la anchura de las cajas
en los llamados diagramas de cajas. Dada una serie de valores X1, X2,
X3...Xn ordenados en forma creciente, podemos pensar que su clculo
podra efectuarse:
Primer cuartil (Q1) como la mediana de la primera mitad de valores;
Segundo cuartil (Q2) como la propia mediana de la serie;
Tercer cuartil (Q3) como la mediana de la segunda mitad de valores.
Pero esto conduce a distintos mtodos de clculo de los cuartiles
primero (as como tercero) segn la propia mediana se incluya o excluya
en la serie de la primera (respecto de la segunda) mitad de valores.
Clculo con datos no agrupados
No hay uniformidad sobre su clculo. En la bibliografa se encuentran
hasta cinco mtodos que dan resultados diferentes.2 Uno de los
mtodos es el siguiente: dados n datos ordenados,
Para el primer cuartil:
\frac{n+1}{4}
Para el tercer cuartil:
\frac {3(n+1)}{4}.
Percentiles.
El percentil es una medida de tendencia central usada en estadstica que
indica, una vez ordenados los datos de menor a mayor, el valor de la
variable por debajo del cual se encuentra un porcentaje dado de
observaciones en un grupo de observaciones. Por ejemplo, el percentil
20 es el valor debajo del cual se encuentran el 20 por ciento de las
observaciones. Se representan con la letra P. Para el percentil i-simo,
donde la i toma valores del 1 al 99. El i % de la muestra son valores
menores que l y el 100-i % restante son mayores.
Sesgo estadstico
En estadstica se llama sesgo de un estimador a la diferencia entre su
esperanza matemtica y el valor numrico del parmetro que estima. Un
estimador cuyo sesgo es nulo se llama insesgado o centrado.
En notacin matemtica, dada una muestra X_1, \dots, X_n\, iid X y un
estimador T(x_1, \dots, x_n)\, del parmetro poblacional \theta\,, el sesgo
es:
E(T) - \theta\,
El no tener sesgo es una propiedad deseable de los estimadores. Una
propiedad relacionada con sta es la de la consistencia: un estimador
puede tener un sesgo pero el tamao de ste converge a cero conforme
crece el tamao muestral.
Sesgo estadstico
En estadstica se llama sesgo de un estimador a la diferencia entre su
esperanza matemtica y el valor numrico del parmetro que estima. Un
estimador cuyo sesgo es nulo se llama insesgado o centrado.
En notacin matemtica, dada una muestra X_1, \dots, X_n\, iid X y un
estimador T(x_1, \dots, x_n)\, del parmetro poblacional \theta\,, el sesgo
es:
E(T) - \theta\,
El no tener sesgo es una propiedad deseable de los estimadores. Una
propiedad relacionada con sta es la de la consistencia: un estimador
Curtosis
Diagrama de rbol.
Tcnicas de Conteo.
El principio fundamental en el proceso de contar ofrece un mtodo
general para contar el nmero de posibles arreglos de objetos dentro de
Interseccin A B
Complementario: |A
Definicin de probabilidad
Clsica: la probabilidad de un suceso es igual al cociente entre el
nmero de casos favorables de que ocurra ese suceso y el nmero de
casos posibles en el supuesto de que todos los casos tengan la misma
probabilidad de ocurrir.
Nmero de casos favorables
Probabilidad de suceso = Nmero de casos posibles
Ej: P (A) = 1/6
Problema: requiere que los sucesos sean equiprobable (no siempre
ocurre) y, en muchos casos, puede resultar difcil la clasificacin de los
sucesos como favorables y posibles.
Estadstica: lmite al que tienen la frecuencia relativa de aparicin de
un suceso A cuando el nmero de ensayos, n, tiende al infinito
Problema: muchas veces no es posible repetir un experimento un gran
nmero de veces y, si lo es, no es prctico
Axiomtica: dado un espacio muestral E, llamamos probabilidad de un
suceso A, definido en el espacio muestral E y que designamos por P (A),
a un nmero real que asignamos al suceso A, tal que cumple las
siguientes propiedades:
0 < P(A) < 1
P(E) = 1
P(A) =1 (A)
Teorema de la suma: la probabilidad de que ocurra el suceso A o el
suceso B es igual a la probabilidad de que ocurra A ms la probabilidad
de que ocurran ambos:
P (A U B) = P (A) + P(B) P (A B)
Cuando los sucesos A y B son incompatibles:
P (A U B) = P (A) + P(B).
Regla de la Multiplicacin.
Definicin Regla Adicin
Publicado: marzo 4, 2011 en Definicin Regla de Adicin.
Regla la adicin:
Establece que si dos eventos A y B son mutuamente excluyentes la
probabilidad de que uno u otro evento ocurra es igual a la suma de sus
probabilidades. De lo anterior se puede deducir que la probabilidad de
que ocurra A ms la probabilidad de que no ocurra A debe sumar 1. A
esto se le llama la regla del complemento. Esta regla establece que para
determinar la probabilidad de que ocurra un evento se puede restar de 1
la probabilidad de que no ocurra.
La Regla de la Adicin expresa que: la probabilidad de ocurrencia de al
menos dos sucesos A y B es igual a: P(A o B) = P(A) U P(B) = P(A) + P(B)
si A y B son mutuamente excluyente P(A o B) = P(A) + P(B) P(A y B) si
A y B son no excluyentes Siendo: P(A) = probabilidad de ocurrencia del
evento A P(B) = probabilidad de ocurrencia del evento B P(A y B) =
probabilidad de ocurrencia simultanea de los eventos A y B .
Ejemplos Regla de la Multiplicacin:
Publicado: marzo 4, 2011 en Definicin Regla de Adicin, Ejemplos Regla
Multiplicacin
0
Ejemplo 1:
Probabilidad condicional
Probabilidad condicional es la probabilidad de que ocurra un evento A,
sabiendo que tambin sucede otro evento B. La probabilidad condicional
se escribe P(A|B), y se lee la probabilidad de A dado B.
No tiene por qu haber una relacin causal o temporal entre A y B. A
puede preceder en el tiempo a B, sucederlo o pueden ocurrir
simultneamente. A puede causar B, viceversa o pueden no tener
relacin causal. Las relaciones causales o temporales son nociones que
no pertenecen al mbito de la probabilidad. Pueden desempear un
papel o no dependiendo de la interpretacin que se le d a los eventos.
Un ejemplo clsico es el lanzamiento de una moneda para luego
lanzar un dado. Cul es la probabilidad de obtener una cara (moneda) y
luego un 6 (dado)? Pues eso se escribira como P (Cara |
Artculo principal: Independencia:
Dos sucesos aleatorios A y B son independientes si y slo si:
P(A \cap B) \ = \ P(A) P(B).
O sea que si A y B son independientes, su probabilidad conjunta, P(A
\cap B) P(A, B).
Puede ser expresada como el
individuales. Equivalentemente:
producto
de
las
probabilidades
P(A|B) \ = \ P(A)
P(B|A) \ = \ P(B).
En otras palabras, si A y B son independientes, la probabilidad
condicional de A dado B es simplemente la probabilidad de A y
viceversa.
Exclusividad mutua
Los conjuntos A y B no intersecan. Son mutuamente excluyentes.
\cap
positivo)}
El Teorema de Bayes-
\times
P(positivo|enfermo)}
Introduccin.
La presente investigacin se refiere al tema de la Estadstica, que se puede definir
es la ciencia cuyo objetivo es reunir una informacin para facilitar al hombre el
estudio de datos masivos de individuos, grupos, series de hechos, etc. y deducir
de ello gracias al anlisis de estos datos unos significados precisos o unas
previsiones para el futuro.
OBJETIVOS:
Conclusin.
Trabajo de investigacin.
Temas:
1) Cuartiles y Percentiles.
2) Sesgo y Curtosis.
3) Diagrama de rbol y Tcnicas de Conteo.
4) Nociones bsicas de probabilidad.
5) Espacios mustrales Finitos.
6) Leyes de probabilidad.
7) Regla de la adicin.
8) Probabilidad condicional.
9) Independencia y regla de la multiplicacin.
10)
Teorema de Bayes.
Nombres:
Esly Susana Arriola lutin
Anica sucely Lpez Ambrosio.
Debora Cifuentes Garca.
Dusty Ommar Veliz Monroy.
Jaime Ral Velsquez Lpez.
Servando Jos de Len Reyes
4to Semestre
Ambiental.
NO. Carnet.
13-025-0029.
11-026-0135.
14-025-0059.
14-025-0131.
14-025-0026.
14-083-0047
de
Ingeniera