Вы находитесь на странице: 1из 41

RESUMEN DE LOS CAPITULOS DEL LIBRO NAKED

STATISTICS

CAPÍTULO I

¿Cuál es el punto?

A pesar de que las matemáticas, y la estadística, sea considerado un tema complejo para los
estudiantes, es una herramienta que empleamos diariamente para comprender la realidad. La
estadística proporciona información significativa de forma fácil, accesible, permitiendo hacer
comparaciones entre varios datos. Las estadísticas están presentes en el análisis de un juego de
los Chicago Bears, con el índice de pasador, así como en el análisis de la desigualdad de un
país, con el Coeficiente de Gini, que son una herramienta para concentrar información compleja
en un solo número, comparable. Se pueden comparar los coeficientes de Gini de varios países
en diferentes períodos para evaluar como estos se han desarrollado, si han aumentado su
economía y mejorado la distribución de riquezas o si por el contrario ha aumentado la
desigualdad. Empleamos la estadística descriptiva para procesar datos, para resumir
información, siendo fácil de entender y comparar, como el GPA de los estudiantes.

Una de las funciones de la estadística es es utilizar los datos que tenemos para hacer conjeturas
informadas sobre preguntas más amplias para las cuales no tenemos información completa. Una
práctica estadística importante es el muestreo, que es el proceso de recopilar datos para un área
pequeña, pudiéndose aplicar la encuesta para la recolección de los datos, permitiendo la
inferencia de un resultado solo con un grupo (representativo) de la población

La evaluación de riesgos y otros eventos relacionados con la probabilidad se presentan en


fenómenos de la vida cotidiana. Por ejemplo, cuando una empresa debe evaluar riesgos
asociados con una variedad de resultados adversos e incluso toda la industria del juego está
basada en juegos de azar, lo que resulta que cualquier tirada particular de dados o turnos de
cartas es incierta. Por otro lado, la probabilidad puede ser utiliza para atrapar trampas en
determinadas situaciones, desde ese contexto es de suma relevancia y utilidad las
probabilidades. Cabe destacar, en que en las probabilidades también existen las limitaciones.
Pues un gran grupo de examinados pueden presentar las mismas respuestas erróneas por
coincidencia. La estadística se suele comparar con el trabajo de un detective debido a que, los
datos arrojan las pistas y patrones que, en última instancia pueden conducir a conclusiones
significativas. Es lo mismo lo que sucede con las estadísticas ya que, los datos presentan pistas
no organizadas (la escena del crimen). El análisis estadístico es el trabajo del detective que hace
que los datos en bruto lleguen a una determinada conclusión.
Por otro parte cabe mencionar, acerca de la importancia del análisis de regresión el cual es una
herramienta que permite a los investigadores aislar una relación entre dos variables. Además,
debido a la complejidad de los problemas sociales que se presentan casi todos los problemas
sociales han sido informados por el análisis sistemático de grandes conjuntos de datos. Sin
embargo, el análisis de regresión al igual que otros métodos estadísticos presenta limitaciones.
Pues se puede aislar una asociación fuerte entre dos variables mediante el análisis estadístico,
pero no necesariamente se puede explicar por qué existe esa relación, no se puede saber con
certeza que la relación es casual. La importancia de la utilización de las estadísticas radica en
las siguientes cuestiones. Primero, nos permite resumir enormes cantidades datos, así como
también ayuda a tomar las mejores decisiones. E incluso se encuentra relacionado con el campo
de la política mediante la evaluación acerca de la efectividad de los programas.
CAPÍTULO 2

Capítulo 2: ¿Quién fue el mejor jugador de béisbol de todos los tiempos?

¿Qué está sucediendo con la salud económica de la clase media de Estados Unidos?

Esta pregunta es importante. Tiende a estar en el centro de las campañas presidenciales y otros
movimientos sociales. El bienestar económico de la clase media es un indicador crucial de la
salud económica general de la nación.

¿Quién fue el mejor jugador de béisbol de todos los tiempos?

Esta pregunta es trivial, pero los entusiastas del béisbol pueden discutir. Lo que las dos
preguntas tienen en común es que pueden usarse para ilustrar las estadísticas descriptivas, sus
fortalezas y limitaciones, que son los números y cálculos que utilizamos para resumir los datos
sin procesar. Si quiero demostrar que Derek Jeter es un gran jugador de béisbol, puedo describir
cada turno al bate en cada juego que haya jugado. Eso tomaría un tiempo para digerir, dado que
Jeter ha jugado diecisiete temporadas con los Yankees de Nueva York y se ha llevado a 9,868 al
bate. O simplemente puedo decir que al final de la temporada 2011, Derek Jeter tuvo un
promedio de bateo de .313. Esa es una estadística descriptiva, o una "estadística de resumen".

El promedio de bateo es una simplificación bruta de las diecisiete temporadas de Jeter. Es fácil
de entender. Los expertos en béisbol tienen una gran cantidad de estadísticas descriptivas más
valiosas que el promedio de bateo. (1) ¿Cuáles son las estadísticas más importantes para evaluar
el talento del béisbol? y (2) ¿Quién fue el mejor jugador de todos los tiempos?

Mientras tanto, volvamos a la salud económica de la clase media. Idealmente, nos gustaría
encontrar el equivalente económico de un promedio de bateo. Nos gustaría una medida simple
pero precisa de cómo el bienestar económico del trabajador estadounidense típico ha estado
cambiando en los últimos años. ¿Las personas que definimos como clase media son cada vez
más ricas, más pobres o simplemente se están ejecutando en su lugar? Una respuesta razonable,
sería calcular el cambio en el ingreso per cápita en los Estados Unidos en el transcurso de una
generación. Según esa medida, el ingreso promedio en los Estados Unidos aumentó de $ 7,787
en 1980 a $ 26,487 en 2010 (el último año para el cual el gobierno tiene datos)

Solo hay un problema. El cálculo rápido es técnicamente correcto y, sin embargo, totalmente
incorrecto en términos de la pregunta. Para empezar, las cifras anteriores no están ajustadas por
inflación. El mayor problema es que el ingreso promedio en Estados Unidos no es igual al
ingreso del estadounidense promedio.

El ingreso per cápita toma todo el ingreso ganado en el país y se divide por la cantidad de
personas, lo que no nos dice absolutamente nada sobre quién gana la cantidad de ese ingreso, en
1980 o en 2010. Sin embargo, el crecimiento explosivo en los ingresos del 1% superior puede
aumentar el ingreso per cápita sin poner más dinero en los bolsillos del otro 99%. El ingreso
promedio puede aumentar sin ayudar al estadounidense promedio.

Desde el béisbol hasta los ingresos, la tarea más básica cuando se trabaja con datos es resumir
información. Hay unos 330 millones de residentes en los Estados Unidos. Una hoja de cálculo
con el nombre y el historial de ingresos de cada estadounidense contendría toda la información
que podríamos desear sobre la salud económica del país; sin embargo, también sería tan difícil
de manejar como para decirnos nada. La ironía es que más datos a menudo pueden presentar
menos claridad. Las estadísticas descriptivas nos dan un resumen manejable y significativo del
fenómeno subyacente.

La media, o la media, parece tener algunos problemas al respecto, a saber, que es propenso a la
distorsión por "valores atípicos", que son observaciones que se encuentran más alejadas del
centro. Para entender mejor este concepto, imagine que diez tipos están sentados en taburetes en
un establecimiento para beber de clase media en Seattle; cada uno de estos muchachos gana $
35,000 al año, lo que hace que el ingreso anual promedio para el grupo sea de $ 35,000. Bill
Gates entra al bar. Supongamos que Bill Gates tiene un ingreso anual de $ 1 mil millones.
Cuando Bill se sienta en el undécimo taburete de la barra, el ingreso anual promedio de los
clientes de la barra aumenta a alrededor de $ 91 millones. Ninguno de los diez bebedores
originales es más rico. Si tuviera que describir a los usuarios de este bar como que tienen un
ingreso anual promedio de $ 91 millones, la declaración sería tanto estadísticamente correcta
como gravemente engañosa. Esto no es un bar donde se juntan multimillonarios; es un bar
donde un grupo de hombres con ingresos relativamente bajos están sentados al lado de Bill
Gates. La sensibilidad de la media a los valores atípicos es la razón por la cual no debemos
evaluar la salud económica de la clase media estadounidense al observar el ingreso per cápita.

Por esta razón, tenemos otra estadística que también señala el "medio" de una distribución,
aunque de manera diferente: la mediana. La mediana es el punto que divide una distribución por
la mitad, lo que significa que la mitad de las observaciones se encuentran por encima de la
mediana y la mitad por debajo. (Si hay un número par de observaciones, la mediana es el punto
medio entre las dos observaciones del medio). Si regresamos al ejemplo del taburete de la barra,
el ingreso anual promedio para los diez muchachos que originalmente estaban sentados en la
barra es de $ 35,000. Cuando Bill Gates entra y se posa en un taburete, el ingreso anual
promedio de los once es todavía de $ 35,000. Si imaginas alinear a los clientes del bar en
taburetes en orden ascendente de sus ingresos, el ingreso del hombre sentado en el sexto
taburete representa el ingreso medio para el grupo. Si Warren Buffett entra y se sienta en el
duodécimo taburete junto a Bill Gates, la mediana todavía no cambia. *

Para distribuciones sin valores atípicos graves, la mediana y la media serán similares

Ni la mediana ni la media son difíciles de calcular; la clave es determinar qué medida del
"medio" es más precisa en una situación particular. Mientras tanto, la mediana tiene algunos
parientes útiles. Como ya hemos discutido, la mediana divide una distribución a la mitad. La
distribución se puede dividir en cuartos, o cuartiles. El primer cuartil consiste en el 25 por
ciento inferior de las observaciones; el segundo cuartil consiste en el siguiente 25 por ciento de
las observaciones; y así. O la distribución se puede dividir en deciles, cada uno con el 10 por
ciento de las observaciones. (Si su ingreso se encuentra en el decil más alto de la distribución de
ingresos en los Estados Unidos, estaría ganando más del 90 por ciento de sus compañeros de
trabajo). Podemos ir aún más lejos y dividir la distribución en centésimas, o percentiles. Cada
percentil representa el 1 por ciento de la distribución, de modo que el 1er percentil representa el
1 por ciento inferior de la distribución y el percentil 99 representa el 1 por ciento superior de la
distribución.

Los cuartiles, percentiles, deciles, quintiles, etc, describen dónde se encuentra una observación
particular en comparación con todos los demás. Si le digo que su hijo obtuvo un puntaje en el
percentil 3 en una prueba de comprensión de lectura, debe saber de inmediato que le fue mal.
No necesita saber nada acerca de la prueba en sí pues el puntaje percentil proporciona una
clasificación del puntaje de su hijo en relación con la de todos los demás examinados.
Terminología útil: Una puntuación, número o figura "absoluta" tiene un significado intrínseco.
Por ejemplo, si tiro 83 para dieciocho hoyos de golf, esa es una cifra absoluta. Las figuras
absolutas generalmente se pueden interpretar sin ningún contexto o información adicional. Si,
por otro lado, digo que estoy noveno en el torneo de golf, esa es una estadística relativa. Un
valor o figura "relativa" tiene sentido solo en comparación con otra cosa, o en algún contexto
más amplio. La mayoría de las pruebas estandarizadas dan resultados con un significado como
estadística relativa. El percentil (la puntuación relativa) es más significativo que el número de
respuestas correctas (la puntuación absoluta).

Desviación estándar: medida de cuán dispersos están los datos de su media. Supongamos que
recopilé datos sobre el peso de 250 personas en un avión y también recopilé los pesos de una
muestra de 250 calificativos para una maraton y se supone que el peso medio para ambos
grupos es aproximadamente el mismo, de 155 libras. Cuando se trata de calcular el peso
promedio en el vuelo, el peso de alguien de 320 libras es probablemente compensado por el de
los bebés y niños. Hasta ahora, el peso de los pasajeros de las líneas aéreas y los maratonistas se
parecen, pero no son idénticos. Aunque la media sea parecida, los pasajeros de la aerolínea
tienen mucha más dispersión alrededor de ese punto medio, lo que significa que sus pesos se
extienden más lejos del punto medio. Los corredores de maratón parecen que todos pesan lo
mismo, mientras que los pasajeros de la aerolínea tienen algunas personas diminutas y algunas
personas extrañamente grandes., por eso, estos pesos están "más dispersos. La desviación
estándar es la estadística descriptiva que nos permite asignar un solo número a esta dispersión
alrededor de la media.

¿Por qué es importante medir la dispersión? Supongamos que vas al médico y su médico extrae
sangre, y le dicen que su recuento de HCb2 es 134. Algo que le preocupa, porque recuento
medio de HCb2 para una persona de tu edad es 122 (y la mediana es aproximadamente la
misma). Sin embargo, el asistente del médico le informa que su recuento está dentro del rango
normal. ¿cómo podría ser eso? "La desviación estándar para el recuento de HCb2 es 18", le
responden. Esto significa que existe una variación natural en el recuento de HCb2. Si bien el
recuento medio para el químico puede 122. Entonces, ¿cómo podemos averiguar cuando se
habla de un exceso en ese contexto? La desviación estándar refleja la precisión con que las
observaciones se agrupan alrededor de la media. Para muchas distribuciones típicas de datos,
una alta proporción de las observaciones se encuentran dentro de una desviación estándar de la
media (lo que significa que están en el rango de una desviación estándar por debajo de la media
a una desviación estándar por encima de la media).

La distribución normal: Los datos que se distribuyen normalmente son simétricos alrededor de
su media en una forma de campana que le resultará familiar. Se puede saber por definición
exactamente qué proporción de las observaciones en una distribución normal se encuentran
dentro de una desviación estándar de la media (68.2 por ciento), dentro de dos desviaciones
estándar de la media (95.4 por ciento), dentro de tres desviaciones estándar (99.7 por ciento), y
así sucesivamente.

Las estadísticas descriptivas se utilizan a menudo para comparar dos cifras o cantidades. La
forma más fácil de dar sentido a estas comparaciones relativas es mediante el uso de porcentajes
porque esto nos da cierto sentido de escala.

Una vez invertí algo de dinero en una empresa que inició mi compañero. Pasaron años sin
información sobre el destino de mi inversión. Finalmente, recibí una carta informándome que
las ganancias de la empresa eran un 46% más alta que el año anterior. No había información
sobre el tamaño de esas ganancias en términos absolutos, lo que significa que no sabía cómo se
estaba desempeñando mi inversión. Si el año pasado la empresa ganó 27 centavos. Este año, la
empresa ganó 39 centavos. Las ganancias de la compañía aumentaron de 27 centavos a 39
centavos, lo que es un aumento del 46%.

Luego mi compañero de cuarto, vendió la compañía por cientos de millones de dólares,


ganándome un retorno del 100 por ciento de mi inversión.

El cambio porcentual no debe confundirse con un cambio en puntos porcentuales. Las tasas se
expresan en porcentajes. Los cambios en las tasas se pueden describir de maneras muy
diferentes. El mejor ejemplo de esto fue un cambio reciente en el impuesto a la renta personal de
Illinois, que se incrementó del 3 por ciento al 5 por ciento. Hay dos formas de expresar este
cambio de impuestos. Los demócratas, señalaron que la tasa de impuestos estatales sobre la
renta se incrementó en 2 puntos porcentuales (de 3 a 5 por ciento). Los republicanos señalaron
que el impuesto estatal sobre la renta se había reducido en un 67%. [Esta es una prueba práctica
de la fórmula de algunos párrafos atrás: (5 - 3) / 3 = 2/3, que se redondea hasta el 67 por ciento.]

La descripción republicana transmite con mayor precisión el impacto del cambio de impuestos,
ya que lo que voy a tener que pagar al gobierno, la cantidad que me importa, como opuesto a la
forma en que se calcula, realmente ha aumentado un 67%

Muchos fenómenos desafían la descripción perfecta con una sola estadística. Supongamos que
el mariscal de campo Aaron Rodgers lanza para 365 yardas pero no touchdowns. Mientras tanto,
Peyton Manning lanza para apenas 127 yardas pero tres touchdowns. Manning generó más
puntos, pero Rodgers estableció touchdowns al hacer que su equipo avanzara por el campo y
mantuviera la ofensiva del otro equipo fuera del campo. ¿Quién jugó mejor? La calificación del
pasador es un ejemplo de un índice, que es una estadística descriptiva compuesta de otras
estadísticas descriptivas. Una vez que estas diferentes medidas de desempeño se consolidan en
un solo número, esa estadística se puede usar para hacer comparaciones, como clasificar a los
mariscales de campo en un día en particular, o incluso en toda una carrera.

Mejor jugador de baseball con estas variables:

1. Porcentaje en la base (OBP), a veces llamado promedio en la base (OBA): mide la proporción
del tiempo que un jugador llega a la base con éxito, incluidas las caminatas (que no se cuentan
en el promedio de bateo).

2. Porcentaje de slugging (SLG): mide el golpe de poder calculando las bases totales alcanzadas
por turno al bate.

3. At bats (AB): Cualquier persona puede tener estadísticas impresionantes para un juego o dos.
Una superestrella compila impresionantes "números" en miles de apariciones en el plato.
La ventaja de cualquier índice es que consolida mucha información compleja en un solo
número. En el concurso de Miss América, el ganador general es una combinación de cinco
competencias separadas.

Lamentablemente, la desventaja de cualquier índice es que consolida mucha información


compleja en un solo número. Malcolm Gladwell critica nuestra necesidad imperiosa de
clasificar las cosas. Gladwell ofrece el ejemplo de la clasificación de tres autos deportivos de
Car and Driver: el Porsche Cayman, El Chevrolet Corvette, y el Lotus Evora. Usando una
fórmula con 21 variables diferentes, Car and Driver clasificó como el Porsche número uno. Pero
Gladwell señala que el "estilo exterior" cuenta con solo el 4 por ciento de la puntuación total en
la fórmula Car and Driver, que parece ridículamente baja para un auto deportivo. Si se le da más
peso al estilo en la clasificación general (25 por ciento), entonces Lotus se destaca.

También señala que el precio de la etiqueta del automóvil cobra relativamente poco peso en la
fórmula Car and Driver. Si el valor se pesa más, el Chevy Corvette ocupa el primer lugar.

Los índices varían desde herramientas útiles pero imperfectas hasta charadas completas. Otro
ejemplo es el Índice de Desarrollo Humano de las Naciones Unidas, se creó como una medida
del bienestar económico que es más amplio que el ingreso solo. El IDH utiliza el ingreso como
uno de sus componentes, pero también incluye medidas de esperanza de vida y logros
educativos. Estados Unidos ocupa el undécimo lugar en el mundo en términos de producción
económica per cápita pero el cuarto en el mundo en desarrollo humano.

¿Qué pasa con la salud económica de la clase media estadounidense? Para evaluar la salud
económica de la "clase media" de Estados Unidos, debemos examinar los cambios en el salario
medio en las últimas décadas.

Al evaluar la salud económica, podemos examinar los ingresos o salarios. Si los trabajadores
toman un segundo trabajo o trabajan más horas, sus ingresos pueden aumentar sin un cambio en
el salario. Sin embargo, si las personas tienen que trabajar más para ganar más, es difícil evaluar
el efecto general en su bienestar.

Gráfica de los salarios estadounidenses en las últimas tres décadas y el percentil 90 para ilustrar
los cambios en los salarios de los trabajadores de la clase media en comparación con este
período de tiempo con los trabajadores en la parte superior de la distribución:
No presentan una sola respuesta “correcta” con respecto a las fortunas económicas de la clase
media. Nos dicen que el trabajador típico estadounidense que gana el salario medio, ha estado
“funcionando” durante casi treinta años. Los trabajadores en el percentil 90 lo han hecho mucho
más.

Fórmula para varianza y desviación estándar.

La varianza y la desviación estándar son los mecanismos estadísticos más comunes para medir y
describir la dispersión de una distribución. La varianza (σ2) se calcula determinando a qué
distancia está las observaciones dentro de una distribución de la media. Sin embargo, el giro es
que la diferencia entre cada observación y la media es cuadrada; La suma de esos términos al
cuadrado se divide por el número de observaciones.

Debido a que la diferencia entre cada término y la media es cuadrada, la fórmula para calcular la
varianza pone un peso particular en las observaciones que se encuentran lejos de la media, o
valores atípicos, como lo ilustra la siguiente tabla de alturas de estudiantes.

El valor absoluto es la distancia entre dos figuras, independientemente de la dirección, de modo


que siempre sea positiva. En este caso, representa el número de pulgadas entre la altura del
individuo y la media.
La varianza rara vez se utiliza como estadística descriptiva por sí misma. Es más útil como un
paso hacia el cálculo de la desviación estándar de una distribución, que es una herramienta más
intuitiva como estadística descriptiva.

La desviación estándar para un conjunto de observaciones es la raíz cuadrada de la varianza.

CAPÍTULO 3

El manejo de las matemáticas son exactas pero el problema radica en la interpretación de las
personas. Ya que mediante una interpretación determinada se puede beneficiar o perjudicar un
determinado producto. También, es relevante anunciar la precisión al usar ciertos datos. Por
ejemplo, no es lo mismo decir 41.6 millas que 40 millas. En este caso, Mark Twain sustentaba
que existen tres tipos de mentiras: mentiras, mentiras malditas y estadísticas.

Por otro lado, el manejo estadístico depende de las herramientas que se utilicen para el análisis
de los datos. Por ejemplo, se puede utilizar la media y la mediana, que son medidas de tendencia
central. Pero la diferencia radica en que la media sí es afectada por los valores extremos
(grandes). Mientras que, la mediana no. Por ello para calcular los impuestos de una población es
más conveniente hacerla mediante la mediana, ya que, si dentro de la población hay una persona
adinerada, la cantidad de impuestos va a variar a toda la población.

Un ejemplo claro del manejo estadístico, son las compañías telefónicas AT&T y Verizon. En
este caso Verizon argumenta que es la mayor red, en cuanto a geografía, ya que está presente en
gran parte de los territorios de Estados Unidos. Mientras que, AT&T, anuncia ser la mejor red
porque puede llegar a todos los ciudadanos con una cobertura inigualable. Es decir, el manejo
estadístico depende mucho de la visión de la persona que interpreta los datos como también el
tipo de datos que se utiliza. Ejemplo, AT&T utilizó datos de nivel de cobertura y Verizon utilizó
datos geográficos.

Se debe tener claro los conceptos de media y mediana. Mientras que la media es un simple
promedio (la suma de todos los valores dividido para el número de observaciones), la mediana
es el punto que se encuentra en la mitad de la distribución. El estadista puede usar estas dos
medidas a su beneficio. La mediana no se deja influenciar mucho por los valores atípicos,
contrario de la media.
Lo importante es que el estadista pueda darse cuenta de cuándo usar la media y cuándo usar la
mediana. Por ejemplo, al momento de tratar con datos como reducción de impuestos, tal vez lo
más apropiado sería usar la mediana porque los valores atípicos no interesan mucho; pero si se
trata de cifras respecto de una medicina que aumenta la esperanza de vida en los pacientes, no se
puede desestimar los datos atípicos, por lo que se recomienda usar la media.

Hay un tema que no debe obviarse por más tedioso que suene, y es el de convertir los datos a
unidades comparables. El libro muestra el ejemplo de las libras, los euros, los dólares y otras
monedas. Por obvias razones no se puede comparar libras con euros, se debe convertir uno de
estos valores para que sean comparables. Un factor que puede influenciar en las estadísticas al
momento de comparar datos, es la inflación. El factor tiempo relacionado a la inflación es algo
de lo que se debe estar pendiente. Otro punto a hacer notar al momento de leer cifras es no creer
que porcentajes como 4%, por ser un número bajo represente cantidades bajas. Un porcentaje
pequeño puede representar enormes sumas de números.

La idea principal de este capítulo es hacer notar que la persona que maneja los números, puede
hacerlo a su conveniencia. Para demostrar esto se nos presenta el ejemplo de que puede darse
que un colegio quiere presumir sobre las altas calificaciones de sus alumnos, para esto
fácilmente puede hacer que los alumnos menos desempeñados no rindan ese examen y así,
quedarse con un promedio bastante alto. Incluso al momento de medir calidad en las
universidades, se le puede asignar más porcentaje – a juicio de los que realizan estos
indicadores – a aquellos datos que sentarán una definida tendencia, como por ejemplo
“reputación académica”.

Como se sita en este capítulo; “los datos no mienten”, pero la manera en que son medidos e
interpretados, sí pueden ser engañosos.
CAPITULO 4

Netflix insiste en que me va a gustar la película “Bhutto” y eso es posible ya que sus antiguas
recomendaciones han resultado excelentes, me han gustado. (La he agregado a mi cola)

¿Esta plataforma tiene alguna forma de saberlo exactamente? Ellos no han conversado con
personas que me conozcan para que sepan mis gustos ni nada por el estilo. Netflix ha dominado
las estadísticas, usando calificaciones de películas que yo he visto anteriormente para brindar
predicciones, sorprendente.

Todo se basa en la correlación. Netflix me recomienda películas muy parecidas a las que me han
gustado, también recomienda películas que han sido calificado con 5 estrellas por otras
personas, calificaciones parecidas a las mías. La correlación mide el grado en que dos
fenómenos están relacionados entre sí. Un ejemplo de ellos es entre las temperaturas de verano
y las ventas de helados. Cuando uno sube, también lo hace el otro. Una correlación es negativa
si un cambio positivo en una variable se asocia con un cambio negativo en la otra. como la
relación entre el ejercicio y el peso

Lo complicado de este tipo de asociaciones es que no todas las observaciones se ajustan al


patrón. A veces las personas cortas pesan más que las altas. A veces las personas que no hacen
ejercicio son más delgadas que las que hacen ejercicio todo el tiempo. Con un diagrama de
dispersión podríamos ver la altura y peso de una muestra.
Con un diagrama de dispersion seria dificil poder premeditar los gustos de las demas personas
en netflix. En cambio, el poder de la correlación como herramienta estadística es que podemos
encapsular una Asociación entre dos variables en una sola estadística descriptiva: el coeficiente
de correlación.

El coeficiente de correlación tiene dos características: Una correlación de 1, a menudo descrita


como correlación perfecta, significa que cada cambio en una variable está asociado con un
cambio equivalente en la otra variable en la misma dirección. Una correlación de –1, o
correlación negativa perfecta, significa que cada cambio en una variable está asociado con un
cambio equivalente en la otra variable en la dirección opuesta. Si la correlación es cero o cerca
de 0, las variables no tienen asociación. 2. No tiene unidades adjuntas. El coeficiente de
correlación hace una cosa aparentemente milagrosa: colapsa un desorden complejo de datos
medidos en diferentes unidades (como nuestros diagramas de altura y peso dispersos) en una
estadística única, elegante y descriptiva.

Como calcular el coeficiente de correlación en Excel.

1. calcula la media y la desviación estándar para ambas variables. Si seguimos con el


ejemplo de altura y peso, entonces conoceremos la altura media para las personas en la
muestra.
2. Convierte todos los datos para que cada observación esté representada por su distancia
(en desviaciones estándar) de la media. La desviación también saldrá con los datos.
3. La fórmula calcula la relación entre la altura y el peso en todos los individuos

Si la distancia de la media para una variable tiende a ser ampliamente consistente con la
distancia de la variable media para la otra variable (por ejemplo, las personas que están lejos de
la media para la altura en cualquier dirección tienden a también para estar lejos de la media en la
misma dirección para el peso), entonces esperaríamos una fuerte positivo en correlación.

Si la distancia de la media para una variable tiende a corresponder a una distancia similar a la
media para la segunda variable en la otra dirección (por ejemplo, personas que están muy por
encima de la media en términos del ejercicio tiende a estar muy por debajo de la media en
términos de peso), entonces esperaríamos una fuerte negativa correlación.

Si dos variables no tienden a desviarse de la media en ningún patrón significativo (por ejemplo,
el tamaño del zapato y ejercicio) entonces esperaríamos poca o ninguna correlación.

Estadística descriptiva imperfecta:

Un estudiante que obtiene calificaciones mediocres mientras toma un horario difícil de

Las clases de matemáticas y ciencias pueden tener más capacidad y potencial académico que un
estudiante al mismo tiempo.

En una escuela con mejores calificaciones en clases menos desafiantes. Obviamente hay un
potencial aún mayor.

Discrepancias entre escuelas. De acuerdo con el College Board, que produce y administra el
SAT (prueba de aptitudes) , la prueba se creó para "democratizar el acceso a la universidad para
todos los estudiantes". Bastante justo. El SAT ofrece una medida estandarizada de capacidad
que se puede comparar fácilmente entre todos los estudiantes que solicitan Universidad.

¿Pero es una buena medida de habilidad? Si queremos una métrica que se pueda comparar
fácilmente a través de estudiantes, también podríamos hacer que todos los estudiantes del último
año de la escuela secundaria corran el tablero de 100 yardas, que es más barato y más fácil que
administrar el SAT. El problema, por supuesto, es que el rendimiento en la carrera de 100
yardas es sin correlación con el rendimiento universitario. Es fácil obtener los datos;
simplemente no nos dicen nada significativo.

Entonces, ¿qué tan bien le va al SAT en este sentido? Lamentablemente para las futuras
generaciones de estudiantes de secundaria, El SAT hace un buen trabajo al predecir las
calificaciones universitarias de primer año. El colegio publica las correlaciones relevantes. En
una escala de 0 (sin correlación) a 1 (correlación perfecta), eso parece argumentar para
abandonar el SAT, ya que La prueba no parece funcionar mejor en la predicción del rendimiento
universitario que las calificaciones de la escuela secundaria Un punto crucial en esta discusión
general es que la correlación no implica causalidad; un positivo o la asociación negativa entre
dos variables no significa necesariamente que un cambio en una de las las variables están
provocando el cambio en el otro.

La explicación más lógica para tal correlación sería que los padres altamente educados pueden
permitirse una gran cantidad de televisores y tienden a tener niños que obtienen mejores
resultados que el promedio. Tanto las televisiones y los puntajes de las pruebas son
probablemente causados por una tercera variable, que es la educación de los padres. No se
puede probar la correlación entre los televisores en el hogar y los puntajes del SAT.

RESUMEN CAPÍTULO 5 Y 5 ½

Don’t Buy your extended warranty for your 99$ printer.

En este capítulo el autor nos introduce con una estrategia de campaña con una marca de cerveza
llamada Schlitz. La cual se introdujo para un super bowl en los años 80. Su campaña consistía
en enfrentar su cerveza con otras de la competencia, para enfrentarlas selecciono 100
consumidores de la marca rival. El mensaje era claro, incluso los consumidores que creen
preferir una marca, preferirán schlitz en una prueba a ciegas.

Sin embargo no es por una diferencia de sabor de schlitz y alguna de las cervezas que se
presentan en el libro.

Según el autor, esta campaña se puede calificar como el lanzamiento de una moneda, por ello
esto es un experimento binominal. En este experimento hay un número específico de eventos.
100 eventos en este caso, con dos posibles resultados: que prefiera schlitz o que prefiera la otra
marca, y la probabilidad de éxito que es cuando escoge schlitz.

También se asume que estos experimentos son independientes, es decir la decisión de un


consumidor no afecta la decisión del siguiente consumidor.
Con esta información en el libro se concluye que las chances de que los 100 consumidores
ciegos escojan la cerveza del competidor en vez de schlitz, son 1 en
1,267,650,600,228,229,401,496,703,205,376.

Con tal probabilidad podría haber dos posibles resultados tomando en cuenta que esto es como
lanzar una moneda y es que el 98 por ciento habría escogido schlitz y un 86 por ciento el resto.
Para concluir el anuncio arrojo que el 50% de los consumidores prefieren schiltz.

Con este ejemplo el autor nos introduce a las probabilidades las cuales no nos enseñan lo que va
a pasar, si no lo que puede pasar.

Con ello hay algunos eventos tienen probabilidades conocidas como el lanzar una moneda la
cual es del 50% de cara o cruz (½).

También son capaces de decirnos lo que es más probable que pase o no pase después de algún
hecho, como ejemplo nos pone las investigaciones hechas acerca del ADN que se encuentra en
una escena del crimen. Donde la probabilidad de encontrar una coincidencia entre dos muestras
es muy compleja e incluso vincular a la persona que pertenece ese código genético es mucho
más difícil.

También es valioso saber la probabilidad de eventos múltiples, para ello si los eventos son
independientes entre sí, solo se necesita multiplicar la probabilidad del evento A por el evento
B. por ejemplo la probabilidad de sacar cara en los lanzamientos de dos monedas. La respuesta
es ½ x ½= ¼.

Pero lo más crucial de esta operación radica en que solo es aplicable si los eventos son
independientes entre sí. El autor propone que si queremos saber la probabilidad del evento A o
el evento B asumiendo también que son independientes. Para esta operación solo se debe sumar
las probabilidades individuales, al contrario que la anterior que se multiplicaban, un ejemplo de
ello es la probabilidad de sacar 1, 2 y 3 en el lanzamiento de un dado: 1/6 + 1/6 + 1/6= 3/6 =1/2.
También es posible obtener el valor esperado que es uno de las herramientas que sirve para la
toma de decisiones, esto lleva un paso más allá a las estadísticas. Con el ejemplo es más claro.

Supongamos que estás invitado a jugar un juego en el que tiras un solo dado. La recompensa
para este juego es de $ 1 si sacas un 1; $ 2 si sacas un 2; $ 3 si sacas un 3; y así. ¿Cuál es el
valor esperado para una sola tirada del dado? Cada resultado posible tiene una probabilidad, por
lo que el valor esperado es:
1/6 ($ 1) + 1/6 ($ 2) +1/6 ($ 3) +1/6 ($ 4) +1/6 ($ 5) + 1/6 ($ 6) = 21/6, o $ 3.50.
Esto nos permite saber que el valor esperado es de 3.50 pero no es posible ganar un valor así
con una sola tirada. Sin embargo nos ayuda a saber si un evento particular es justo, dado su
precio y su posible resultado.

Con ello el autor nos dice que no deberíamos comprar una garantía para impresoras o para
autos. El tema principal discutido (que se da en el título del capítulo) es sobre la industria de
seguros; En particular, garantía en impresoras. Desde un punto de vista estadístico, Wheelan
afirma que es una "mala apuesta" comprar un seguro. Afirma que terminará pagando a la
compañía de seguros más de lo que recibe. En el mundo real puedo ver que esto es verdad. Uno
paga una cierta cantidad cada mes para mantener el seguro en su automóvil, para mí es entre $
250 y $ 350. Desde que conduzco (4 años) solo he tenido un accidente. El precio para arreglar
mi auto y el otro auto fue de aproximadamente $ 2000 en total. He pagado mucho más en
cobertura de seguro en los últimos 4 años, pero es la seguridad y la ley. Wheelan aplica este
concepto a la impresora barata. Usted pagará más en garantía que la impresora vale la pena. En
el caso de la impresora.

Asumiremos que acaba de elegir la nueva impresora láser perfecta en Best Buy o en algún otro
minorista. * Cuando llegue al mostrador de salida, el asistente de ventas le ofrecerá una serie de
opciones de garantía extendida. Por otros $ 25 o $ 50, Best Buy reparará o reemplazará la
impresora en caso de que se rompa en el próximo año o dos. Sobre la base de su comprensión
de la probabilidad, los seguros y la economía básica, debe poder suponer de inmediato lo
siguiente: (1) Best Buy es una empresa con fines de lucro que busca maximizar los beneficios.
(2) El asistente de ventas está ansioso por que usted compre la garantía extendida. (3) De los
números 1 y 2, podemos inferir que el costo de la garantía para usted es mayor que el costo
esperado de reparar o reparar la impresora para Best Buy. Si este no fuera el caso, Best Buy no
sería tan agresivo al tratar de vendérselo. (4) Si su impresora de $ 99 se rompe y usted tiene que
pagar de su bolsillo para repararlo o reemplazarlo, esto no cambiará significativamente su vida.
En promedio, pagará más por la garantía extendida que lo que pagaría por reparar la impresora.
CAPÍTULO 5 ½

El famoso problema de probabilidades de Monty Hall está basado en el programa Let’s Make a
Deal en 1963, sin embargo sigue todavía vigente en algunos mercados. El participante tiene 3
puertas. En la que había un premio en una de las puertas y chivos en las otras dos. El
participante debía elegir una de las 3 puertas y se llevaría lo que estuviese detrás. El participante
tenía 1 de 3 probabilidades de ganar. Cuando el concursante escogía una puerta, el anfitrión del
programa abría una de las puertas que el participante no había elegido, y en ella siempre
aparecía un chivo. Entonces el anfitrión le preguntaba al participante si deseaba cambiar su
elección. La pregunta es ¿debería cambiar de elección? La respuesta es sí. El participante tiene
1/3 de probabilidades de ganar si se mantiene con su elección inicial y 2/3 si cambia. La
repuesta yace en que, si el participante elige la puerta 1 y el carro está allí, entonces Monty
abriría la puerta 2 o 3 para mostrar el chivo. Si el participante elige la puerta 1 y el auto está en
la puerta 2, Monty abriría la 3. Si el participante elige la puerta 1 y el auto está en la 3, Monty
abriría la 2.

Existen 3 formas de probar la validez de este análisis.


En primer lugar, empíricamente. El autor pagó a sus hijos para participar en una construcción
del juego por un diario. Uno de sus hijos cambiaba siempre su elección inicial y el otro nunca
cambiaba. El que cambió ganó 72 veces, mientras que el que no lo hacía ganó 33.

La segunda razón es más intuitiva y fue explicada en el párrafo anterior. Si en primera instancia
se eligió la puerta 1 y el carro está en la 2, Monty abrirá la 3 y viceversa. Por tanto, la
probabilidad de gana aumenta de 1/3 a 2/3.

La tercera razón es aún más intuitiva. Si se cambia el juego y se elige entre 100 puertas donde
solo hay 1 premio, y luego de la elección inicial Monty decide abrir 98 puertas donde solo hay
chivos, entonces quedarán 99% de posibilidad de que la puerta que elegiste no tenga el premio y
la puerta restante si la tenga, por tanto, en este tipo de juego de probabilidades siempre se debe
cambiar de elección en segunda instancia.

CAPÍTULO 6

PROBLEMAS CON LA PROBABILIDAD

Cómo los geeks1 de matemáticas casi destruyeron el sistema financiero global

Las estadísticas no pueden ser más inteligentes que las personas que las usan. Y en algunos
casos, pueden hacer que las personas inteligentes hagan cosas tontas. Uno de los usos más
irresponsables que se ha podido evidenciar con el uso de las estadísticas ha sido el caso que
involucró el mecanismo para medir el riesgo en Wall Street antes de la crisis financiera de 2008.
En ese tiempo, las empresas de la industria financiera utilizaron un barómetro de riesgo común,
el modelo de Valor en riesgo, o VaR.

En teoría, el VaR es un método para cuantificar el riesgo. En términos formales, mide


la máxima pérdida esperada en un intervalo de tiempo determinado, bajo condiciones
normales del mercado y ante un nivel de confianza dado.

1
Término que se utiliza para referirse a la persona fascinada por la tecnología y la informática.
Este modelo asume que hay un rango de posibles resultados para cada una de las inversiones
que se dan. Por ejemplo, si una empresa es propietaria de acciones de General Electric, el valor
de esas acciones pueden subir o bajar. Cuando el VaR se calcula para un período corto de
tiempo, digamos, una semana, el resultado más probable es que las acciones tendrán
aproximadamente el mismo valor al final de esa semana. Existe una menor probabilidad de que
las acciones suban o bajen en un 10 %. Y una posibilidad aún menor de que suban o bajen en un
25%, y así sucesivamente.

Sobre la base de los datos anteriores de los movimientos del mercado, los expertos cuantitativos
de la empresa pueden asignar una cifra en dólares, digamos $13 millones, que representa el
valor máximo que puede perder durante ese período, con un 99% de probabilidad. En otras
palabras, significa que esa empresa el 99 de cada 100 veces no perderá más de 13 millones de
dólares en una posición comercial similar; no obstante 1 vez de cada 100, si lo podría hacer.

Recuerda esa última parte, porque pronto será importante.

Antes de la crisis financiera de 2008, las empresas confiaban en el modelo VaR para cuantificar
su riesgo global. Si un solo operador tenía 923 posiciones abiertas diferentes (inversiones que
podrían subir o bajar de valor), cada una de esas inversiones podría ser evaluada como se
describió anteriormente para las acciones de General Electric; de allí se podía calcular el riesgo
total existente. La fórmula incluso tuvo en cuenta las correlaciones entre las diferentes
posiciones. Por ejemplo, si dos inversiones hubieran esperado rendimientos que se
correlacionaron negativamente, una pérdida en uno de ellos probablemente habría sido
compensada por una ganancia del otro, haciendo que las dos inversiones juntas sean menos
arriesgadas que cualquiera de las dos por separado.

No obstante, la mecánica es complicada, ya que las empresas tienen una gama vertiginosa de
inversiones en diferentes monedas, con diferentes montos de apalancamiento (la cantidad de
dinero que se toma prestada para hacer la inversión), negociación en mercados con diferentes
grados de liquidez, y así sucesivamente. A pesar de todo eso, los gerentes de esa empresa
aparentemente tenían una medida precisa para calcular la magnitud del riesgo que había. Como
ha explicado el ex escritor de negocios del New York Times Joe Nocera, "el gran atractivo del
VaR era que no era cuántico, ya que expresaba el riesgo en forma de un solo número, es decir,
una cifra en dólares."

En J. P. Morgan, donde se desarrolló este modelo (VaR) fue conocido como el "informe de las
4:15" porque siempre estaba sobre los escritorios de los altos ejecutivos todas las tardes a las
4:15, justo después de que los mercados financieros americanos cerraran por el día.
Sin embargo, el VaR fue llamado como "una catástrofe" y "un fraude" porque fue el causante de
la grave crisis financiera. La crítica principal del VaR ha sido que los riesgos asociados con los
mercados financieros no son tan predecibles. Y es por eso que la falsa precisión en este modelo
creó una falsa sensación de seguridad.

Hubo dos grandes problemas con los perfiles de riesgo de los modelos VaR. En primer lugar,
las probabilidades subyacentes sobre las que se construyeron los modelos se basaron en el
pasado. No hay ninguna justificación para suponer que los movimientos del mercado entre 1980
y 2005 fueran el mejor pronóstico de los movimientos del mercado después de 2005, es más, los
precios de las viviendas nunca antes habían caído tanto y tan rápido como a partir de 2007.

El ex presidente de la Reserva Federal, Alan Greenspan, explicó las causas de este hecho. Y dijo
que "todo el edificio intelectual se derrumbó porque los datos en los modelos de gestión de
riesgos solo cubrieron las dos últimas décadas que fueron además, de bonanza económica. En
cambio, si los modelos hubieran estado ajustados a los períodos históricos de estrés, los
requisitos de capital habrían sido mucho más altos y el mundo financiero habría podido salir a
flote.

En segundo lugar, incluso si los datos subyacentes hubieran podido predecir con certeza el
riesgo futuro, la garantía del 99% ofrecido por el modelo VaR era inútil, porque ese 1%
resultaba peligroso.

Nicholas Taleb, autor de The Black Swan, mencionó que los mayores riesgos nunca son los que
se pueden ver y medir, sino los que no se pueden ver y por lo tanto nunca se puede medir. Los
que parecen estar tan lejos de la frontera de probabilidad normal que no se los toman en cuenta,
pero que suceden y más de lo que uno se imagina.

Con este modelo se cometió tres fallas graves. Primero, confundieron precisión con exactitud.
Segundo, las estimaciones de las probabilidades subyacentes fueron erróneas y en tercer lugar,
las empresas descuidaron su "cola de riesgo” (que las cosas improbables pueden suceder).

La arrogancia de los bancos comerciales y de Wall Street contribuyeron al desarrollo de la más


severa contracción financiera mundial desde la Gran Depresión. La crisis que comenzó en 2008
destruyó billones de dólares en riqueza en los Estados Unidos, impulsó el desempleo en más del
10%, crearon oleadas de ejecuciones hipotecarias y fracasos de negocios, y cargaron a los
gobiernos de todo el mundo con enormes deudas mientras luchaban por contener el daño
económico. Estos fueron resultados irónicos dado que las herramientas sofisticadas como el
VaR fueron diseñadas para mitigar este tipo de riesgos. Así se puede ver como la probabilidad
puede ofrecer un conjunto de herramientas poderosas y útiles para entender el mundo y que
también puede causar estragos en él. No obstante, hay que tener en claro que la probabilidad no
comete errores, pero las personas que la usan sí.

A continuación se explicaran algunos de los errores más comunes, malentendidos y dilemas


éticos relacionados con la probabilidad.

Asumiendo que los eventos son independientes cuando no lo son. La probabilidad de que
ocurran dos eventos independientes es el producto de sus probabilidades individuales. Por
ejemplo, asumamos que has sido ascendido a jefe de riesgo en una aerolínea. Tu asistente te
informa que la probabilidad de que un motor presente alguna falla por cualquier razón durante
un vuelo transatlántico es de 1/100.000. Dado el número de vuelos transatlánticos es grande, ese
valor no representa un riesgo ya que además, cada avión posee al menos dos motores. Las dos
fallas de los motores no son eventos independientes. Si un avión despega en medio de una
bandada de gansos, es probable que ambos motores fallen. Lo mismo se pudiera aplicar con
muchos otros factores que afectan el rendimiento de un motor, desde las condiciones
meteorológicas hasta un mantenimiento inadecuado. Por eso, si un motor falla, es probable de
que el segundo también lo haga.

Un ejemplo de la vida real fue el error que se produjo en el contexto del síndrome de muerte
súbita del lactante (SMSL)2. Un fenómeno en el que un bebé perfectamente sano muere en su
cuna. Un misterio médico que atrajo la atención y creó sospecha. En algunos casos se pudo ver
que servía para encubrir la negligencia o el abuso de los padres. Un examen postmortem no
puede distinguir con exactitud las muertes naturales de las que no. Los fiscales y tribunales
británicos se convencieron de que una forma de separar esto de las muertes naturales sería
centrarse en las familias en las que se producen múltiples muertes súbitas.

El señor Roy Meadow, un prominente pediatra británico, fue testigo de ello y la revista británica
The Economist: lo reconoció como la “Ley de Meadow “que decía que una muerte infantil era
producto de una tragedia, dos eran sospechosas y tres eran asesinatos-. Defendió y explicó su
postura delante de los jurados diciendo que la posibilidad de que una familia pudiera tener dos
bebés que murieran repentinamente por causas naturales era casi imposible con 1 caso de 73
millones.

Explicó su cálculo, alegando que la incidencia de muerte súbita era rara y muy baja ya que se
podía presentar en solo 1 de cada 8,500 casos. Tener dos muertes súbitas en la misma familia
era (1/8,500)2 que era aproximadamente 1 en 73 millones. Los jurados se dieron cuenta de ello
y decidieron en base a esta información enviar a muchos padres a prisión. En algunos casos, los
bebés fueron separados de sus padres por haber tenido otros casos parecidos en sus familias.

2
Los británicos se refieren al SMSL como una "muerte súbita”.
No obstante, The Economist explicó cómo un malentendido de la independencia estadística hizo
que el testimonio de Meadow sea errado.

Hay un defecto obvio en este razonamiento, como ha señalado la Royal Statistical Society. El
cálculo de probabilidad funciona bien, siempre y cuando se tenga la certeza de que las muertes
súbitas son totalmente aleatorias y no están relacionadas con algún factor desconocido. Pero con
algo tan misterioso como la muerte súbita, es muy posible que exista algún tipo vínculo con
algo genético, lo que haría que una familia que haya sufrido alguna una muerte súbita fuera más
susceptible a sufrir otra. Desde que esas mujeres fueron condenadas, los científicos han estado
sugiriendo que se haga un estudio de cada caso para determinar si se dan por causan naturales o
no. En 2004, el gobierno británico anunció que revisaría 258 casos en los que los padres habían
estado condenados por el supuesto asesinato a sus hijos pequeños.

No entendiendo cuando los eventos son independientes. Un tipo diferente de error ocurre
cuando los eventos que son independientes no son tratados como tales. Si te encuentras en un
casino (un lugar, estadísticamente hablando, al que no deberías ir), verás a gente mirando
ansiosamente los dados o las cartas y declarando que están “vencidos”. Si la bola de la ruleta ha
aterrizado en negro cinco veces seguidas, claramente ahora debe aparecer roja. ¡No, no, no! La
probabilidad de que la bola caiga en un número rojo permanece sin cambios: 16/38. La creencia
de lo contrario a veces se denomina "la falacia del jugador". De hecho, si lanza una moneda
justa 1.000.000 veces y obtiene 1.000.000 de sello seguidas, la probabilidad de obtener colas en
la próxima vuelta es todavía ½. La definición misma de independencia estadística entre dos
eventos es que el resultado de uno no tiene ningún efecto sobre el resultado del otro. Incluso si
no encuentra las estadísticas persuasivas, podría preguntarse acerca de la física: ¿Cómo puede
voltear una serie de colas seguidas para hacer que sea más probable que la moneda aparezca
cara en la próxima vuelta?

Incluso en los deportes, la noción de racha puede ser ilusoria. Uno de los documentos
académicos relacionados con las probabilidades más famosas e interesantes refuta la idea común
de que los jugadores de baloncesto desarrollan periódicamente una racha de buenos tiros
durante un juego, o "una mano ardiente" (racha positiva). El disparo es más probable que golpee
el siguiente disparo que un jugador que acaba de fallar. No de acuerdo con las investigaciones
de Thomas Gilovich, Robert Vallone y Amos Tversky, quienes probaron la mano caliente de
tres maneras diferentes. Primero, analizaron los datos de tiro para los juegos en casa de los
Philadelphia 76ers durante la temporada 1980-81. (En ese momento, no se disponía de datos
similares para otros equipos en la NBA). No encontraron pruebas de una correlación positiva
entre los resultados de los tiros sucesivos. En segundo lugar, hicieron lo mismo con los datos de
tiros libres para los Celtics de Boston, que produjo el mismo resultado. Y por último, realizaron
un experimento controlado con miembros de los equipos de baloncesto masculino y femenino
de Cornell. Los jugadores alcanzaron un promedio del 48 por ciento de sus goles de campo
después de golpear su último tiro y el 47 por ciento después de fallar. Para catorce de veintiséis
jugadores, la correlación entre hacer un disparo y luego hacer el siguiente fue negativa. Solo un
jugador mostró una correlación positiva significativa entre un disparo y el siguiente.

Eso no es lo que la mayoría de los fanáticos del baloncesto te dirán. Por ejemplo, el 91 por
ciento de los fanáticos del baloncesto encuestados en Stanford y Cornell por los autores del
periódico estuvieron de acuerdo con la afirmación de que un jugador tiene más posibilidades de
hacer su próximo tiro después de hacer sus últimos dos o tres disparos que después de perder su
último golpe. Dos o tres disparos. El significado del documento de "mano caliente" radica en la
diferencia entre la percepción y la realidad empírica. Los autores señalan que "las concepciones
intuitivas de la gente sobre la aleatoriedad se alejan sistemáticamente de las leyes del azar".
Vemos patrones en los que realmente no existe ninguno.
Al igual que los grupos de cáncer
Aquí hay un ejercicio que hago con mis alumnos para hacer el mismo punto básico. Cuanto
mayor sea la clase, mejor funciona. Les pido a todos en la clase que saquen una moneda y se
pongan de pie. Todos tiramos la moneda; Cualquier persona que voltea cabezas debe sentarse.
Suponiendo que comencemos con 100 estudiantes, aproximadamente 50 se sentarán después del
primer giro. Luego lo hacemos de nuevo, después de lo cual 25 o más siguen en pie. Y así. Más
a menudo que no, habrá un estudiante parado al final que haya volteado cinco o seis colas
seguidas. En ese momento, le hago preguntas a los estudiantes como "¿Cómo lo hiciste?" Y
"¿Cuáles son los mejores ejercicios de entrenamiento para voltear tantas colas seguidas?" O
"¿Hay alguna dieta especial que te ayude a lograr este impresionante ¿Logro? ”Estas preguntas
provocan risas porque la clase acaba de ver cómo se desarrolla todo el proceso; saben que el
estudiante que lanzó seis colas seguidas no tiene un talento especial para lanzar monedas. Él o
ella acaban de ser el que terminó con un montón de cruz. Sin embargo, cuando vemos un evento
anómalo como ese fuera de contexto, asumimos que algo además de la aleatoriedad debe ser
responsable.

La falacia del fiscal.


La falacia del fiscal se produce cuando se descuida el contexto que rodea la evidencia
estadística
Aquí hay dos escenarios, cada uno de los cuales podría explicar la evidencia de ADN que se
está utilizando para procesar al acusado.
Demandado 1: Este acusado, un amante despreciado de la víctima, fue arrestado a tres cuadras
de la escena del crimen que llevaba el arma homicida. Después de ser arrestado, el tribunal lo
obligó a ofrecer una muestra de ADN, que coincidía con una muestra tomada de un cabello
encontrado en la escena del crimen.
Demandado 2: este acusado fue condenado por un crimen similar en un estado diferente hace
varios años. Como resultado de esa convicción, su ADN se incluyó en una base de datos
nacional de ADN de más de un millón de delincuentes violentos. La muestra de ADN tomada
del cabello encontrado en la escena del crimen se corrió a través de esa base de datos y se
comparó con esta persona, que no tiene ninguna asociación conocida con la víctima. Como se
señaló anteriormente, en ambos casos, el fiscal puede decir con razón que la muestra de ADN
tomada de la escena del crimen coincide con la del acusado y que solo hay una posibilidad en un
millón de que coincida con la de cualquier otra persona. Pero en el caso del Demandado 2,
existe una gran posibilidad de que sea esa otra persona aleatoria, la de un millón de personas
cuyo ADN resulta ser similar al del verdadero asesino por casualidad. Debido a que las
posibilidades de encontrar una coincidencia en un millón de coincidencias son relativamente
altas si ejecuta la muestra a través de una base de datos con muestras de un millón de
personas.
Reversión a la media (o regresión a la media) Cuando los equipos y los atletas aparecen en su
portada después de un tramo anormalmente bueno y que su desempeño posterior simplemente
vuelve a lo que es normal, o la media. Este es el fenómeno conocido como reversión a la
media. La probabilidad nos dice que cualquier observación atípica, una observación que está
particularmente lejos de la media en una u otra dirección, es probable que sea seguida por
resultados que sean más consistentes con el promedio a largo plazo..
Este ejemplo puede explicar por qué los estudiantes que obtienen mejores resultados de los que
normalmente realizan en algún tipo de prueba tendrán, en promedio, un peor desempeño en una
nueva prueba, y los estudiantes que han tenido un desempeño peor de lo normal tenderán a
mejorar un poco más cuando vuelvan a realizar la prueba. Una manera de pensar acerca de esta
reversión de la media es que el rendimiento, tanto mental como físico, consiste en un esfuerzo
subyacente relacionado con el talento más un elemento de suerte, buena o mala. (Los
estadísticos lo llamarían error aleatorio).
Discriminación estadística. ¿Cuándo está bien actuar sobre la base de lo que la probabilidad
dice que es probable que suceda, y cuándo no está bien? En 2003, Anna Diamantopoulou, la
comisionada europea para el empleo y los asuntos sociales, propuso una directiva que declara
que las compañías de seguros no pueden cobrar tasas diferentes a hombres y mujeres, porque
viola el principio de igualdad de trato de la Unión Europea.8 Sin embargo, para las
aseguradoras, el género las primas basadas en la base no son discriminación; son solo
estadísticas. Los hombres suelen pagar más por el seguro de auto porque chocan más. Las
mujeres pagan más por las anualidades (un producto financiero que paga una suma fija mensual
o anual hasta la muerte) porque viven más tiempo. Obviamente, muchas mujeres chocan más
que muchos hombres, y muchos hombres viven más que muchas mujeres. Pero, como se explicó
en el capítulo anterior, a las compañías de seguros no les importa eso. Solo se preocupan por lo
que sucede en promedio, porque si lo hacen bien, la empresa ganará dinero. Lo interesante de la
política de la Comisión Europea que prohíbe las primas de seguros basadas en el género, que se
está implementando en 2012, es que las autoridades no pretenden que el género no esté
relacionado con los riesgos que se están asegurando; simplemente declaran que las tasas
dispares basadas en el sexo son inaceptables. *
Si queremos atrapar a criminales violentos y terroristas y traficantes de drogas y otras personas
con el potencial de causar un daño enorme, entonces deberíamos usar todas las herramientas a
nuestra disposición. La probabilidad puede ser una de esas herramientas. Sería ingenuo pensar
que el género, la edad, la raza, el origen étnico, la religión y el país de origen no nos dicen nada
sobre nada relacionado con la aplicación de la ley.
El punto más amplio aquí es que nuestra capacidad para analizar datos se ha vuelto mucho más
sofisticada que nuestra forma de pensar acerca de lo que deberíamos hacer con los resultados.
Puede estar de acuerdo o en desacuerdo con la decisión de la Comisión Europea de prohibir las
primas de seguros basadas en el género, pero le prometo que no será la última decisión difícil de
ese tipo. Nos gusta pensar en los números como "hechos fríos y duros". Si hacemos los cálculos
correctamente, entonces debemos tener la respuesta correcta. La realidad más interesante y
peligrosa es que a veces podemos hacer los cálculos correctamente y terminar confundiéndolos
en una dirección peligrosa. Podemos explotar el sistema financiero o acosar a un hombre blanco
de veintidós años que está parado en una esquina particular de la calle a una hora determinada
del día, porque, según nuestro modelo estadístico, es casi seguro que está allí para comprar
drogas. A pesar de la elegancia y precisión de la probabilidad, no hay sustituto para pensar qué
cálculos estamos haciendo y por qué los estamos haciendo.

* El SIDS sigue siendo un misterio médico, aunque se han identificado muchos de los factores
de riesgo. Por ejemplo, las muertes infantiles pueden reducirse considerablemente poniendo a
los bebés a dormir boca arriba.
* El cambio de política fue finalmente precipitado por una sentencia de 2011 del Tribunal de
Justicia de la Unión Europea que establece que las primas diferentes para hombres y mujeres
constituyen una discriminación sexual.
CAPÍTULO 7:

The importance of data “garbage in, garbage out”

El capítulo empieza describiendo un hallazgo en una revista de ciencia. En la cual se dieron


cuenta que las moscas, al igual que los humanos, después de ser rechazados por una mujer
ahogaban sus penas en alcohol (una fruta en realidad). El experimento consistía básicamente en
que los machos que habían tratado de aparearse con moscas hembras indiferentes eran más
propensos a alcanzar el alcohol. Es importante aquí el análisis de los datos estadísticos puesto
que sugiere entre el estrés y el apetito por el alcohol.

De igual manera, habla sobre la importancia de la veracidad de los datos con los que partes una
investigación. Por ejemplo, al sacar una muestra para entrevistas delimitarla correctamente en
relación al tema que se quiere investigar. Plantea una forma aleatoria simple que sirve para
seleccionar un subconjunto de al azar. La clave de esta forma es que cada observación en la
población relevante debe tener las mismas posibilidades de ser incluido en la muestra. Hay que
tomar en cuenta que una muestra más grande no compensará los errores en su composición o
"sesgo" debido a que no importa que sea grande la muestra si se han escogido mal.

La clave es es realizar una investigación de forma aleatoria, un proceso mediante el cual sujetos
humanos (o escuelas u hospitales o lo que sea que estemos estudiando) se asignan al azar al
tratamiento o al grupo de control. No hay que asumir que todos los sujetos experimentales son
idénticos. EL autor señala varios estudios exitosos con su respectivo año, con el cual podemos
afirmar cosas como: fumar cigarrillos aumenta el riesgo de enfermedades cardíacas (1960); La
actividad física reduce el riesgo de enfermedad cardíaca y la obesidad la aumenta (1967); alta
presión sanguínea aumenta el riesgo de accidente cerebrovascular (1970); altos niveles de
colesterol HDL (en lo sucesivo, conocido como el "buen colesterol”) reduce el riesgo de muerte
(1988).

Detrás de cada estudio importante hay buenos datos que hicieron posible el análisis. El
problema es cuando en los estudios estadísticos se trata de mentir con datos. El análisis
estadístico está bien, pero los datos sobre los cuales se realizan los cálculos son falsos o
inapropiados. Adicionalmente, se habla sobre el sesgo de selección de las muestras para las
encuestas o entrevistas. Se ejemplifica el sesgo de selección con una encuesta que se realiza en
el aeropuerto pues se afirma que las personas que aceptan realizar una encuesta en lugares
públicos son diferentes a las personas que no lo hacen. La vida de las personas que deciden ser
parte de la muestra es diferente y, por ende, la selección se vuelve sesgada.

Cuando se llega a la publicación de los resultados suele presentarse un nivel de sesgo también.
Generalmente, se prefiere hacer públicos los resultados positivos antes que los negativos. Por
ejemplo, cuando se realiza un estudio en el que se afirma que tomar 4 litros diarios previenen la
incidencia de leucemia, después de 5 años de estudio el resultado es que la Hipótesis no se
cumple. A nadie le va a interesar publicar los resultados de la investigación, primero porque no
hay suficientes hechos científicos para que la Hipótesis se sostenga y, sobre todo, porque a
nadie le interesa leer algo que diga que no ayuda a prevenir el cáncer. Por la mala elección de
investigaciones varias revistas científicas han pedido que antes de iniciar los estudios, se realice
un análisis para saber si son publicables o no.

Por otro lado, refiriéndose al sesgo de memoria se habla de que ésta es sistemáticamente frágil,
especialmente, cuando se intenta explicar un resultado que se obtuvo en el pasado, en el
presente. Es por esta razón que se deben preferir los estudios longitudinales a los transversales.
Los estudios longitudinales en el tiempo sitúan momentos de las personas, por ejemplo, a los 5
años, a los 10, a los 15; esto ayuda a que los resultados sean más precisos pues los resultados
quedan escritos oficialmente y la memoria de la persona que se somete a la investigación no
afecta a los resultados que se van a obtener en el presente.
También se habla del sesgo de supervivencia y el sesgo de usuario saludable. El primero se
presenta cuando una de las observaciones se sale de la muestra y esto cambia la composición de
las observaciones y, como consecuencia, afecta los resultados de los análisis. El segundo, se
refiere, en cambio, a que las personas que tienden a realizar actividades que son buenas para
ellas son diferentes al resto y como consecuencia el estudio puede verse afectado por la manera
de evaluar las actividades relacionadas a la vida cotidiana.

Las estadísticas son trabajo de un detective pues ayudan a encontrar datos que antes no se
habían estudiado y los datos que se utilizan son las pistas para llegar a un resultado. Los datos
deben ser buenos para poder desarrollar una investigación que valga la pena publicar y, sobre
todo, que sea confiable y entendible. No obstante, se debe intentar dejar todos los sesgos de
lado. Encontrar buenos datos no es sencillo, pero tampoco es una tarea imposible y se debe
realizar.

CAPITULO 8

El teorema del límite central

A veces, las estadísticas parecen casi mágicas. El teorema del límite central es la "fuente de
energía" para muchas de las actividades estadísticas que involucran el uso de una muestra para
hacer inferencias sobre una gran población. Este tipo de inferencias pueden parecer místicas; de
hecho, son solo una combinación de dos herramientas que ya hemos explorado: probabilidad y
muestreo adecuado. Antes de sumergirse en la mecánica del teorema del límite central (que no
es tan complicado), aquí hay un ejemplo para darle la intuición general.
Los corredores de todo el mundo competirán, en una maratón lo que significa que muchos de
ellos no hablan inglés. La logística de la carrera requiere que los corredores se registren en la
mañana de la carrera, después de lo cual se les asigna al azar a los autobuses para que los lleven
a la línea de salida. Desafortunadamente uno de los autobuses se pierde en el camino a la
carrera. Un líder cívico en esta ciudad, te unes al equipo de búsqueda.
Por suerte, te encuentras con un autobús averiado cerca de tu hogar con un gran grupo de
pasajeros internacionales descontentos, ninguno de los cuales habla inglés. ¡Este debe ser el bus
perdido! ¡Vas a ser un héroe! Excepto que tienes una duda persistente. . . Los pasajeros en este
autobús son, bueno, muy grandes. Basándose en una mirada rápida, considera que el peso
promedio para este grupo de pasajeros debe ser de más de 220 libras. No hay forma de que un
grupo aleatorio de corredores de maratón sea tan pesado. Usted envía su mensaje por radio a la
sede central: "Creo que es el bus equivocado. Sigue buscando”. Un análisis más detallado
confirma tu impresión inicial. Cuando llega un traductor, descubres que este autobús
discapacitado se dirigía al Festival Internacional de la Salchicha, que también está siendo
recibido por tu ciudad el mismo fin de semana.
Si puede comprender cómo alguien que observa rápidamente el peso de los pasajeros en un
autobús puede inferir que probablemente no está en camino a la línea de salida de un maratón,
entonces ahora comprende la idea básica del teorema del límite central.
El principio básico que subyace en el teorema del límite central es que una muestra grande y
correctamente dibujada se asemejará a la población de la que se extrajo. Obviamente, habrá una
variación de una muestra a otra (por ejemplo, cada autobús que se dirige al inicio de la maratón
tendrá una mezcla de pasajeros ligeramente diferente), pero la probabilidad de que cualquier
muestra se desvíe masivamente de la población subyacente es muy baja. Esta lógica es lo que
permitió su juicio rápido cuando abordó el autobús de Brokendown y vio la circunferencia
promedio de los pasajeros a bordo.

El teorema del límite central nos permite hacer las siguientes inferencias, de las cuales se
explorarán con mayor profundidad en el siguiente capítulo.

1. Si tenemos información detallada sobre alguna población, podemos hacer inferencias


poderosas sobre cualquier muestra extraída de esa población.

2. Si tenemos información detallada sobre una muestra correctamente extraída (media y


desviación estándar), podemos hacer inferencias sorprendentemente precisas sobre la población
de la que se extrajo esa muestra.

3. Si tenemos datos que describen una muestra en particular y datos sobre una población en
particular, podemos inferir si esa muestra es consistente o no con una muestra que
probablemente se extraerá de esa población.

4. Por último, si conocemos las características subyacentes de dos muestras, podemos inferir si
ambas muestras fueron probablemente extraídas de la misma población.
Ahora olvídese de las fórmulas estadísticas por un momento y solo use la lógica: ¿Parece
probable que los pasajeros en esos dos autobuses hayan sido seleccionados al azar de la misma
población? No. Lo más probable es que un autobús esté lleno de corredores de maratón y el otro
esté lleno de entusiastas de las salchichas. Además de la diferencia en el peso promedio entre
los dos autobuses, también puede ver que la variación en los pesos entre los dos autobuses es
muy grande en comparación con la variación en los pesos dentro de cada autobús. Las personas
que pesan una desviación estándar por encima de la media en el bus "delgado" son 168 libras,
que es menor que las personas que tienen una desviación estándar por debajo de la media en el
"otro" bus (190 libras).

1. Supongamos que tenemos una población, como nuestro campo de maratón, y estamos
interesados en el peso de sus miembros. Cualquier muestra de corredores, como cada bus de
sesenta corredores, tendrá una media.

2. Si tomamos muestras repetidas, como seleccionar grupos aleatorios de sesenta corredores del
campo una y otra vez, entonces cada una de esas muestras tendrá su propio peso medio. Estos
son los medios de muestra.

3. La mayoría de las medias muestrales estarán muy cerca de la media poblacional. Algunos
serán un poco más altos. Algunos serán un poco más bajos. Solo por casualidad, unos pocos
serán significativamente más altos que la media de la población, y unos pocos serán
significativamente más bajos. Cue la música, porque aquí es donde todo se junta en un poderoso
crescendo.

4. El teorema del límite central nos dice que las medias muestrales se distribuirán
aproximadamente como una distribución normal alrededor de la media poblacional. La
distribución normal, es la distribución en forma de campana en la que el 68 por ciento de las
observaciones se encuentran dentro de una desviación estándar de la media, el 95% se encuentra
dentro de dos desviaciones estándar, y pronto.

5. Todo esto será cierto sin importar cómo se vea la distribución de la población subyacente. La
población de la cual se extraen las muestras no tiene que tener una distribución normal para que
las medias de la muestra se distribuyan normalmente.

Pensemos en algunos datos reales, por ejemplo, la distribución del ingreso familiar en los
Estados Unidos.
El ingreso familiar
no se
distribuye
normalmente en
América; en cambio, tiende a estar sesgado hacia la derecha. Ningún hogar puede ganar menos
de $ 0 en un año determinado, por lo que debe ser el límite inferior para la distribución. Como
resultado, esperaríamos que la distribución de los ingresos de los hogares tuviera una cola larga
y derecha, algo como esto:

El ingreso medio por hogar en los Estados Unidos es de aproximadamente $ 51,900; el ingreso
promedio del hogar es de $ 70,900.1.El punto central de una muestra representativa es que se
parece a la población subyacente. Si tomáramos múltiples muestras de 1,000 hogares,
esperaríamos que los diferentes medios muestrales se agrupen alrededor de la media de la
población, $ 70,900. ¿Podríamos obtener una muestra de 1,000 hogares con un ingreso familiar
promedio de $ 427,000? Claro, eso es posible, pero altamente improbable.

El teorema del límite central nos permite ir un paso más allá al describir la distribución esperada
de esas diferentes medias muestrales a medida que se agrupan alrededor de la media
poblacional. Específicamente, las medias muestrales formarán una distribución normal
alrededor de la media poblacional, que en este caso es de $ 70,900. La distribución del ingreso
familiar en los Estados Unidos es bastante sesgada, pero la distribución de los medios de la
muestra no será sesgada. Si tuviéramos que tomar 100 muestras diferentes, cada una con 1,000
hogares, y graficar la frecuencia de nuestros resultados, esperaríamos que esos medios
muestrales formen la distribución familiar "en forma de campana" de alrededor de $
70,900.Cuanto mayor sea el número de muestras, más se aproximará la distribución a la
distribución normal. Y cuanto mayor sea el tamaño de cada muestra, más estrecha será la
distribución.
Cuanto mayor sea el tamaño de la muestra y cuantas más muestras se tomen, más estrechamente
la distribución de las medias de la muestra se aproximará a la curva normal. En este caso, Las
medias muestrales se distribuyen en una curva normal; indicándonos la proporción que se
ubicará dentro de una desviación estándar por encima o por debajo de la media (68 por ciento);
qué proporción de observaciones se ubicará dentro de dos desviaciones estándar por encima o
por debajo de la media (95 por ciento); y así.
El error estándar mide la dispersión de las medias muestrales
Mantener en órden y hacer eficaces el error estándar y la desviación estándar como dos medidas
de dispersión:
1. La desviación estándar mide la dispersión en la población subyacente
2. Error estándar mide la dispersión de las medias
3. Entonces el error estándar es la desviación estándar de los medios de muestra. Un gran
error estándar significa que las medias muestrales se extienden ampliamente alrededor
de la media poblacional; un pequeño error estándar significa que están agrupados
relativamente estrechamente

El tamaño más grande de la muestra hace que sea menos probable que una media de la muestra
se desvíe considerablemente de la media de la población. Por ejemplo, tomando en cuenta que
se hace un estudio acerca de mujeres, y otro acerca de toda la población; el de mujeres es más
probable que sea menos disperso al de toda la población.
La fórmula para el error estándar es:

S= desviación estándar de la población

N= tamaño de la muestra

El error estándar será grande cuando la desviación estándar sea grande. esperaríamos que el
error estándar se redujera a medida que el tamaño de la muestra se hace más grande, ya que las
muestras grandes son menos propensas a la distorsión por los valores extremos. Es por esto que
el tamaño de la muestra (n) está en el denominador.

CAPÍTULO 9
Charles Wheelan en el capítulo XIX del libro “Naked Statistics: Stripping the Dread from the
data” menciona que la estadística no tiene la capacidad de demostrar certeza. La inferencia
estadística es totalmente derivada de la observación de varios modelos o resultados.
Consecuentemente, se usa la probabilidad para determinar la explicación probabilística del
resultado.

Sin embargo, la explicación probabilística no siempre será la más acertada a la veracidad, dando
paso a que los imprevistos o cambios (rarezas) puedan suceder y causar un desenfoque del tema.
Es por ello que el propósito del enfoque metodológico respalda todo el contenido y empieza con
la elaboración de la explicación contrastada hacia la hipótesis.

Específicamente, se ha creado un sondeo de opinión como forma de aplicación de la inferencia


estadística para establecer la importancia y el poder que tiene el Teorema del Limite Central.

Después del análisis de regresión, cuyo objetivo es identificar y determinar relaciones entre las
variables particulares y el resultado; al mismo tiempo, puede controlar si es directamente
influyente o si necesita de otros determinantes. En la actualidad realizar los cálculos y la
obtención de coeficientes e indicadores es de manera inmediata. Wheelan menciona que, el
problema no se define dentro del análisis de regresión, por el contario, el problema comienza
desde la identificación de las variables determinantes. Es de conocimiento que todos los factores
estadísticos se vuelven necesarios en la utilidad laboral, así como, generan un riesgo latente y
hasta cierto punto un descontrol cuando son utilizados de manera errónea.

CAPÍTULO 10
A finales de 2011, el New York Times publicó una historia, en donde, se ofrece información
sobre la opinión pública del desempeño de Obama hasta la distribución de la riqueza. A
continuación, un resumen de lo que dijeron los estadounidenses en 2011:

 89% de desconfianza en las decisiones que toma el gobierno.


 Dos tercios dijeron que la riqueza debería distribuirse de manera más equitativa.
 43% estaban de acuerdo con las opiniones del movimiento Ocupar Wall Street.
 46% estadounidenses aprobó el manejo de Barack Obama de su trabajo como presidente
y 46% rechazó su desempeño.
 9% aprobó la forma en que el Congreso estaba realizando su trabajo.
 80% de los votantes primarios republicanos dijeron que "aún era demasiado pronto para
decir a quién apoyarán".

Se brindó una visión de las opiniones estadounidenses un año antes de una carrera presidencial.
Se podría preguntar, ¿Cómo sabemos todo esto? ¿Cómo podemos sacar conclusiones tan
amplias sobre las actitudes de cientos de millones de adultos?

La respuesta, por supuesto, es que llevamos a cabo encuestas. O en el ejemplo anterior, el New
York Times y CBS News pueden hacer una encuesta. Una encuesta es una inferencia sobre las
opiniones de alguna población que se basa en las opiniones expresadas por alguna muestra.

Por otra parte, el sondeo proviene de la misma fuente que nuestros ejemplos de muestreo
anteriores: el teorema del límite central. Si tomamos una muestra grande de votantes
estadounidenses, suponemos que la muestra se parecerá mucho a la población de la que se
extrae.

Una diferencia fundamental entre una encuesta y otras formas de muestreo es que la estadística
de muestra que nos importa no será una media sino un porcentaje o proporción. Con respecto al
error estándar es lo que nos dice cuánta dispersión podemos esperar.

Supongamos que las urnas se acaban de cerrar y trabaja para una red de televisión que desea
declarar un ganador en la carrera antes de que estén disponibles los resultados completos. Ahora
eres el proveedor de datos de la red oficial, y tu productor quiere saber si es posible "convocar a
la carrera" sobre la base de esta encuesta de salida.

La respuesta depende de la confianza que le gustaría a la gente de la red estar en el anuncio o,


del riesgo que están dispuestos a asumir de que se equivocarán. El error estándar nos da una
idea de la frecuencia con la que podemos esperar que nuestra proporción de muestra (se
encuentre razonablemente cerca de la proporción real de la población.
Muchas encuestas nacionales que hacen preguntas múltiples irán un paso más allá. En el caso de
la encuesta New York Times / CBS, el error estándar debería ser técnicamente diferente para
cada pregunta, dependiendo de la respuesta. Por ejemplo, el error estándar para el hallazgo de
que el 9 por ciento del público aprueba la forma en que el Congreso está manejando su trabajo
debería ser inferior al error estándar para la pregunta de que el 46 por ciento del público aprueba
la forma en que el presidente Obama ha manejado su trabajo.

Dado que sería confuso e inconveniente tener un error estándar diferente para cada pregunta, los
sondeos de esta naturaleza generalmente supondrán que la proporción de la muestra para cada
pregunta es .5 (o 50 por ciento), generando el error estándar más grande posible para un
determinado tamaño de la muestra y luego adopte ese error estándar para calcular el margen de
error de muestreo para toda la encuesta.

A continuación se presentan las preguntas metodológicas clave que se deben hacer al realizar
una encuesta o al revisar el trabajo de otros.

¿Es esta una muestra precisa de la población cuyas opiniones estamos tratando de medir?
Muchos desafíos comunes relacionados con los datos se trataron en el Capítulo 7. No obstante,
señalaré una vez más el peligro del sesgo de selección. Cualquier encuesta que dependa de
individuos que seleccionen la muestra, como un programa de llamadas de radio o una encuesta
voluntaria por Internet, capturará solo las opiniones de aquellos que hacen el esfuerzo de
expresar sus opiniones.

Cualquier método de recopilación de opiniones que excluya sistemáticamente algún segmento


de la población también es propenso al sesgo. Por ejemplo, los teléfonos móviles han
introducido una serie de nuevas complejidades metodológicas. Las organizaciones profesionales
de sondeo hacen todo lo posible para encuestar a una muestra representativa de la población
relevante.

La mayoría de las encuestas profesionales utilizan alguna variación en las siguientes técnicas.
Para asegurarse de que los adultos que atienden el teléfono son representativos de la población,
el proceso comienza con probabilidad, una variación en la extracción de canicas de una urna.
Una computadora selecciona al azar un conjunto de centrales telefónicas fijas. Al elegir al azar
entre los 69,000 intercambios residenciales en el país, cada uno en proporción a su parte de
todos los números de teléfono, es probable que la encuesta obtenga un representante general.

Un indicador de la validez de una encuesta es la tasa de respuesta: ¿Qué proporción de los


encuestados que fueron seleccionados para ser contactados finalmente completó la encuesta o
encuesta? Una tasa de respuesta baja puede ser un signo de advertencia para un posible sesgo de
muestreo. Cuanta más gente haya que opte por no responder a la encuesta, o que simplemente
no pueda ser contactada, mayor será la posibilidad de que este gran grupo sea diferente de
alguna manera material de aquellos que sí respondieron las preguntas. Los encuestadores
pueden realizar una prueba de "sesgo de no respuesta" al analizar los datos disponibles de los
encuestados con los que no pudieron ponerse en contacto.

¿Están los encuestados diciendo la verdad? El sondeo es como las citas por Internet: hay un
poco de margen de maniobra en la veracidad de la información proporcionada. Sabemos que las
personas ocultan la verdad, especialmente cuando las preguntas formuladas son vergonzosas o
sensibles. Los encuestados pueden exagerar sus ingresos o aumentar la cantidad de veces que
tienen relaciones sexuales en un mes típico. No pueden admitir que no votan. Pueden dudar en
expresar puntos de vista impopulares o socialmente inaceptables. Por todas estas razones,
incluso la encuesta más cuidadosamente diseñada depende de la integridad de las respuestas de
los encuestados.

Las encuestas electorales dependen fundamentalmente de la clasificación de aquellos que


votarán el Día de las Elecciones de aquellos que no lo harán. Las personas a menudo dicen que
van a votar porque piensan que eso es lo que los encuestadores quieren escuchar. Los estudios
que compararon el comportamiento de voto auto informado con los registros de elecciones
encuentran constantemente que entre una cuarta parte y un tercio de los encuestados dicen que
votaron cuando en realidad no lo hicieron.

Una forma de minimizar este sesgo potencial es preguntar si un encuestado votó la última
elección, o en las últimas elecciones. Los encuestados que han votado consistentemente en el
pasado tienen más probabilidades de votar en el futuro. Del mismo modo, si existe la
preocupación de que los encuestados duden en expresar una respuesta socialmente inaceptable,
como una opinión negativa de un grupo racial o étnico, la pregunta puede formularse de una
manera más sutil, como preguntando "si la gente que conoce "Mantener tal opinión.

¿Por qué el error estándar es mayor cuando p (y 1 - p) están cerca del 50 por ciento?

Esta es la intuición de por qué el error estándar es mayor cuando la proporción que responde a
una forma particular (p) es cercana al 50 por ciento . Imaginemos que está realizando dos
encuestas en Dakota del Norte. La primera encuesta está diseñada para medir la mezcla de
republicanos y demócratas en el estado. Suponga que la verdadera mezcla política en la
población de Dakota del Norte está dividida en partes iguales entre 50 y 50, pero que su
encuesta encuentra que el 60 por ciento de los republicanos y el 40 por ciento de los demócratas.
Sus resultados están desactivados en 10 puntos porcentuales, lo que es un gran margen. Sin
embargo, ha generado este gran error sin cometer un error de recopilación de datos
inimaginablemente grande. Ha superado a los republicanos en relación con su verdadera
incidencia en la población en un 20 por ciento [(60 - 50) / 50]. Y al hacerlo, también ha
subestimado a los demócratas en un 20 por ciento [(40 - 50) / 50]. Eso podría suceder, incluso
con una metodología de sondeo decente.

Su segunda encuesta está diseñada para medir la fracción de nativos americanos en la población
de Dakota del Norte

Supongamos que la proporción real de nativos americanos en Dakota del Norte es del 10 por
ciento, mientras que los no nativos conforman el 90 por ciento de la población del estado. Ahora
vamos a discutir qué tan malo debería ser su recopilación de datos para producir una encuesta
con un error de muestreo de 10 puntos porcentuales. Esto podría suceder de dos maneras.
Primero, podría encontrar que el 0 por ciento de la población es nativo americano y el 100 por
ciento no es nativo americano. O podría encontrar que el 20 por ciento de la población es nativo
americano y el 80 por ciento no es nativo americano. En un caso, se ha perdido a todos los
nativos americanos; y en el otro, has encontrado el doble de su verdadera incidencia en la
población. Estos son errores de muestreo realmente malos. En ambos casos, su estimación está
descontada en un 100 por ciento: ya sea [(0 - 10) / 10] o [(20 - 10) / 10]. Y si se saltara solo el
20 por ciento de los nativos americanos, el mismo grado de error que tuvo en la encuesta
Republicano-Demócrata, sus resultados encontrarán un 8 por ciento de nativos americanos y un
92 por ciento de no nativos americanos, que está a solo 2 puntos porcentuales de La verdadera
escisión en la población.

Cuando p y 1 - p están cerca del 50 por ciento, los errores de muestreo relativamente pequeños
se magnifican en grandes errores absolutos en el resultado de la encuesta.

Cuando p o 1 - p está más cerca de cero, lo contrario es cierto. Incluso los errores de muestreo
relativamente grandes producen pequeños errores absolutos en el resultado de la encuesta.

El mismo error de muestreo del 20 por ciento distorsionó el resultado de la encuesta demócrata-
republicana en 10 puntos porcentuales, mientras que distorsionó la encuesta de los nativos
americanos en solo 2 puntos porcentuales. Dado que el error estándar en una encuesta se mide
en términos absolutos (por ejemplo, ± 5 por ciento), la fórmula reconoce que es probable que
este error sea mayor cuando p y 1 - p están cerca del 50 por ciento
CAPITULO 11

ANALISIS DE REGRESION

El estrés en el trabajo puede causar muerte por una enfermedad al corazón. Además resulta que
el tipo de estrés laboral más peligroso se deriva de tener un "control bajo" sobre las
responsabilidades. Si simplemente observamos que los trabajadores de bajo rango en la
jerarquía de la administración pública británica tienen tasas más altas de enfermedad cardíaca,
nuestros resultados se verían confundidos por otros factores. Por ejemplo, esperamos que los
trabajadores de bajo nivel tengan menos educación que los funcionarios superiores en la
burocracia. Pueden tener más probabilidades de fumar (talvez por frustración laboral). Es
posible que hayan tenido una infancia menos saludable, lo que disminuyó sus perspectivas de
trabajo. O su salario más bajo puede limitar su acceso a la atención médica, etc. El análisis de
regresión es una herramienta para aislar una relación entre dos variables, como fumar y el
cáncer, mientras se mantiene constante (o controla) el efecto de otras variables importantes,
como la dieta, el ejercicio, etc. La parte difícil de este análisis, es determinar qué variables
deben considerarse en el análisis y cómo se puede hacer mejor. Los OLS (en inglés: mínimos
cuadrados ordinarios) nos dan la mejor descripción de una relación lineal entre dos variables.
Un ejemplo es la relación entre altura y peso, pues las personas mas altas tienden a pesar más,
no obstante esto no siempre es el caso. Para esto se usa el OLS, mientras mayor suma de
residuales, peor se ajusta a la línea. Para que la línea clase directo los residuales deben ser igual
a cero.

Es casi imposible que cada centímetro de altura se encuentre ligado a 4,5 libras adicionales entre
cada uno de los participantes, sin embargo, no hay una unión entre el peso y la altura en la
muestra de los 3000 adultos estadounidenses. Dicho lo antes mencionado se puede arrojar si los
primeros resultados de la regresión son significativos o no. Mas aun cabe mencionar que al
trabajar con una pequeña muestra de datos de un grupo de adultos, en el instante que se
desarrolle la distribución normal ya no se lograra juntar con el análisis, especialmente si se lleva
a cabo análisis de regresión en pequeñas muestras, y así ya no se supondría que los varios
coeficientes se distribuirán alrededor de la asociación “verdadera” entre altura y peso de la
población antes mencionada.

Al poseer un coeficiente y un error estandarizado, se prueba que dicha hipótesis nula de que no
cabe una relación entre variable explicativa y dependiente (significando que la en la población
la autentica asociación es cero entre las dos variables). Un paquete de estadísticas también
calcula un valor de p, que es 0,000 en este caso, lo que significa que hay una probabilidad
esencialmente nula de obtener un resultado tan extremo como lo que hemos observado si no hay
una verdadera asociación entre Altura y peso en la población general.
Para entender mejor el análisis de regresión se usa un tema socialmente significativo: “la
discriminación de género en el lugar de trabajo”. Ningún empleado declarará explícitamente si a
alguien se le paga menos por su raza o género, pero lo que se puede observar son las brechas
salariales que pueden ser resultado de la discriminación, pero tomando en cuenta otros factores
que explicarían los salarios como: educación, experiencia, campo ocupacional. La
discriminación es circunstancial, pero si luego de controlar y entender todos los factores antes
mencionados, entonces es probable que exista discriminación. Luego del estudio se concluiría
que la brecha salarial se debe a: “diferencias en la capacitación antes de la graduación del
instituto”, “diferencias en las interrupciones de la carrera”, “diferencias en las horas semanales”.

Todo proyecto investigativo que se realiza bajo control no es del todo fiable y puede generar
daños. El mensaje más amplio aquí es que el análisis de regresión es posiblemente la
herramienta más importante que tienen los investigadores para encontrar patrones significativos
en grandes conjuntos de datos. Típicamente no podemos hacer experimentos controlados para
aprender sobre la discriminación en el trabajo o los factores que causan la enfermedad cardíaca.
Nuestros conocimientos sobre estos temas de importancia social y muchos otros provienen de
las herramientas estadísticas que se tratan en este capítulo. De hecho, no sería exagerado decir
que una gran proporción de todas las investigaciones importantes realizadas en las ciencias
sociales durante el último medio siglo (especialmente desde la llegada de la potencia de cálculo
barata) se basa en el análisis de regresión. El análisis de regresión sobredimensiona el método
científico; como resultado, estamos más sanos, más seguros y mejor informados.

Вам также может понравиться