Вы находитесь на странице: 1из 90

UNIVERSIDAD ARGENTINA JOHN F.

KENNEDY

PSICOESTADISTICA

Guía de Lectura

2016

1
Introducción
Los objetivos del diseño curricular de Psicoestadística están formulados con el
objeto de alcanzar resultados positivos en tres aspectos diferentes: cognitivos, sociales y
motivacionales. Los mismos pueden sintetizarse en los siguientes:
1. Introducir al alumno en el conocimiento de los fundamentos de la
técnica estadística, en sus aspectos descriptivos e inferenciales, a partir de la
comprensión de conceptos e ideas que están implicados en el pensamiento y
en la lógica estadística, tales como el determinismo y el azar.
2. Desarrollar la capacidad de razonar estadísticamente, ponderando los
alcances de su aplicación y la elección de límites de confiabilidad la
estadística aplicados a la investigación social.
3. Restringir el uso de formulaciones matemáticas a un mínimo
indispensable, compatible con los conocimientos que brinda el nivel
secundario de enseñanza.
4. Identificar los roles que juegan en la vida cotidiana la probabilidad,
el azar, la incertidumbre y el pensamiento estadístico.
5. Promover la utilización de la estadística para tomar decisiones en
problemas sociales donde intervenga el azar, y el reconocimiento del poder
de comunicación y pertinencia que implica su lenguaje específico.
6. Capacitar al futuro profesional para interpretar y evaluar la
significación de los datos y las conclusiones de los diferentes informes de
investigación a los que acceda en la bibliografía, congresos, jornadas,
papers, etc.
7. Informar acerca de las posturas de la ciencia actual, revalorizando el
pensamiento estadístico como la única forma de acercamiento a la
complejidad de los problemas sociales, ubicando al área disciplinar
correspondiente en el campo de la investigación científica.
8. Potenciar la confianza del alumno en el aprendizaje sistemático y
grupal.
9. Desmitificar las fantasías del educando que subyacen en el estudio
de la matemática, reconociendo en ésta su carácter de lenguaje particular
para comunicar lo cotidiano.

2
En cuanto al contenido del diseño curricular, se propone enfatizar los significados y
las relaciones entre los conceptos, capacitando para el uso operativo de los mismos, en
detrimento de las deducciones formales de fórmulas y de su empleo mecánico.
Los conceptos se introducirán, a partir de la presentación de problemas que generen la
aproximación intuitiva de los alumnos, la discusión y la confrontación grupal.
Inicialmente se introducirán los temas que ayuden a reconocer el papel de la ciencia y la
investigación en el mundo actual, y la necesidad de abordarlos a través del uso de modelos
que llamaremos sistemas sociales, que incluyan los elementos fundamentales del problema
y sus relaciones.
Se plantea el rol del azar como resultado de la complejidad, su naturaleza
pluricausal y su incidencia en la vida cotidiana. Se conecta este concepto con una visión
indeterminista de la ciencia, asociando las nuevas miradas que significaron la física
cuántica y la teoría del inconciente. Para la introducción de esta temática se propone la
lectura de “La cuarta herida narcisística” de David Susel , “El fin de las certidumbres” de
Ilya Prigogine , “Lo inconciente” de Sigmund Freud y se toman ejemplos interesantes de
“Al Azar. La suerte, la ciencia y el mundo” de Ivar Ekeland y de “La domesticación del
azar” de Ian Hacking.
Luego se introducen los conceptos de población, muestra y variables, proponiendo
el análisis de problemas sociales concretos para su discusión en pequeños grupos.
El siguiente tema corresponderá a la estadística descriptiva, sus tabulaciones y los índices
que la representan, que se presentan a partir del trabajo grupal a partir de los datos de
investigaciones que proponen los docentes a la manera de ejemplos.
La introducción de los conceptos de índices estadísticos se hará después de la
discusión grupal acerca de lo que considerarían necesario para poder sintetizar los datos
recogidos. En este punto se enfatizará las características de cada medida de tendencia
central y de dispersión y la necesidad del uso de cada una de acuerdo a las necesidades que
plantee el problema.
Se trabajarán los conceptos de regresión y correlación de la estadística bivariada a
partir del análisis de problemas que involucren la posible asociación entre dos o más
variables. Se discutirán y confrontarán las ideas de los alumnos sobre la causalidad lineal y
la causalidad compleja y la necesidad de simplificar ésta a partir del modelo de la
correlación. Se diferenciarán estos modelos de acuerdo a que se trate de variables
cuantitativas o cualitativas.

3
Luego se analizan los conceptos ligados a la probabilidad, trabajando la idea desde
la significación del uso en el lenguaje cotidiano de este término. Se tomará alguna variable
social y se analizará su incidencia en una población, cuantificando intuitivamente la
distribución de los valores en la misma. Posteriormente, se trabajarán los datos de ejemplos
ofrecidos por los docentes, y se analizarán las propiedades más importantes de la
probabilidad a partir de la operación sobre los datos.
La introducción del tema de los modelos probabilísticos y el particular del modelo
normal para representar el comportamiento de ciertas variables, se hará a partir de la
proyección de los resultados en muestras cada vez más grandes, proponiendo el concepto
de distribución probabilística de una variable para su discusión. En este punto se
propondrá la creación grupal de una situación en la que un comportamiento social normal
se altera por alguna circunstancia, la incidencia del disturbio y sus probables consecuencias
sociales y el alcance de un nuevo equilibrio futuro.
La necesidad de la estandarización del modelo normal se formulará tratando de que
el alumno comprenda su utilidad y su alcance sin la mera utilización de una fórmula de
conversión sin significación para él. Se construirá el concepto de estandarización apelando
a los conceptos de dispersión y desviación estándar.
El siguiente tema a introducir es el de inferencia estadística y se lo hará a partir del
concepto de hipótesis y su necesidad de comprobación a partir de una investigación. Se
enfatizará la imposibilidad de confirmar una hipótesis cuando se toma un número grande
de datos pero se dejan de lado otros que además, en general, no están disponibles en el
campo de investigación. La necesidad de utilización de muestras y la probable distribución
de sus resultados culminan en la conceptualización de la distribución muestral como la
llave para evaluar la posible intervención del azar en los resultados. A partir de esto, se
promueve el trabajo grupal para arribar a la conclusión de que la estadística sólo puede
confirmar, dentro de un margen de error, si el resultado de la muestra es producto del azar
de muestreo o no, y que la confirmación de la hipótesis de investigación la realiza el
investigador a partir de esta información a su propio riesgo, ya que para un problema
existen muchas hipótesis posibles. En este punto se introducen los conceptos de hipótesis
nula, hipótesis alternativa, intervalo de confianza, nivel de significación, errores de Tipo I
y II y pruebas de una cola y de dos colas, como lenguaje de una lógica estadística que nos
permitirá tomar decisiones frente a la incertidumbre que implica la variabilidad compleja
de los sistemas sociales.

4
Por último, se propondrá una discusión grupal que se base en la reproducción del
recorrido que realiza la estadística desde el inicio de la propuesta del análisis de un
problema social hasta la elaboración de las conclusiones del investigador. Este paso
tenderá ha integrar y reconstruir, cuando fuera necesario, la secuencia del razonamiento
estadístico, ponderando la significación de sus conclusiones a partir del margen de error
que adopte el investigador y de sus limitaciones instrumentales.
Respecto de la metodología de enseñanza de la estadística, se partirá del supuesto
de que el educando construye su propio conocimiento en la interacción social con otros. La
complejidad de este proceso que involucra a un sujeto social con su historia singular dentro
de una cultura determinada invalida cualquier intento de suponer una única metodología
posible, por lo que se señalarán algunas pautas desde lo didáctico y lo interaccional que
parecen pertinentes para alcanzar los objetivos.
El rol docente se centrará fundamentalmente en la construcción de situaciones
didácticas tomando en cuenta los intereses y las vivencias de los alumnos, promoviendo la
aparición de las ideas intuitivas del estudiante que, a partir de la argumentación escrita u
oral, permitan un enriquecimiento conceptual en el trabajo individual ó en grupos
pequeños interactuando.
El trabajo sobre las los ejemplos prácticos permitirá desarrollar una tarea de
aplicación de los conceptos estudiados de manera progresiva para desarrollar una
investigación sobre objetivos predeterminados y que habrá que resignificar
periódicamente.
El docente priorizará la actividad de análisis de los resultados y de la detección de
las posibles causas de error, valorando el surgimiento de alternativas para aumentar la
confianza y la motivación de los estudiantes, lo que favorecerá el proceso de aprendizaje
de la estadística.
La introducción de nuevos conceptos requerirá del alumno una preparación previa a
partir de una guía de lecturas de la materia que se le suministrará al iniciar las clases. La
lectura previa del tema favorecerá el proceso reflexivo que favorezca la identificación por
parte del alumno de sus dudas y sus pre-conceptos y la discusión grupal posterior. El
profesor coordinará la discusión, despejando los obstáculos y enriqueciendo
conceptualmente el tema. Esta tarea posibilitará al docente la detección de las dificultades
en la aprehensión de los conceptos, e intensificar la discusión de algunos aspectos, como
así también los problemas de interacción grupal que dificulten el proceso.

5
En cuanto a la evaluación tomará como referencia los objetivos propuestos,
considerando los aspectos cognitivos, sociales y motivacionales.
Se priorizará en la evaluación la adquisición de la lógica del razonamiento
estadístico antes que en la correcta aplicación operativa de fórmulas. También será
importante evaluar la argumentación y los recursos que utiliza el alumno para justificar sus
argumentos, en la interpretación estadística de una situación social. La evaluación será una
situación didáctica más en la que el docente podrá valorar el proceso y tomar decisiones
acerca de las estrategias futuras, y el estudiante podrá reflejar su compromiso y su trabajo
en la construcción de su aprendizaje.
La estrategia de evaluación puede recurrir a diversos medios como: pruebas
escritas, realización de un proyecto de investigación, análisis de investigaciones
publicadas, exposiciones temáticas, talleres de discusión, etc.
A través de la evaluación el profesor comunicará al alumno lo que considera significativo
en el proceso de aprendizaje de la estadística y el alumno informará sobre sus intereses,
capacidades y dificultades.

6
Capítulo 1. Concepción de la ciencia en el Siglo XX
En el inicio del Siglo XXI la ciencia se encuentra en una encrucijada que pone en
cuestionamiento el paradigma epistemológico reinante durante los últimos tres siglos. La
vigencia de este paradigma hizo posible el avance del conocimiento de manera exponencial
y llevó a la humanidad a contar con adelantos tecnológicos inimaginables.
Si acordamos con Edgar Morin (1) que “un paradigma comporta un cierto número
de relaciones lógicas, bien precisas entre conceptos; nociones básicas que gobiernan todo
el discurso”, podríamos señalar que la revolución científica que comienza en el siglo XX
es la primera de toda la historia que involucra simultáneamente un cambio total de la red
de relaciones lógicas implícitas.
Las revoluciones científicas anteriores implicaban cambios paradigmáticos en el
seno de la ciencia en donde se producían, y a posteriori, originaban ó no cambios en el
resto de los campos científicos. Es así que pueden identificarse distintos momentos, desde
Copérnico pasando por Galileo y Darwin y culminando en Freud en el siglo XIX, en los
que la inversión del discurso se producía en el seno de cada campo científico. Pero estas
revoluciones mantuvieron incólume un concepto que se venía formulado desde los griegos
y reafirmado por Descartes: La “inteligibilidad de la naturaleza” que se alcanzaría a través
de un sistema de ideas generales lógico, coherente y en función del cual pueda explicarse
toda experiencia. Se privilegiaba la razón y su consecuencia directa, el pensamiento
deductivo.
La consecuencia de esta permanencia conceptual fue que los nuevos paradigmas
conservaron dentro de su red relacional la noción de determinismo científico, asociada al
principio de causa-efecto como fin último de todo conocimiento objetivo.
La ciencia moderna tuvo su origen en Galileo cuando, en lugar de contestar los silogismos
de Aristóteles con otro silogismo, subió a la torre de Pisa e introdujo el método de
observación y cálculo como forma privilegiada de alcanzar la objetividad. Pareció
alcanzar su punto culminante en Newton y su formulación de las leyes de la dinámica, que
impulsó a la ciencia a la búsqueda de leyes simples y eternas que explicaran el universo.
En este marco de referencia, el universo era una máquina determinista perfecta, y el
descubrimiento de las leyes que lo gobiernan implicaba el conocimiento del pasado, el
presente y el futuro del mismo.
Las leyes de la física describían un mundo idealizado y en permanente equilibrio.

7
La red conceptual del paradigma dominante en la ciencia clásica relaciona:
verdades permanentes, causa-efecto, leyes simples, sistemas cerrados, equilibrio, orden,
observador objetivo, razonamiento deductivo, determinismo.
A fines del siglo XIX y comienzos del XX empieza el desmoronamiento de este
marco determinista científico, situación que continúa en los albores del siglo XXI y que
involucra a todos los campos científicos, desde las ciencias físicas pasando por las ciencias
naturales y culminando en las ciencias sociales.
El desarrollo de la teoría atómica hizo caer las certezas mecanicistas, al demostrar
la inutilidad de las leyes newtonianas a nivel microfísico y la teoría de la relatividad asestó
un golpe mortal a la física clásica.
Es así que la teoría mecanicista, que representó un valor incalculable para el
adelanto científico en todos sus campos, se revelaba falsa en sus ideas básicas de fuerzas y
fluidos.
Como sostiene Morin:
Gracias al método que aísla, separa, desune, reduce a la unidad, mide, ha
descubierto la ciencia la célula, la molécula, el átomo, la partícula, las galaxias,
los quásars, los púlsars, la gravitación, el electromagnetismo, el quántum de
energía, ha aprendido a interpretar a las piedras, los sedimentos, los fósiles, los
huesos, las escrituras desconocidas, incluida la escritura inscripta en el ADN. Sin
embargo, las estructuras de estos saberes están disociadas entre sí.”
...Hoy nuestra necesidad histórica es encontrar un método que detecte y no oculte
las uniones, articulaciones, solidaridades, implicaciones, imbricaciones,
interdependencias y complejidades.....
Sólo podemos partir en la ignorancia la incertidumbre, la confusión. Pero se trata
de una nueva conciencia de la ignorancia, de la incertidumbre y de la confusión.
De lo que hemos tomado consciencia no es de la ignorancia humana en general,
sino de la ignorancia agazapada, disimulada, cuasi-nuclear, en el corazón de
nuestro conocimiento reputado como el más cierto, el conocimiento científico. ...La
incertidumbre deviene viático: la duda sobre la duda da a la duda una nueva
dimensión, la de la reflexividad. En fin, la aceptación de la confusión puede
convertirse en un medio para resistir a la simplificación mutiladora. Ciertamente,
el método nos falta desde el comienzo; al menos podemos disponer de un anti-
método en el que la ignorancia, incertidumbre, confusión se conviertan en virtudes.
(El Método pág.25-29)

Señala Morin que la lógica deductiva se muestra insuficiente para dar una prueba
cuando se enfrentan dos concepciones de las partículas: una concepción ondulatoria y una
concepción corpuscular. Niels Bohr demuestra que estas concepciones contradictorias son,
en realidad, complementarias, puesto que empíricamente los dos fenómenos aparecían en
condiciones diferentes.

8
Si se completa este panorama con la aparición del movimiento azaroso a nivel de
partículas, se comprenderá el cambio en el paradigma que representa la caída de la idea de
simplicidad de las leyes, instalándose las nociones de complejidad e incertidumbre.
Podemos concluir con Morin:
Podemos tanto más tener confianza en estas exclusiones de la ciencia clásica en
cuanto que han llegado a ser pioneras de la nueva ciencia. El surgimiento de lo no
simplificable, de lo incierto, de lo confuso, a través de lo cual se manifiesta la crisis
de la ciencia del Siglo XX es, al mismo tiempo, inseparable de los nuevos
desarrollos de esta ciencia. Lo que parece una regresión, desde el punto de vista de
la disyunción, de la simplificación, de la reducción de la certidumbre (el desorden
termodinámico, la incertidumbre microfísica, el carácter aleatorio de las
mutaciones genéticas) es, por el contrario, inseparable de una progresión en
tierras desconocidas. Más fundamentalmente, la disyunción y la simplificación
están ya muertas en la base misma de la realidad física. La partícula subatómica
ha surgido en forma irremediable, en la confusión, la incertidumbre, el desorden.
Cualesquiera que sean los desarrollos futuros de la microfísica, no se volverá ya al
elemento a la vez aislable, simple e indivisible. Ciertamente, confusión e
incertidumbre no son y no serán considerados aquí como las palabras últimas del
saber: son los signos precursores de la complejidad.

En las tres últimas décadas las investigaciones de Ilya Prigogine y sus seguidores
demuestran que la irreversibilidad, poco considerada por la física, es más frecuente en el
universo que la reversibilidad, por lo que proponen la inclusión del tiempo como variable
para marcar la evolución en la física y prioriza el estudio del desorden como creador de
orden.
Contemporáneamente con la formulación de la física cuántica, dentro de la
psicología, Sigmund Freud descubre una instancia psíquica que llamó Inconciente que
revolucionaría la ciencia de la conducta privilegiando la ausencia de la certeza en el campo
de los sistemas sociales. Tanto Freud como sus continuadores extendieron este concepto a
la conducta social por lo que la complejidad y la incertidumbre se instalan, paralelamente a
las ciencias físicas, también en las ciencias sociales.
Desde Freud ya se sabe que “no se conoce lo que se quiere sino lo que se puede”,
ya que en el hombre actúan otras instancias, además de las concientes, y que tendrán que
ver con su experiencia vital y la de la especie. Esto significa que no es posible un
conocimiento objetivo ya que el aparato psíquico no es un sistema cerrado.
Si se suma a esto, la comprobación desde el campo de las ciencias físicas, de que es
imposible aislar al observador ya que éste interviene modificando las condiciones en el
estudio de cualquier fenómeno físico, comprenderemos los caminos paralelos que siguen
ambos campos científicos.

9
Los antiguos ideales griegos de inmutabilidad y universalidad del conocimiento y
sus leyes, que sostienen el paradigma de la ciencia moderna, comienzan a caer dando paso
a la emergencia de una concepción indeterminista basada en la incertidumbre y el azar.
Los procesos de no-equilibrio y la participación del caos en la creación del orden aparente
del mundo físico se transformó en una cuestión fundamental para la nueva ciencia.
Estas nuevas teorías, tanto en las ciencias naturales como en las sociales, son señales que
obligan a pensar la naturaleza comportándose de manera más compleja a lo esperado. Ya
no es posible compartimentar el conocimiento, y tratar de comprender los fenómenos como
una sumatoria de sistemas que actúan aisladamente, para pasar a considerar la compleja red
de sistemas en interacción permanente e incorporar dentro del planteo a la incertidumbre y
el azar. Dentro del nuevo paradigma las leyes causales deben interpretarse como leyes
probabilísticas.
Históricamente, la estadística surge como necesidad de la ciencia para cuantificar
aquellas situaciones para las que no existían leyes causales y su intervención era una
situación no deseada pero inevitable dentro del pensamiento científico moderno.
Dentro del nuevo paradigma en ciernes, la función de la estadística se torna irremplazable
ya que se trata de la única metodología cuantitativa que puede medir e interpretar la acción
del azar en el marco de la complejidad inherente a los sistemas sociales.
Aún cuando ya se sabe que es imposible estudiar cualquier sistema de la naturaleza
aisladamente, por la implicancia del propio investigador, esto es más evidente en el estudio
de los sistemas sociales, en los que el hombre y sus relaciones son factores determinantes.
En la génesis de toda conducta social podemos reconocer factores previsibles, que
dependen de la historia y del contexto, y factores imprevisibles en los que no puede
identificarse influencia alguna. Evaluar aspectos de la conducta social implicará poder
discriminar la contribución de ambos factores.
La únicas herramientas que permiten interpretar cuantitativamente los sistemas
sociales desde cualquier mirada disciplinar son las que provee la metodología estadística.
Su aplicación deberá relativizar la lógica racional en favor de una lógica probabilística,
abandonando toda idea de certeza y de verdad.
Si sumamos a este panorama, el volumen creciente de información que es necesario
manejar ágil y eficientemente, se entenderá que las herramientas estadísticas proporcionan
el apoyo necesario para asimilar, criticar y contrastar la información recibida.

10
Tomando en cuenta la definición de David Susel de la estadística como “el arte de
tomar decisiones inteligentes frente a la incertidumbre” podemos comprender que la
estadística es más un ejercicio de lógica que de práctica matemática.
Siendo la estadística una disciplina matemática que, introduciendo el concepto de
probabilidad permite el acceso a un modo de pensamiento donde la incertidumbre forma
parte del razonamiento científico, suele ser explicada utilizando únicamente un lenguaje
predominantemente matemático.
Frecuentemente, en su enseñanza se prioriza el uso de leyes y procedimientos
mecánicos de aplicación en desmedro de la comprensión de conceptos y de la adquisición
de un pensamiento estadístico, provocando un efecto de ininteligibilidad en estudiantes de
disciplinas sociales, poco familiarizados con los conceptos matemáticos.
Actualmente, el profesional tiene la posibilidad de resolver toda la operación
matemática a instrumentos derivados de la informática, pero que no sabrá utilizarlos si no
conoce la lógica del procedimiento estadístico.
Entender el valor de la significación estadística y por lo tanto su validez como
técnica de investigación social no requiere ningún conocimiento especial y sólo apela a una
lógica específica que se utiliza permanentemente en la vida cotidiana, y en muchas
ocasiones de manera intuitiva.
Las pruebas estadísticas fueron creadas para ayudar al investigador a elaborar
conclusiones más razonables. La deficiente comprensión del nivel de significación de las
pruebas estadísticas es el problema más frecuente en los profesionales que las aplican.
La Psicoestadística es una rama de la psicología que se vale de los aportes de la
estadística para elaborar sus interpretaciones. A partir de su utilización puede operarse
sobre cuestiones que involucren un alto monto de impredictibilidad, como por ejemplo, la
prevención de trastornos psicopatológicos a nivel comunitario. Pero su campo de
aplicación en la investigación es mucho más amplio, y para comprender su importancia es
necesario analizar lo que ocurre en otras disciplinas científicas. Este análisis se centrará,
así, en la consideración del azar como una de las influencias decisivas de la evolución del
conocimiento científico.
La Psicología participa del brillante desarrollo de la ciencia occidental en los
últimos dos siglos. Sus teóricos, en los que sobresalió en forma excluyente Sigmund Freud,
provenían de la medicina y particularmente de la neurología, por lo que su labor estuvo
impregnada por las características predominantes en dichas ramas científicas.

11
Analizar, en perspectiva histórica, la situación de la ciencia en los orígenes de las
ideas fundamentales de la psicología permitirá comprender mejor los actuales desarrollos y
sus relaciones con otras disciplinas.
1.1. Determinismo científico
La ciencia posibilita una mejor comprensión de la realidad y su método se basa en
un proceso de análisis y crítica desarrollando teorías que se confrontan con la evidencia
empírica y con otras teorías.
En los albores del pensamiento occidental, los presocráticos se preocuparon por dos
cuestiones fundamentales, que aún hoy son fuente de interrogantes para filósofos y
científicos, y pueden resumirse en dos preguntas: ¿El universo se rige por leyes
deterministas? ¿Cuál es el papel del tiempo?.
Estos temas dominaron el pensamiento de los antiguos griegos y, junto con otras
preocupaciones, sirvieron para que legaran dos ideales que han guiado el pensamiento
occidental hasta la actualidad:
1. La inteligibilidad de la naturaleza, que promueve el desarrollo de un
sistema de ideas generales necesario y coherente, y en función del cuál puedan ser
interpretados todos los elementos de la experiencia.
2. La democracia, basada en las premisas de libertad, creatividad y
responsabilidad humana.

El conocimiento científico, tal como se interpreta actualmente, nace a partir de la


aparición del método operacional que da origen a la ciencia experimental.
Con este salto cualitativo de principios del Renacimiento, el hombre creyó
encontrar un modo objetivo de estudiar la naturaleza que diferenciaba claramente la
filosofía de la ciencia.
El eslabón inicial de este proceso se ubica en los trabajos de cuatro astrónomos:
Copérnico, Kepler, Galileo y Newton. Estos dos últimos, que además eran físicos,
culminaron sus experimentos con el descubrimiento de la gravedad y la atracción terrestre.
Sobre estos pilares se estructuró el desarrollo de los logros más espectaculares de la
ciencia del Siglo XVII.
A estas leyes habría que agregar los dos principios de la Termodinámica de
Clausius que, además de postular la constancia de la energía del universo, a través del
concepto de entropía interpreta los procesos naturales irreversibles.

12
A partir del trabajo de estos investigadores surgen los filósofos empiristas para
fundamentar el nuevo método de obtener conocimiento. Babon, Hobbes, Locke, Berkeley
y Hume justifican el empirismo como el único camino para conocer la verdad y al
procedimiento inductivo como el método lógico para deducir conocimientos generales a
partir de experiencias particulares. Estos autores intentaron desarrollar un sistema de
inferencia racional para obtener un conocimiento general. Como consecuencia de esta
visión, el proceso científico era un proceso lineal y acumulativo y las teorías constituían la
organización lógica de las leyes experimentales.
La elaboración de este concepto de ciencia da un paso adelante cuando Comte
fundamenta el positivismo considerando a la experiencia empírica y sus consecuentes leyes
como única fuente de certidumbre.
Pensadores como Poincaré y Pearson, entre otros instalaban a esta ciencia de base
empírica como una guía pragmática para enfrentar la vida.
Tanto para el empirismo como para el positivismo el Universo se constituye a partir
de fenómenos que se conectan casualmente entre sí y dichas conexiones podían descubrirse
a partir del proceso inductivo aplicado al método experimental.
Este camino demostró su enorme potencial al impulsar los grandes descubrimientos
científicos de los últimos tres siglos, que se tradujeron en la amplia hegemonía de las leyes
de la mecánica newtoniana en la física y la concepción kantiana de la filosofía.
Las leyes de Newton explican el movimiento de las partículas materiales en función
del tiempo y eran aceptadas como la expresión del conocimiento ideal, objetivo y
completo, y en ellas el tiempo es reversible y expresa la equivalencia entre pasado y futuro.
En cambio, a partir del Siglo XIX el principio de entropía, también universalmente
aceptado, demostró que el tiempo no es equivalente en pasado y futuro. Algunos
científicos han tratado de explicar esta contradicción con argumentos discutibles y
simplificadores.
Hume ya había planteado limitaciones lógicas al conocimiento inductivo, pues
independientemente de cuántas observaciones se hayan hecho de una regularidad, esto no
da ninguna garantía lógica de que volverá a ocurrir del mismo modo en la siguiente
ocasión.
Las hipótesis mecanicistas, que parten de las leyes de la mecánica clásica, que
poblaron las teorías de fuerzas que actuaban a distancia en todos los campos de la
naturaleza, comienzan a tambalear con los descubrimientos de la física atómica, al
demostrar ésta que las partículas atómicas no obedecían a las leyes de Newton y, por el

13
contrario, tenían movimientos azarosos impredecibles explicados por una nueva ley (de
Schrödinger)..
Puede afirmarse con Susel: “...la concepción mecánica, de valor incalculable para la
ciencia, refrendada por las predicciones que permitió hacer sobre la existencia de planetas
desconocidos, con los cuales se completó el conocimiento astronómico del sistema
planetario, y a la cual se deben miríades de adelantos en todas las regiones del pensamiento
se basaba, no obstante, en ideas mágicas de fuerzas y fluidos que, más que hipótesis eran
fantasías.”
La salida al dilema de Hume fue elaborada por Popper (1972) al postular que toda
teoría, modelo o ley científica es una conjetura de cómo es la realidad. De acuerdo con
Popper, el énfasis del investigador debe centrarse, al contrario de cómo lo plantea la
ciencia tradicional, no en probar que la teoría es verdadera sino en demostrar que no es
falsa. Toda teoría, ley o hipótesis es una conjetura que será valorada en su poder
explicativo y general siempre que supere los intentos rigurosos de refutarlas.
Desde esta perspectiva, los datos experimentales sirven para plantear una hipótesis
científica que se pone a prueba por medio de la crítica lógica y empírica. Si los hechos
apoyan la teoría, no podemos pensar que la justifican sino que, hasta ahora no ha sido
refutada.
Este esquema para entender el conocimiento refuerza aún más la importancia del
razonamiento lógico, que deviene de los filósofos griegos, al enfatizar el mecanismo del
pensamiento hipotético-deductivo aplicado al trabajo experimental.
Este punto de vista hace impensable la inclusión del azar como determinante en algunos
fenómenos como se ha descubierto, por ejemplo, en la mecánica cuántica.
En las últimas décadas, algunos científicos orientados por Ilya Priogine, intentan crear una
nueva formulación de la dinámica que supere la contradicción de la física clásica puesta en
evidencia por la física cuántica.
Prigogine señala que la pretensión de la lógica racional de un encadenamiento
causal, de tal manera que todo efecto tiene una causa y se transforma a su vez en causa de
un efecto posterior, provoca una tensión y contradice la creencia en la libertad del hombre
para poder elegir entre varios caminos a seguir.
A esta paradoja del sentido común W. James la llamó el dilema del determinismo.
Este dilema dispara dos interrogantes: ¿El futuro está dado o en perpetua construcción?,
¿Es la creencia en nuestra libertad una ilusión?. Implícitamente estas cuestiones
interrogan acerca del concepto del tiempo. El tiempo es un concepto incorporado a la

14
física y también es la dimensión fundamental de nuestra existencia. Este tiempo de la
física es el tiempo de Einstein cuando afirmaba... ”el tiempo es una ilusión”; es el tiempo
de las leyes, desde la física clásica hasta la relatividad y la teoría cuántica, que no
distingue entre pasado y futuro. Es el tiempo de los procesos en equilibrio.
Al desarrollarse la física del no-equilibrio y de los procesos caóticos y demostrarse
que son acontecimientos fundamentales en el desarrollo de los fenómenos naturales en
todos los campos del conocimiento (química, geología, cosmología, biología, ciencias
sociales, etc.) pasado y futuro juegan roles diferentes.
Esta situación dilemática en el campo de las ciencias se denomina la paradoja del
tiempo y es la extensión del dilema del determinismo a la física.
Hoy se sabe que los fenómeno físicos del universo no existen como sistemas aislados y
cerrados y que las condiciones en que se desarrollan son diferentes de punto a punto y
hacen ilusoria la pretensión de las condiciones de equilibrio propuestas por la leyes
mecanicistas.
Esto, que es evidente en las ciencias biológicas y sociales, donde se admite que un
pequeño acontecimiento puede cambiar el curso de la historia, no era tan visible en la
física.
Boltzman, en el siglo XIX creyó posible asimilar el concepto de evolución de
Darwin a los fenómenos físicos pero sus intentos fueron negados por la comunidad
científica.
En la actualidad la mayoría de los físicos consideran a las leyes de la mecánica
cuántica como las definitivas, no distinguiendo un papel diferenciado del tiempo entre
pasado y futuro.
Esta situación puede pensarse desde lo expresado por Susel como resultado de la
necesidad de defenderse ante la incertidumbre que genera el pensar al tiempo como una
variable que afecta la permanencia de las leyes físicas.
Resolver esta paradoja e incorporar el concepto de Prigogine de flecha del tiempo,
en el que el tiempo juega un rol cronológicamente diferente, es el desafío de la ciencia en
nuestros días.
Este concepto aparece a partir de que, los procesos naturales en equilibrio son los
menos, y lo más frecuente son los desequilibrios, que provocan modificaciones
irreversibles a partir de las cuales cambian las condiciones de representatividad de las leyes
físicas. Lo que es aceptado universalmente en el campo de la evolución biológica, se
extiende a otras áreas de la ciencia.

15
A partir de este nuevo concepto las leyes fundamentales ahora expresan
posibilidades y no certidumbres. Las leyes de la física clásica vinculadas al conocimiento
completo y certero cobran un nuevo sentido al expresar posibilidades.
Como señala Prigogine...”la cuestión del tiempo y el determinismo no se limita a la
ciencia; está dentro del pensamiento occidental desde el origen de lo que denominamos
racionalidad y que situamos en la época presocrática. ¿Cómo concebir la creatividad
humana ó pensar la ética en un mundo determinista?...hoy estamos en el punto de partida
de una nueva racionalidad que ya no identifica ciencia y certidumbre, probabilidad e
ignorancia... Asistimos al surgimiento de una ciencia que ya no se limita a situaciones
simplificadas, idealizadas, mas nos instala frente a la complejidad del mundo real.”
Prigogine sugiere llamar a la nueva dinámica: mecánica estadística.
1.2. Conocimiento científico desde la psicología
Desde la mirada de la psicología, el método experimental, con su concepción
mecanicista, abarca dos aspectos: la superación del dogmatismo filosófico que lo impulsa a
obtener los grandes logros científicos de los últimos siglos, y por otro lado, una tendencia
regresiva hacia fases anteriores del desarrollo en donde reina el pensamiento mágico y
omnipotente expresado en el principio de causa-efecto y su fantaseado horizonte de leyes
universales simples que permitan explicar el pasado, justifiquen el presente y predecir el
futuro.
La visión determinista de la física clásica parecía triunfante en su hegemonía
considerando los descubrimientos de la astronomía y de la física en los siglos XVII, XVIII
y XIX, pero a principios del siglo XX surgen los descubrimientos de la física atómica que
demuestran la no obediencia de las partículas sub-atómicas a las leyes dinámicas de
Newton, y su movimiento azaroso debe explicarse mediante la metodología estadística. Lo
que aparentemente se cumplía en el mundo macroscópico no era verificable en el nivel de
las partículas microscópicas.
Sin embargo, tanto M. Planck como A. Einstein no aceptaron la explicación
probabilística-estadística y hasta el final polemizaron con los físicos que comenzaban a
considerar el azar como una causa más del comportamiento de los fenómenos naturales.
Todo intento de reinterpretación determinista de la física atómica fue refutado pero
aún así la resistencia al cambio por parte de muchos científicos fue ostensible.
Desde el punto de vista psicológico esta resistencia puede interpretarse como una
defensa frente a la angustia provocada por el abandono de la idea de certeza que conllevan
las leyes universales deterministas. La resistencia a abandonar la concepción determinista

16
que aún hoy se manifiesta, es una defensa, una racionalización que se pone en juego frente
al conflicto que significa abandonar la pretensión omnipotente de alcanzar el conocimiento
universal y completo.
Así como el desarrollo de la física cuántica a fines del siglo XIX fue, sin
proponérselo los propios investigadores, el disparador de una visión indeterminista de la
ciencia, contemporáneamente, en psicología surgen los descubrimientos de S. Freud acerca
del inconciente y su influencia. La imposibilidad de la certeza absoluta y definitiva, que
comienza a esbozarse en la física, se verifica también en la esfera de la conducta. No es
casual que estos dos procesos coincidieran históricamente, como así también que sus
descubridores siguieran aferrados a una visión determinista de la ciencia. La noción de
inconciente instituyó la incertidumbre en la explicación de la conducta a nivel psicológico,
así como la noción del movimiento azaroso de las partículas atómicas lo hizo en la física.
Lo azaroso en psicología habría que buscarlo en el principio de policausalidad con
que opera el funcionamiento psíquico, ya que si bien la aparición de síntomas está ligada a
elementos del pasado, éstos son necesarios pero no suficientes, y debe considerarse la
influencia del contexto con sus connotaciones azarosas.
Freud demuestra que el proceso cognitivo no depende sólo de la conciencia y que
factores inconcientes pueden impulsar a la negación de un aspecto de la realidad ó de una
nueva idea que ponga en peligro los intereses yoicos. Estos ataques a la primacía del yo
son ataques al narcisismo del hombre y si se producen por la aparición de grandes cambios
en la teorías del conocimiento – revoluciones científicas – se transforman en heridas
narcisístas que motorizan la resistencia a dichos cambios.
Freud enfatiza esta situación con su formulación de las tres heridas fundamentales
que ha sufrido el hombre a través de la historia: la primera llamada “cosmológica” se
produce a partir de los descubrimientos de Copérnico del heliocentrismo del sistema
planetario terrestre que desplaza a la Tierra del centro del mismo; la segunda, herida
“biológica”, cuando Darwin demuestra que el hombre proviene de una evolución desde
especies animales inferiores elimina la superioridad abismal que el hombre suponía
respecto de las otras especies; y por último, la herida “psicológica”, que se produce con el
descubrimiento del inconciente y su influencia impredecible y, por lo tanto, incontrolable
sobre la conducta humana. En los tres momentos históricos el hombre sufre un ataque que
pone en peligro la seguridad y la omnipotencia de los intereses yoicos que aseguraban las
teorías vigentes hasta ese momento.

17
Siguiendo esta línea de pensamiento, D. Susel propone una cuarta herida
narcisísta que se manifiesta en el Siglo XX y la llama “epistemológica”, y que se produce
cuando se demuestra que la Naturaleza puede obedecer a leyes probabilísticas y por lo
tanto no certeras y el hombre debe abandonar sus ideas de alcanzar leyes universales.
En todos estos momentos históricos se produjeron fuertes movimientos de
resistencia a las nuevas teorías, algunos de los cuales aún hoy se manifiestan y que dejaron
huellas a semejanza de los “puntos de fijación” del aparato psíquico, que promueven el
retorno de las teorías perimidas que brindan mayor seguridad yoica
1.3. La Estadística y su aplicación en Psicología
Si bien pueden ensayarse distintas definiciones de Estadística, parece pertinente
partir desde la perspectiva de Susel: “La Estadística es el arte de tomar decisiones
inteligentes frente a la incertidumbre”.
En su análisis Susel señala que el esquema determinista de la ciencia basado en el
modo de pensamiento hipotético-deductivo para elaborar sus teorías universales
sobrevalora el uso de la razón hasta convertirla, en muchas ocasiones, en una
racionalización defensiva que impide el avance científico.
La nueva visión indeterminista utiliza las leyes probabilísticas que incorporan la
incertidumbre presente en todo fenómeno de la Naturaleza y permite tomar decisiones sin
el auxilio de leyes universales. Este esquema, según Susel, valora la inteligencia para
sortear momentos en que la razón no satisface la demanda del científico.
La ciencia debe abandonar su pretensión de leyes universales e ir en pos de leyes
probabilísticas. La nueva ciencia será una ciencia probabilística.
Si bien lo señalado hasta aquí es válido para todas las ciencias, es quizá obvio en las
ciencias sociales, donde se analizan fenómenos que, por su complejidad causal manifiestan
un alto grado de incertidumbre.
El objetivo de la aplicación de las técnicas estadísticas es la predicción, dentro de
un marco de incertidumbre, de la evolución de un fenómeno determinado bajo ciertas
condiciones. En ciencias naturales se analiza el comportamiento de la materia según
diferentes perspectivas – físicas, químicas, etc. – mientras que en ciencias sociales se
estudian problemas mucho más complejos que involucran al hombre con sus diferencias
individuales y sus distintos modos de interactuar.
La complejidad de los fenómenos sociales se traduce en acciones en donde el factor
aleatorio – el azar – es un componente fundamental. La técnica estadística, al operar según

18
la teoría de las probabilidades, permite analizar y predecir en todo problema en el que
intervenga el azar.
Si la mirada del problema social está centrada en la conducta del hombre en
diferentes circunstancias, la estadística se transforma en una herramienta imprescindible
para la Psicología.
1.4. Cómo opera la Estadística en una investigación científica
Si se quiere sintetizar en tres palabras cómo opera el método estadístico para la
toma de decisiones, puede decirse que la estadística contrasta el azar.
Así como en las ciencias naturales es necesario acudir a modelos para el análisis de
los fenómenos – gases ideales, sistemas aislados en equilibrio, etc. – en ciencias sociales
pueden analizarse los problemas únicamente a partir de modelos que representan lo más
fielmente posible el comportamiento del sistema social en cuestión.
Los modelos deben tomar en cuenta los factores intervinientes y su forma de
interrelación. Por fortuna, existen ciertas regularidades en el comportamiento de los
factores sociales, por lo que hay pocos modelos a los que se debe recurrir eficientemente.
Dentro de estos, el más usado en aplicaciones estadísticas en psicología es el llamado
modelo normal.
Es este curso se estudiará cómo se utiliza el modelo normal para describir y/o
predecir aspectos referidos a fenómenos de comportamiento en sistemas sociales y a
señalar algún otro modelo que se utiliza bajo condiciones particulares.
Un modelo estadístico es un modelo de comportamiento probable del factor
estudiado en el sistema social involucrado bajo ciertas condiciones. Estas condiciones se
establecen para asegurar la aleatoridad del sistema. En otras palabras, describe
matemáticamente cual es el comportamiento probable de dicho factor si todos los
elementos del sistema estudiado tienen la misma posibilidad de intervenir y por lo tanto
pueden elegirse azarosamente.
El método de inferencia estadística permite contrastar los resultados de una
investigación con los valores que establece, para la problemática en estudio, la distribución
de probabilidades que mejor se adapta al conjunto total de los elementos estudiados y del
cual se extrajeron los datos empíricos.
Cuando se inicia una investigación se debe plantear una hipótesis que pueda ser
corroborada a posteriori. Estas hipótesis surgen de los conocimientos previos acerca del
fenómeno estudiado que el investigador posee y que son el soporte que justifican la

19
necesidad de investigar. Estos datos previos se refieren a los diferentes factores que
determinan el comportamiento de los elementos analizados (unidades experimentales).
En los problemas asociados al comportamiento humano está demostrado que,
cuando se analizan a escala macrosocial, los factores determinantes se distribuyen de tal
forma que los más frecuentes corresponden a valores medios y van disminuyendo en
cantidad los valores que se alejan tanto para un extremo ú otro de la distribución. Esta
característica se intensifica a medida que crece el número de elementos estudiados.
Este comportamiento de los factores sociales puede representarse, como se verá
más adelante, mediante el modelo de la distribución normal de probabilidades. En el
contraste de los datos experimentales con este modelo se basan la mayoría de las técnicas
estadísticas que se utilizan en psicología.
Como ya se señaló, la estadística proporciona una serie de técnicas para organizar
la información científica y tomar decisiones a partir de ella.
Una investigación se refiere, en general, a un conjunto de datos que provienen de
objetos, animales ó personas. Un psicólogo, por ejemplo, puede querer observar si hay
alguna regularidad en la conducta de distintos grupos de pacientes frente a un mismo
estímulo, sabiendo que analizados en forma individual seguramente existen diferencias en
el comportamiento.
La investigación en psicología es, por lo tanto, de capital importancia en áreas
como la de patologías psicosociales (adicciones, alcoholismo, trastornos alimenticios, etc.)
para encarar un tratamiento eficaz ó para tareas en prevención.
Si bien la investigación y el pensamiento estadístico están incorporados al comportamiento
individual, desde un lugar ligado a la intuición y al sentido común, aquí se explorará esta
interrelación desde una mirada más rigurosa y científica.
Bibliografía (adicional a la que figura en el programa de la materia)
Hacking I. (1991) La domesticación del azar. Barceloma: Ed. Gedisa
Morin E. (1977) El Método. Vol. 1. Madris: Ed. Cátedra
Prigogine I. ¿Tal solo una ilusión? Ed. Tusquets, Barcelona (1983)
Prigogine, I. (1991) El nacimiento del tiempo. Barcelona: Ed. Tusquets
Prigogine I. y Stengers I.(1991) Entre el tiempo y la eternidad. Bs. As.: Ed. Alianza
Schnitman D. (Comp.) (1994) Nuevos paradigmas. Cultura y subjetividad. Bs. As.: Ed
Paidos
Wagensberg J. (Comp)(1996) Proceso al azar. Barcelona: Ed. Tusquets
Wagensberg J. (1985) Ideas sobre la complejidad del mundo. Barcelona: Ed. Tusquets

20
Capítulo 2. Los principios de la Estadística

Ante el término Estadística es probable que se evoquen cifras, extensos cuadros,


tablas de números, datos económicos y demográficos, gráficos, porcentajes, etc. En
general, lo cierto es que la actitud de la mayoría de las personas, ante la Estadística, es de
escepticismo cuando no de ironía. Ahora bien, independientemente de las opiniones
subjetivas, no puede negarse que la Estadística es un instrumento que circula e interviene
en los ámbitos y dominios más diversos y cotidianos y específicamente en el campo de la
investigación. Se hace estadística cuando se estima el tiempo probable para llegar a un
punto “x” de la ciudad un día viernes en que el aumento del transito es una constante. Pero
también se hace estadística cuando se repiten o reiteran experiencias u observaciones de un
fenómeno para extraer conclusiones acerca de un hecho ya sea en el campo de las ciencias
sociales o las ciencias naturales. Con mayor o con menor precisión o sistematización se
esta haciendo un recuento o inventario de sucesos.
En la historia de la humanidad aparece la estadística expresando diversos censos o
recuentos :
• En la Biblia, el cuarto libro del A.T., Números, se destaca por la preocupación de los
israelitas por la precisión numérica :
− dos censos ( caps. 1-4; 26)
− reglamentaciones de los sacrificios ( caps. 28-29)
− instrucciones en el reparto del botín (caps. 31)
− división del territorio alrededor de las ciudades levíticas (35. 1-8)
• En el Nuevo Testamento, Lc. 2. 1-5, se menciona el censo ordenado por el
emperador Augusto, en vísperas del nacimiento de Cristo.
• En Egipto se encontraron vestigios de cierto tipo de administración, organización y
movimientos poblacionales sistematizados y anotados con periodicidad.
• En China, Confucio (500 a.C. ) narra un censo realizado por el Rey Yao (3000 a.C.),
que realizó una estadística agrícola y un relevamiento comercial del país.
• En Grecia, Platón, menciona un diálogo entre Socrates y Glauco en el que destacan
la importancia de la estadística para el “hombre de gobierno”.
• Imperio Romano, los censos calculaban la cantidad de ciudadanos y sus bienes.
• En Inglaterra, en el 1000 d.C., el Rey Guillermo “el conquistador”, estableció un
censo o documentación administrativa.

21
• En Italia, al final de la Edad Media y en el Renacimiento se registran datos
estadísticos.
• La Iglesia, en el Concilio de Trento, introduce la obligación de inscribir los
matrimonios, nacimientos y muertes.
• Con German Cönning, (1600-1681), en el siglo XVII aumentan los datos oficiales y
se sistematiza la estadística como descripción de los aspectos más notables de un
Estado. Funda, en Alemania, la Estadística Universitaria, puramente descriptiva, al
mismo tiempo que en Inglaterra surgen los “aritméticos políticos” que pretendían crear
un estadística investigadora, derivando de esta dos tendencias : Cálculo probabilístico,
probabilidades y curva de Gauss y Cálculo demográfico.
Si bien fue definida la estadística en la unidad anterior de manera conceptual a
partir de lo señalado por Susel, es posible definirla en forma operacional:

La Estadística es un método científico para recolectar, organizar, resumir, presentar y


analizar datos correspondientes a un conjunto de individuos u observaciones, para luego
sacar conclusiones válidas y tomar decisiones lógicas y razonables basadas en el análisis
de dichos datos.

La Estadística es un rama de la matemática que tiene por objeto el estudio de los


fenómenos que se presentan dentro de un marco de incertidumbre y, por lo tanto, no
explicables mediante leyes ni apelando al pensamiento deductivo. Es el estudio de la
tendencia de los resultados variables cuando las observaciones se hacen en condiciones
idénticas y sus resultados son impredecibles desde el punto de vista del observador. Los
fenómenos, que se presentan en gran número, dependen de una gran variedad de causas.
Por lo tanto, la Estadística es un método especialmente adecuado para el estudio
cuantitativo de fenómenos de masa o colectivos fuertemente influidos por una multitud de
causas complejas, como los fenómenos sociales.

22
Funciones de la Estadística

Describir Inferir o generalizar

Estadística Estadística
Descriptiva Inferencial

• Describe la realidad tal como • Es un conjunto de técnicas que


se la observa permiten hacer inferencias o
• Se utiliza para sintetizar generalizaciones a partir de una
grandes cantidades de datos pqequeña cantidad de datos

Técnicas Técnicas

• Estadística gráfica. • Elección al azar de una


• Medidas de tendencia muestra
central. • Distribución muestral
• Medidas de orden. • Probabilidad
• Medidas de variabilidad/
dispersión

La Estadística se aplica a distintos campo científicos: Psicopedagogía, Psicología,


Sociología, Biología, Física, etc. Las diversas ramas del saber aplican los criterios
estadísticos para extraer información útil de la gran cantidad de observaciones y registros
que se realizan, mediante la descripción y la síntesis precisas de lo que se ha observado. Es
un procedimiento que se facilita con la asignación numérica a las observaciones.
La Estadística aplicada a la Psicología se denomina Psicoestadística

23
2.2. Estadística Descriptiva

Un esquema de las funciones de la Estadística descriptiva es el siguiente:

Ciencias Sociales/ Naturales observaciones en Descripción


gran número

Estadística asigna valores Síntesis

Cuando se ha definido el problema a resolver, está delimitada el contexto de


estudio, están determinados los objetivos de la investigación y los factores que se quieren
estudiar y ya se cuenta con una cierta cantidad de datos, es momento entonces de obtener
de estos toda la información útil para la investigación. De esto se encarga la Estadística
descriptiva.
Una vez que se ha realizado la recolección de los datos observados, procede a
organizarlos y resumirlos para describirlos sin obtener más conclusiones que los que estos
datos aportan. Esta descripción informa la localización, dispersión y forma de distribución
de los datos por medio de descripciones gráficas y numéricas.
Aunque esta descripción es importante e imprescindible, generalmente no es suficiente. Se
requiere interpretar y generalizar los resultados obtenidos de manera que puedan aplicarse
en forma extensiva a todo el contexto en donde se presenta el fenómeno investigado
De esto se encarga la Estadística inferencial.

2.2. Población y Muestra


El objetivo de toda investigación, en general, es hacer generalizaciones o
predicciones sobre hechos que están más allá de la observación directa.
Establecido el objeto de estudio, definidos los factores a observar y medir, elegido
el método apropiado para la recolección de datos de acuerdo con el problema, sus objetivos
e hipótesis, corresponde afrontar el diseño y delimitar el contexto en que se manifiesta el
problema que se constituirá en la población.
Por razones de costo y de tiempo normalmente es imposible observar a toda la
población.

24
La estrategia de la mayoría de las investigaciones es analizar un problema
determinado que se manifiesta en una población, a partir de un grupo de individuos o
unidades de análisis representativos de dicha población. Por lo tanto, en las
investigaciones, lo que se analizan son muestras de una población.
Los elementos, personas, objetos o fenómenos a observar constituyen la muestra de
la investigación.
En este punto es necesario analizar algunos términos que utiliza la estadística y son
parte de una estructura conceptual sistemática.
• Universo: es la serie real o hipotética de todos los elementos que componen unas
características definidas relacionadas con el problema de investigación. Es decir, esta
conformado por la totalidad de unidades de análisis que se quiere estudiar. Por ejemplo,
todos los padres que han sufrido la pérdida de un hijo menor de 25 años en accidentes
de tránsito.
• Población: es un conjunto definido, limitado y accesible del universo que forma el
referente para la elección de la muestra. Es el grupo al que se intenta generalizar los
resultados. Por ejemplo, todos los padres del universo previamente definido que
concurrieron en los últimos 5 años a alguna institución de salud mental de la Ciudad de
Buenos Ares.
También se utiliza este término para denominar a todos los datos recogidos. Es más
pertinente en este caso llamarla Población de Datos.
Población de Conjunto de todos los entes a los cuales se pueden
Investigación o estudio aplicar las conclusiones obtenidas a través de la
predicción, estimación o verificación de una hipótesis.

Población o Conjunto de todas las mediciones que es posible obtener


Población de datos a partir de observar una cierta característica en cada uno
de los elementos de la población de estudio.
• Muestra: es una parte representativa de una población o universo, cuyas
características debe reproducir lo más exactamente posible. Es un conjunto
pequeño de datos extraídos de la población a partir de algún procedimiento
específico que asegure su representatividad. Cuanto más grande sea el conjunto de
datos asegura mayor representatividad. Por ejemplo, un grupo de 100 historias

25
clínicas tomadas al azar de 4 instituciones a la que concurrió la población
previamente definida

Muestra Cualquier subconjunto de la población de estudio


de estudio

Muestra de datos Cualquier subconjunto de la población de datos

• Unidad de análisis, elemento o individuo (muestral): es la unidad más pequeña en la


que se puede descomponer la muestra, la población o el universo. Esta unidad puede ser
una persona, un grupo, un centro, una familia, sectores de una ciudad, un pueblo Unidad
Experimental

UNIVERSO
HIPOTÉTICO
(prácticamente infinito)

UNIVERSO o
POBLACIÓN, (finito)

MUESTRA, N
Unidades a observar

Unidades que pueden


ser observadas
Conjunto de unidades existentes
a las que se aplica la teoría

26
Fuente: Diagrama de Mora y Araujo (1973)
2.3. Recolección parcial de datos. Muestra
La Estadística trabaja con muestras. La muestra es un subconjunto representativo de la
población. Esto es así porque, generalmente, el gran número de unidades de análisis
posibles de la población es imposible de abarcar. Por razones de economía, de tiempo y
dinero, se investiga, en representación de la población, a la muestra.
Para que sean validas las conclusiones que se sacan a partir de las muestras, estas deben ser
representativas de la población. Las muestras pueden obtenerse en forma probabilística
utilizando en algún paso del proceso la elección azarosa de las unidades que la componen,
es decir cuando se trata de una muestra aleatoria.
Existen cuatro métodos de muestreo para conformar una muestra probabilística.
• Muestra aleatoria o por azar simple : La muestra básica se selecciona por azar,
partiendo de una población. Se toma al azar una cantidad N de observaciones sobre el
total de la población, y si la muestra es lo bastante extensa y bien seleccionada,
representará al conjunto significativamente en la mayoría de los casos. Este método
asegura que cada elemento de la población tiene la misma probabilidad de ser incluido
en la muestra.
• Muestra por azar sistemático: se eligen los elementos de la muestra utilizando un
sistema fijo de intervalos iguales, a partir del primer elemento elegido al azar. Por
ejemplo, en una línea de producción de algún producto se toma el primero al azar y los
siguientes cada 100 productos que salen de la línea. Este método es más conveniente
que el anterior cuando se trabaja con una población muy extensa.
• Muestra al azar por estratos: cuando en la población es heterogénea y pueden
reconocerse grupos bien diferenciados en cuanto al factor en estudio, se divide a la
misma en estratos internamente homogéneos y de cada uno de ellos se saca, al azar, un
grupo cuyo número de elementos sea proporcional al tamaño del estrato del cual
provino. Por ejemplo, en una población que compuesta por hombres y mujeres la misma
cantidad de unidades de análisis al azar en los hombres y en las mujeres.
• Muestra al azar por conglomerado: en este caso se divide a la población en sectores
llamados conglomerados y que son heterogéneos internamente, de tal forma que en cada
conglomerado están representadas todas las características de la población; entonces, un
conglomerado puede representarla, y de éste se extrae una muestra al azar. Por ejemplo,
en un estudio de investigación de mercado en donde se supone que la necesidad del

27
producto es variada pero con iguales características en toda la ciudad se elige la muestra
al azar en un barrio de la misma.
La muestra escogida al azar es la única que puede ser examinarse con completa confianza
por medio de la teoría estadística. En una muestra aleatoria representativa se incluyen,
proporcionalmente, elementos de todos los diferentes grupos que haya en la población. No
todas las muestras aleatorias son representativas.
Condiciones o requisitos de la muestra para determinar la seriedad, validez y
confiabilidad de un informe estadístico:
1. Comprender parte del universo o de la población y no su totalidad.
2. Amplitud. Es estadísticamente proporcionada a la magnitud de la población,
3. Representatividad. Refleja verdaderamente la composición y las características
de la población.
4. Muestra tomada al azar. La ausencia de distorsión en la elección de los
elementos de la muestra. Esto asegura que cada miembro de la población tienen
igual posibilidad de pertenecer a la muestra.
Ventajas Limitaciones
• En las ciencias sociales, con una muestra • Cierta inexactitud respecto de los
relativamente reducida en relación al parámetros.
universo se pueden encuestar las grandes
poblaciones y núcleos humanos.
• Las muestras suponen economía en los
costos.
• Disminución del tiempo empleado para
obtener y procesar la información.

2.4. Variables
Todos los elementos de la muestra y los de la población tienen atributos,
características. La variable es un atributo susceptible de tomar distintos valores o variantes.
Cuando el atributo es variable en formas impredecible, se trata de una variable aleatoria.
La Estadística se ocupa solo de variables aleatorias. Es un aspecto o dimensión de
un objeto o fenómeno y de las propiedades que estos pueden asumir y no puede predecirse
el valor para ninguna unidad de análisis. Por ej. sexo, rendimiento escolar, nacionalidad,
puntaje en un examen, edad, peso, color de ojos, etc.

28
Cuando el atributo toma siempre el mismo valor para todo los elementos
observados, no se trata de una variable, sino de un atributo constante o simplemente de una
constante. Es decir este atributo no se modifica a través del tiempo. Ej.: La edad mínima
para votar
Así como los atributos tienen diferente naturaleza, esto debe reflejarse en la forma
de medirlos.
CUALITATIVAS

VARIABLES
No admiten valores intermedios.
DISCRETAS Su valor es un número entero.
ej.: Nº de hijos, Nº de autos
CUANTITATIVAS
(numéricas) Admiten infinitos valores
CONTINUAS intermedios, puede subdividirse.
ej.: temperatura, puntajes de un
test.
2.4.1. Niveles de Medición
Medir es asignar atributos, jerarquías ó números a objetos o hechos según alguna
regla. La medida es una respuesta acerca de cuanto de una propiedad existe y puede variar.
Se distinguen dos propiedades: Extensivas (longitud, peso, altura, etc.) e Intensivas ( brillo,
inteligencia).
Las unidades de medida son convencionales, una vez elegidas se deben mantener
constantes para que sean comparables y medibles.
Existen dos grandes tipos de mediciones:

• Medición Directa: se mide por la observación y el hallazgo de unidades típicas que


sumados dan un resultado
Ejemplos: Peso (Kilogramos); Altura (Centímetros); Distancia (metros)
• Medición Indirecta: se obtiene a partir de tomar datos que se incluirán en una ecuación.
Ejemplo: Energía, Inteligencia, etc.

Según el tipo de variable, sus magnitudes pueden expresarse según diferentes Niveles de
Medición o Escalas de Medición

29
ESCALAS O NIVELES DE MEDICIÓN
VARIABLES CUALITATIVAS VARIABLES CUANTITATIVAS
NIVEL NOMINAL NIVEL ORDINAL ESCALA DE ESCALA DE RAZÓN
(nombra/ clasifica) (jerarquiza/ordena) INTERVALOS O COCIENTES
Determina igualdad – Determina la ordenación Determina igualdad de Determina la igualdad de
desigualdad entre los de elementos respecto a intervalos constantes. El razones o cocientes entre
elementos, asigna un algún rango o atributo. punto 0 (cero) y la dos puntos de una escala
símbolo, un número o Relaciona unidad de medida son indepe3ndientemente de
una descripción en jerárquicamente a los arbitrarios. la unidad de medida.
palabras. No es elementos entre si. Esta es una verdadera Esta escala de intervalos
estrictamente una escala. Las relaciones que se escala cuantitativa, y tienen un punto 0 (cero)
La aplicación estadística establecen son de mayor puede aplicarse a ella verdadero en su origen
es el MODO. La a menor o viceversa. casi todas las medidas La aplicación estadística
cantidad de elementos La aplicación estadística estadísticas. es la MEDIA
presentes en cada es la MEDIANA. La aplicación estadística GEOMÉTRICA y el
categoría, la frecuencia. EJ.: es la MEDIA y el COEFICIENTE DE
Ej.: • Ordenación de DESVIO STANDAR O VARIACIÓN.
• Categorías estudiantes por CI. TÍPICO (σ) Ej.:
psicopatológicas • Dureza de los Ej.: • Longitud
• Nº de jugador de minerales • Escalas de • Peso
football • Nivel medición de
socioeconómico inteligencia
• Temperatura

2.5. Distribución de frecuencias.


Los datos recogidos tienen poca significación si no se los clasifica con algún
criterio y ordena de alguna manera sistemática.
⇒ Filas o matriz de datos: datos recogidos sin organización numérica. Ej.: la altura de
100 estudiantes.
⇒ Ordenaciones: es un conjunto de datos numéricos en orden creciente o decreciente.
La diferencia entre el mayor y el menor se llama rango. Ej.: ordenar de menor a mayor o
viceversa la altura de los 100 estudiantes. La altura máxima registrada es 174 cm. y la
menor altura es 160 cm. El rango es 174-160 = 14 cm.
⇒ Distribución de frecuencias: Se cuentan la cantidad de unidades de análisis que
poseen igual valor de la variable y el resultado es la frecuencia fi del valor. Luego se

30
ordenan los valores de menor a mayor o viceversa consignándose en una tabla la
frecuencia de cada uno
⇒ Distribución de frecuencias en intervalos de clase: Cuando la cantidad de valores
diferentes es muy grande o ciuando la variable es contínua, y por lo tanto, hay poca
repetición de valores, es útil distribuirlos agrupando los valores en clases o categorías y
determinar el número de individuos que pertenecen a cada clase, la frecuencia de clase.
La disposición tabular o en tablas de los datos por clase con su correspondiente
frecuencia (ƒi) se denomina distribución o tabla de frecuencia en intervalos de clase.
Ejemplo:
Muestra de alturas de 100 estudiantes universitarios Número de estudiantes
Altura (cm.) ƒi
160-162 5
163-165 18
166-168 42
169-171 27
172-174 8
N (total) 100

Los datos se los ordenan con algún criterio y este depende de del objetivo de las
investigación y del tipo de variable. Por ejemplo, si se desea analizar el aumento o la
disminución de la variable es conveniente ordenar los datos de manera creciente.
Una tabla de distribución de frecuencias contiene dos columnas. La primera
muestra todos los posibles valores que asume la variable: altura de estudiantes, edad,
cursada de otra carrera, sexo, estado civil, etc. En la segunda columna se ubica el número
de veces, la frecuencia, con que se presenta dicho valor
Si se trata de tabular los datos de más de una variable, como cantidad de alumnos
que cursan otra carrera y sus respectivas edades, se debe elegir una variable y ordenar los
restantes en función de la misma. Este tipo de distribución de frecuencias que resume los
datos de dos variables asociadas de la muestra se llama Tabla de Contingencia

31
Frecuencias dobles
corresponden a dos
variables distintas

Cursan otra
carrera NO SI TOTAL
Edad
18-23 1 4 5
23-28 0 3 3
28-33 1 1 2
33-38 1 1 2
38-43 0 3 3
TOTAL 3 12 15

frecuencias marginales: verifican


2.5.1. Frecuencia Absoluta y Relativa
La frecuencia simple o absoluta (ƒi ) es el número de veces que se repite o
presenta en una muestra un determinado valor de variable. La suma de todas las
frecuencias simples es igual al número total de unidades de análisis de la muestra y se
simboliza con la letra N y se designa tamaño de la muestra.

muestra de altura de 100 estudiantes universitarios


Valores de la
Variable Frecuencias simples o
Frecuencias absolutas
xi ƒi
160-162 5
163-165 18
166-168 42
169-171 27
172-174 8
100
N: Tamaño de la muestra

32
La frecuencia relativa (ƒr) de una clase es su frecuencia absoluta dividida por el tamaño de
la muestra N (fr =ƒi / N) La suma de las frecuencias relativas siempre es 1,00 (uno).

ƒr =ƒi / N
Ejemplo de aplicación
Muestra de altura de 100 estudiantes universitarios
xi ƒi ƒr
160-162 5 0,05
163-165 18 0,18
166-168 42 0,42
169-171 27 0,27
172-174 8 0,08
N 100 1,00

ƒ1 = 5, ƒ2 = 18, ƒ3 = 42, ƒ4 = 27 y ƒ5 = 8

ƒr = ƒi / N = 42 / 100 = 0.42
Otra expresión de la ƒr es la frecuencia relativa porcentual o frecuencia porcentual (ƒ%)
que indica las veces que se repite la variable cada 100 observaciones de la misma. Esta se
obtiene multiplicando cada ƒr por 100. La suma de todas las ƒ% da como resultado 100.
ƒr . 100 = ƒ%
Muestra de altura de 100 estudiantes universitarios
xi ƒi ƒr ƒr %
160-162 5 0,05 5%
163-165 18 0,18 18%
166-168 42 0,42 42%
169-171 27 0,27 27%
172-174 8 0,08 8%
100 1 100%

ƒr % = ƒr x 100 = 0.42 x 100 = 42%

33
Cuando se agrupan los valores de la variable en frecuencia, según lo ya señalado se pueden
utilizar distintos criterios:
• datos sin agrupar en intervalos de clase.
Si se simboliza como X a la variable y la misma son las edades de estudiantes varones del
segundo año de la carrera de psicología
Xi : 20-31-24-22-20-21-25-20-21-20

• datos agrupados.
Ej. Edades de estudiantes varones del segundo año de la carrera de psicología

Xi ƒi
20 4
21 2
22 1
24 1
25 1
31 1
N 10

• datos agrupados por intervalos de clase. Este recurso se utiliza cuando es muy
grande el número de valores diferentes de la variable.
Ej. Edades de estudiantes varones del segundo año de la carrera de psicología

Xi ƒi
20-22 7
23-25 2
26-28 0
29-31 1
N 10
Cada valor de la variable se agrupa en intervalos de valores que se denominan clases
Cuando los datos se agrupan en intervalos, los valores extremos de la clase se denominan
límites inferiores y superiores respectivamente de la clase. Las distancia entre sus límites,
o sea entre el mínimo y el máximo, se denomina módulo de la clase La selección del
intervalo de clase se relaciona con cada caso particular. Es necesario conservar una
información suficientemente detallada del fenómeno. Para esto hay que evitar clases

34
demasiado pequeñas o muy numerosas que podrían complicar, sin provecho alguno, los
cálculos ulteriores y la información.
Cuando se desconoce el límite inferior del menor intervalo o el límite superior del
mayor intervalo o se desconocen los límites de ambos, se presenta un fenómeno
denominado intervalos abiertos y se registra:
Xi ƒi
menos de
20 0
20-22 7
23-25 2
26-28 0
Más de 29 1
N 10

En un intervalo de clase, los límites reales o verdaderos se denominan fronteras de


clases y es la definición mas exacta de los límites inferiores y superiores de una clase. En
la práctica, las fronteras se obtienen promediando el límite superior de una clase con el
inferior de la clase siguiente:

li + Ls
2
Limite superior
xi ƒi
20-22 7
23-25 2
26-28 0
29-31 1
N 10
Límite inferior
Ejemplo: li + Ls = 23 + 22 = 22,5
2 2

lir xi Lsr ƒi
19,5 20-22 22,5 7
22,5 23-25 25,5 2
25,5 26-28 28,5 0
28,5 29-31 31,5 1
N 10
Límites reales

35
El punto medio o marca de clase del intervalo i (Xm) es la semisuma o promedio
de los límites reales inferiores y superiores de un mismo intervalo. Todos guardan la
misma diferencia.

x´i = lir + Lsr 19,5 + 22,5 = 21


2 2

lir xi Lsr ƒi x´i


19,5 20 - 22 22,5 7 21
22,5 23 - 25 25,5 2 24
25,5 26 - 28 28,5 0 27
28,5 29 - 31 31,5 1 30
N 10

El tamaño del intervalo de clase se llama módulo de la clase y es la diferencia


entre la frontera o límite real superior (Ls) y la frontera o límite real inferior (lir)

m = Lsr - lir = 28,5 - 25,5 = 3

Cuando todos los intervalos de clase de una distribución de frecuencia tienen la


misma amplitud o tamaño se los consigan así: c. En tal caso c es igual a la diferencia entre
dos límites inferiores o superiores de dos clase sucesivas.

lir xi Lsr
19,5 20 - 22 22,5
22,5 23 - 25 25,5
25,5 26 - 28 28,5
28,5 29 - 31 31,5

c = 25,5 - 22,5 = 3

c = 28,5 - 25,5 = 3
2.5.2. Reglas generales para formar distribuciones de frecuencias
a. Determinar el mayor y el menor de todos los datos, hallando así el rango o
diferencia entre ambos.

36
b. Dividir el rango en un número adecuado de intervalos de clase del mismo tamaño.
Si no es posible, se puede utilizar intervalos abiertos o de distinto tamaño. El mejor
criterio de elección de intervalos es hacer que coincidan las marcas de clases o puntos
medios (x´i) con los datos realmente observados. Esto tiende a disminuir el error de
agrupamiento. No es necesario que coincidan las fronteras con datos realmente
observados, si es conveniente que los intervalos los contengan.
c. Determinar el número de observaciones que cae dentro de cada intervalo de clase,
la frecuencia de clase, esto se logra mejor con el uso de una tabla de recuentos.
Tabla de recuentos
Xi Recuento ƒi
20-22 //// // 7
23-25 // 2
26-28 0
29-31 / 1
N 10
2.5.3. Frecuencia Acumulada
Hasta el momento se trabajó con frecuencias simples, registrando para cada clase o
intervalo de clase la cantidad de veces que dicha variable se hacía presente en la
observación. Estas distribuciones se denominan tablas de frecuencias simples. Otra manera
de distribuir las frecuencias es en forma acumulada (Fi). La frecuencia total de todos los
valores menores que la frontera de clase superior de un intervalo de clase se denomina
frecuencia acumulada hasta ese intervalo de clase inclusive. O sea, la frecuencia
acumulada contabiliza el número de observaciones del registro de datos hasta un
determinado valor de variable incluido. Algo así como subtotales. La acumulación del
último intervalo de la distribución es equivalente al total de la muestra (N).
La tabla que presenta tales frecuencias se denomina tabla de frecuencias
acumuladas, o distribución de frecuencias acumuladas o distribución acumulada.
Al igual que la frecuencia absoluta para la frecuencia acumulada también se pueden
calcular la frecuencia acumulada relativa y la relativa porcentual.
Los distintos tipos de frecuencias el investigador los usa según la necesidad de
descripción de los datos.

37
Xi ƒi Fi Fir Fi%
20-22 7 7 0,7 70%
23-25 2 9 0,9 90%
26-28 0 9 0,9 90%
29-31 1 10 1 100%
N 10
La lectura que se puede hacer de tabla es por ejemplo, 2 varones tienen entre 23-25
años, pero también que 9 varones tienen menos de 25 años, o que están entre 20-25
2.6. Representaciones Gráficas
Un gráfico es una representación de la distribución de valores de la variable. Para
cada tipo de variables existe una gama de gráficos específicos. Los gráficos permiten una
visualización rápida de la evolución o distribución de una variable. Esta representación
permita una rápida y clara comparación y superposición de muestras tomadas en distintas
oportunidades de tiempo o lugar. El requisito que deben cumplir los gráficos es la
proporcionalidad del área representada.
BARRAS
CUALITATIVAS SECTORIAL / PASTEL
(categóricas) PICTOGRAMA

VARIABLES
BASTONES
DISCRETAS
CUANTITATIVAS PICTOGRAMA
(numéricas)
CONTINUAS HISTOGRAMA
POLIGONO DE
FRECUENCIAS
OJIVA DE GALTON
POLÍGONO DE
FRECUENCIAS
ACUMULADAS

38
• BARRAS: es un gráfico unidimensional, es decir de una unidad, donde los
rectángulos, las barras, que se diagrama tienen el ancho de sus bases idénticas. Este
ancho se escoge arbitrariamente, pero toda la representación debe conservar la misma
base. La base de la barra representa geométricamente cada uno de los valores que asume
la variable. La altura de la barra representa geométricamente la frecuencia
correspondiente a cada uno de los valores de la variable. Esta escala debe construirse
con precisión para que realmente guarden las barras entre si la precisión necesaria para
su comparación. En los ejes cartesianos, las bases se apoyan sobre el eje de las abcisas
(x) y las alturas sobre las ordenadas (y).
El siguiente gráfico representa gráficamente el nivel de rendimiento de un sujeto adulto en
el test de inteligencia WAIS de Weschler.

TEST DE I NTELI GENCI A PARA ADULTOS


Escalas: VERBAL Y EJECUCIÓN
40 40
35 35
30 30
25 25
20 20
15 15
10 10
5 5
0 0
37 39

Escala Verbal Escala de Ejecución

• SECTORIAL / PASTEL: también se lo denomina diagrama circular porque se


representa gráficamente toda la muestra mediante un círculo. El total de la muestra, N,
es equivalente a los 360º del círculo. A partir de este dato y conociendo cada una de las
frecuencias que asume la variable, se calcula el ángulo que represente a cada frecuencia.
El ángulo o sector del circulo representa a cada atributo, en este caso es el equivalente a
la barra, en tanto representación gráfica.

ƒi x 360º
N

39
El siguiente gráfico representa la distribución por sexos de padres que asistían a un centro
de atención en violencia familiar. Los consultantes eran víctimas de violencia por parte de
sus hijos. La muestra, 250 personas, está tomada del archivo de historias clínica.

xi ƒi
mujeres 195
varones 55
N 250

VIOLENCIA FAMILIAR:Padres Golpeados

VARONES 22%
MUJERES 78%

DISTRIBUCIÓN POR SEXOS

MUJERES VARONES
Lic. Roberto E Ramos-
ADRES
Población consultante en la Fundación Familia por Familias (1996)

• PICTOGRAMA : para la representación de las frecuencias se utilizan símbolos. La


elección del mismo está en relación al tema que se trata y es totalmente arbitrario el
modelo. Por ejemplo, si se trabaja con datos referidos a la densidad demográfica puede
simbolizarse con personas, si se trata de forestación pueden utilizarse arboles, etc.Si es
importante determinar con claridad la unidad de representación.

Por ejemplo, en el caso de la muestra anterior, de los padres golpeados por sus hijos:

40
xi ƒi
mujeres 195
varones 55
N 250
L = 5 personas
mujeres varones
LLLLLLLLLL LLLLLLLLLL
LLLLLLLLLL L
LLLLLLLLLL
LLLLLLLLL

Por las características del pictograma, se lo puede usar en para representar escalas
cualitativas y particularmente cuantitativas discretas, pero no es conveniente. No es el tipo
de gráfica más conveniente porque puede generar confusión el valor, la frecuencia y el
significado.
• BASTONES: para este gráfico se ubican en el eje horizontal las categorías de las
variables, igual que en las barras, con la diferencia que los bastones no tienen amplitud
en su base, son solo líneas o segmentos que guardan una distancia proporcional y
preestablecida entre si.
• HISTOGRAMA: es un conjunto de rectángulos continuos con base en el eje
horizontal (x), centros en las marcas de clase o punto medio y longitudes iguales a los
tamaños de los intervalos de clase, o sea considerando los límites inferiores y superiores
de cada intervalo. También tienen áreas proporcionales a las frecuencias de clases que
se ubica en le eje vertical (y).

Tiempos cronometrados en una carrera


Nota: Esto es la nota al pie
Subtítulo
T 5,2
í 4,8
t
u 4,4
l
4
o
3,6
Y 5
3,2
1
2,8 4
2,4 3
2
2 2
1,6
0 10 20 30 40 50
Título de columna

41
• POLIGONO DE FRECUENCIA: se obtiene conectando los puntos medios de las
partes superiores de los rectángulos del histograma.
• POLÍGONO DE FRECUENCIAS ACUMULADAS: es similar al polígono de
frecuencias, con la diferencias que el histograma sobre el cual se traza el polígono se
distribuye en forma creciente, de izquierda a derecha, siendo la ultima barra la altura
máxima coincidente con la muestra total (N). Por lo tanto la unión de los puntos medios
de las partes superiores de los rectángulos del histograma dará como resultado una línea
recta quebrada ascendente.
• OJIVA DE GALTON: cuando se trabaja con frecuencias acumuladas el gráfico que
recoge dichas frecuencias es la ojiva. La línea que se obtiene es similar al polígono de
frecuencias acumuladas pero con una curvatura ascendente.

2.7. Síntesis de Datos. Índices estadísticos


Hasta aquí se vieron las técnicas de la estadística descriptiva que se utilizan para
resumir un grupo de observaciones utilizando tablas y gráficos. En el presente capítulo
veremos que es mucho más claro y rápido transmitir la información a partir de índices
numéricos que la representan.
Estos índices denominados “índices estadísticos” o simplemente “estadísticos” son
una medida de la tendencia de los valores predominantes de la variable en la muestra y de
su variabilidad.
Dado un grupo de datos organizados en un cuadro de distribución de frecuencias
estos estadísticos los describen en dos o tres valores representativos.
Las características de la información que interesa describir pueden sintetizarse en las
siguientes:

• La tendencia central de los datos


• La dispersión o variación de los mismos.
• Los datos que ocupan ciertas posiciones.
• La simetría de los datos
• La forma en que los datos se agrupan.
2.7.1. Estadísticos de Tendencia Central
Estos índices representan la tendencia de las observaciones de una variable.
Las tres medidas más utilizadas son:

42
• La media
• La mediana
• La moda
Cada una de estas medidas representan ventajas o inconvenientes a la hora de
expresar una tendencia, aunque en ciertas ocasiones y para muestras muy numerosas
pueden coincidir.
Ø La media (X)
La media aritmética o simplemente la media de un grupo de observaciones de una
variable es el promedio ponderado de los valores, es decir, la suma de todos los valores
dividida por la cantidad de observaciones. La media expresa la tendencia central de las
observaciones de la variable, entendiendo esto como un valor típico o representativo de la
misma.
Si la tabla de valores de una variable X es

X fi fr
x1 f1 fr1
.........
Xk fk frk
La media es el valor que podemos escribir de las siguientes formas equivalentes:
1 k
X = X1 fr1 + …... + Xk frk = 1 (X1 f1 + ...Xk fk) = – ∑ Xi. fi
N N i=1

Si los datos no están ordenados en una tabla, entonces:

_ x1 + .....+ xn
X = ----------------------
N
En algunas situaciones, debe revisarse cuidadosamente la representatividad de la
media:
• Como todas las observaciones intervienen en el cálculo de la media, la
aparición de una observación extrema, hará que la media se desplace en la
dirección de la misma. Por lo tanto, el promedio es muy sensible a los valores
extremos de la variable En consecuencia, no es recomendable usar la media como
medida central en las distribuciones muy asimétricas.

43
§ Si consideramos una variable discreta, por ejemplo, el número de hijos
en las familias argentinas, el valor de la media puede no pertenecer al conjunto de
valores de la variable; Por ejemplo x = 1,2 hijos.
Ø La mediana (Md)
Si se considera una variable discreta X cuyas observaciones en una tabla estadística
han sido ordenadas de menor a mayor. Llamaremos mediana M al primer valor de la
variable que deja por debajo de al 50 % de las observaciones.
En el caso de variables continuas, las clases vienen dadas por intervalos y aquí la
fórmula de la mediana se complica un poco más (pero no demasiado): Sea l (i-1) , li el
intervalo donde hemos encontrado que por debajo están el 50 % de las observaciones.
Entonces se obtiene la mediana a partir de las frecuencias acumuladas, mediante
interpolación lineal como sigue

N/2 - Fi-1
M = l (i-1) + ------------------ mi
fi

Esto equivale a decir que la mediana divide al histograma en dos partes de áreas
iguales.
Propiedades de la mediana
Entre las propiedades de la mediana, vamos a destacar las siguientes:
§ Como medida descriptiva, tiene la ventaja de no estar afectada por las
observaciones extremas, ya que no depende de los valores que toma la variable,
sino del orden de los valores de la misma. Por ello es adecuado su uso en
distribuciones asimétricas.
§ Es de cálculo rápido y de interpretación sencilla.
§ A diferencia de la media, la mediana de una variable discreta es siempre un
valor de la variable que estudiamos (ej. La mediana de la variable número de hijos
toma siempre valores enteros).
Ø La moda (Mo)
Se llama moda a cualquier valor de la variable que posea la frecuencia absoluta
máxima de la distribución de frecuencias. El símbolo que la representa es Mo.
Una distribución puede tener una moda única (unimodal) o dos o más modas
(plurimodal)
De la moda se destacan las siguientes propiedades:

44
§ Es muy fácil de calcular.
§ Puede no ser única.
Relación entre media, mediana y moda
En el caso de distribuciones unimodales, la mediana está con frecuencia
comprendida entre la media y la moda (incluso más cerca de la media).
En distribuciones que presentan cierta inclinación, es más aconsejable el uso de la
mediana. Sin embargo en estudios relacionados con propósitos estadísticos y de inferencia
suele ser más apta la media.
2.7.2 Estadísticos de posición o de orden
Los estadísticos de posición van a ser valores de la variable caracterizados por
superar a cierto porcentaje de observaciones en la población (o muestra).
Tenemos fundamentalmente a los percentiles como medidas de posición, y asociados a
ellos veremos también los cuarteles y deciles
Ø Percentiles
Para una variable discreta, se define el percentil de orden k, como la observación
Pk que deja por debajo de sí el k % de la población.
Esta definición nos recuerda a la mediana, pues como consecuencia de la definición es
evidente que
M = P50
En el caso de una variable continua, el intervalo donde se encuentra Pk, se calcula
buscando el que deja debajo de sí al k % de las observaciones.
La fórmula es similar a la del cálculo de la mediana pero dividiendo N por 100
Ø Cuartiles
Los cuartiles Q son un caso particular de los percentiles. Hay 3, y se definen como:
Q1 = P25
Q2 = P50 = M
Q3 = P75
Ø Deciles
Se definen los deciles como los valores de la variable que dividen a las
observaciones en 10 grupos de igual tamaño. Más precisamente, definimos D1,D2, ..., D9
como:
Di = P10 i donde i =1, ..., 9
Por ejemplo:
D1=P10 ó D6=P60

45
Por lo tanto:
D5=P50=M
2.7.3. Medidas de variabilidad o dispersión
Los estadísticos de tendencia central o posición indican donde se sitúa un grupo de
puntuaciones. Los de variabilidad o dispersión describen si esas puntuaciones o valores
están próximas entre sí o si por el contrario están muy dispersas.
Ø Rango ó Amplitud
Una medida razonable de la variabilidad podría ser la amplitud o rango A, que se
obtiene restando el valor más bajo de un conjunto de observaciones del valor más alto.
Propiedades del rango
§ Es fácil de calcular y sus unidades son las mismas que las de la variable.
§ No utiliza todas las observaciones (sólo dos de ellas).
§ Se puede ver muy afectada por alguna observación extrema.
§ El rango aumenta con el número de observaciones, o bien se queda igual. En
cualquier caso nunca disminuye.
Ø Varianza
La varianza V se define como la media de las diferencias cuadráticas con respecto a
su media aritmética de N puntuaciones, es decir
1 N 2
V = ----- ∑ ( Xi - X)
N i =1
Esta medida es siempre una cantidad positiva, con propiedades interesante para la
realización de inferencia estadística. Como sus unidades son las del cuadrado de la
variable, es más sencillo usar su raíz cuadrada, que es la que vemos en la siguiente sección.
En muchos textos técnicos esta fórmula está ligeramente modificada al dividir la sumatoria
por N - 1. Cuando estudiemos las técnicas de inferencia se verá en qué casos se utiliza esta
modificación.
Ø Desviación típica o estándar
La varianza no tiene la misma magnitud que las observaciones (ej. si las observaciones se
miden en metros, la varianza lo hace en metros cuadrados).
Si se desea que la medida de dispersión sea de la misma dimensionalidad que las
observaciones bastaría con tomar su raíz cuadrada. Por ello se define la desviación típica o
estándar S como

S = V

46
Ejemplo de cálculo de medidas de dispersión
Calcular el rango, varianza y desviación típica de las siguientes cantidades medidas en
metros:
3, 3, 4, 4, 5
Solución: El rango de esas observaciones es la diferencia entre la mayor y menor de ellas,
es decir, 5 - 3 = 2. Para calcular las restantes medidas de dispersión es necesario calcular
previamente el valor con respecto al cual se miden las diferencias. Este es la media:

X = (3+3+4+4+5) / 5 = 3, 8 metros
La varianza es:
1 N 2 2 2 2 2 2
V = -------- ∑ ( Xi - X) = 1/5 (-0.8) + (-0.8) + 0.2 + 0.2 + 1.2
N i =1

V = 0.545 metros cuadrados


Siendo la desviación estándar:

S = V = 0.545 = 0,738 metros


Propiedades de la varianza y la desviación estándar.
§ Ambas son sensibles a la variación de cada una de las puntuaciones, es
decir, si una puntuación cambia, cambia con ella la varianza. La razón es que si
miramos su definición, la varianza es función de cada una de las puntuaciones.
§ No es recomendable el uso de ellas, cuando tampoco lo sea el de la media
como medida de tendencia central.
Ø Coeficiente de variación
Las medidas de centralización y dispersión dan información sobre una muestra. Se
puede preguntar si tiene sentido usar estas magnitudes para comparar dos poblaciones. Por
ejemplo, Si se necesita comparar la dispersión de los pesos de las poblaciones de elefantes
de dos circos diferentes, S nos daría información útil.
¿Pero qué ocurre si lo que se compara es la altura de unos elefantes con respecto a
su peso? Tanto la media de X como la desviación estándar (S), se expresan en las mismas
unidades que la variable. Por ejemplo, en la variable altura se puede usar como unidad de

47
longitud el metro y en la variable peso, el kilogramo. Comparar una desviación (con
respecto a la media) medida en metros con otra en kilogramos no tiene ningún sentido.
El problema no deriva sólo de que una de las medidas sea de longitud y la otra sea
de masa. El mismo problema se plantea si se mide cierta cantidad, por ejemplo la masa, de
dos poblaciones, pero con distintas unidades. Este es el caso en que se compara el peso en
toneladas de una población de 100 elefantes con el correspondiente en miligramos de una
población de 50 hormigas.
El problema no se resuelve tomando las mismas escalas para ambas poblaciones.
Por ejemplo, se puede medir a las hormigas con las mismas unidades que los elefantes
(toneladas). Si la ingeniería genética no sorprende con alguna barbaridad, lo lógico es que
la dispersión de la variable peso de las hormigas sea prácticamente nula (¡Aunque haya
algunas que sean 1.000 veces mayores que otras!)
En los dos primeros casos mencionados anteriormente, el problema viene de la
dimensión de las variables, y en el tercero de la diferencia enorme entre las medias de
ambas poblaciones. El coeficiente de variación es lo que permite evitar estos problemas,
pues elimina la dimensionalidad de las variables y tiene en cuenta la proporción existente
entre medias y desviación típica. Se define del siguiente modo:
S S
CV = ------- ó porcentualmente CV% = --------- 100
X X
Propiedades del coeficiente de variación
§ Sólo se debe calcular para variables con todos los valores positivos. Todo
índice de variabilidad es esencialmente no negativo. Las observaciones pueden ser
positivas o nulas, pero su variabilidad debe ser siempre positiva. De ahí que sólo se
debe trabajar con variables positivas, para la que se tiene con seguridad que x> 0.
§ No es invariante ante cambios de origen. Es decir, si a los resultados de una
medida le sumamos una cantidad positiva, b> 0, para tener Y = X + b, entonces
CVY < CVX
§ Es invariante a cambios de escala. Así por ejemplo el coeficiente de
variación de una variable medida en metros es una cantidad adimensional que no
cambia si la medición se realiza en centímetros.

Bibliografía
Aron A. y Aron E. (2001) Estadística para Psicología Cap.1 Bs.As.: Pearson Education,
Cortada de Kohan, N. y Carro, J. M. (1968) Estadística aplicada. Bs. As.: EUdeB

48
Capítulo 3. Correlación y Regresión

3.1 Distribución bi-variada.


Una distribución bidimensional o bivariada, es la distribución estadística en la que
intervienen dos variables, x e y, y, por tanto, a cada individuo o unidad de estudio le
corresponden dos valores, xi, yi. Estos dos valores se pueden considerar como
coordenadas de un punto (xi, yi) representado en un diagrama cartesiano. Así, a cada

individuo de la distribución le corresponderá un punto, y toda la distribución se verá


representada mediante un conjunto de puntos también llamada nube de puntos. La forma
que presenta esta nube de puntos refleja el grado de correlación entre las dos variables,
como veremos más adelante.
Deberá tenerse presente que dado que las variables utilizadas son cuantitativas,
este desarrollo es utilizado cuando se trabaja con escalas de intervalos iguales o con
escalas de cocientes.
Por ejemplo, suponiendo que si a los cinco hijos, A, B, C, D y E, de una familia se
les pasan unas pruebas que miden la aptitud musical (Mu) y la aptitud para las
matemáticas (Ma) y se obtienen los siguientes resultados:

Esta tabla es una distribución bidimensional porque intervienen dos variables:


valoración Mu, valoración Ma. A cada individuo le corresponden dos valores: A(5,6),
B(7,10), C(4,5), D(8,6), E(2,4). De este modo se asocia a cada individuo un punto en un
diagrama cartesiano:

Esta representación gráfica de una distribución bidimensional se llama nube de


puntos o diagrama de dispersión.

49
Entre dos variables de una población que determinan una distribución
bidimensional puede existir una relación más o menos estrecha que se llama
correlación,.
Existen distintos patrones de correlación, pero la más frecuente y que se
estudiará es la correlación lineal, que existe cuando la relación entre las variables en el
gráfico de coordenadas cartesianas se puede representar con una recta. Esta correlación
se puede medir mediante el coeficiente de correlación ρ (ro), que es un número,
asociado a los valores de las dos variables. El coeficiente de correlación puede valer
entre -1 y 1.
Cuando ρ = 1 existe una correlación directa y absoluta o perfecta entre las dos
variables de modo que el valor de cada variable tiene un único valor de la otra y está
ubicado sobre la recta que las representa. Los puntos de la nube están todos situados
sobre una recta de pendiente positiva de tal forma que al aumentar una variable aumenta
la otra.

Esto ocurre, por ejemplo, cuando una barra metálica se somete a distintas
temperaturas, x1, x2,…, xn, y se miden con precisión sus correspondientes longitudes, y1,
y2,…, yn. Las longitudes se obtienen funcionalmente a partir de las temperaturas de

modo que, conociendo la temperatura a que se va a calentar, se podría obtener la longitud


que tendría la barra.
Esto solo puede suceder cuando las variables están relacionadas mediante una
ecuación lineal.
En la realidad, cuando se estudian la relación entre variables en el campo
biopsicosocial, no existe nunca una relación perfecta. En estos casos la relación está
representada por una nube de puntos como el que indica la figura.
Cuando ρ es positivo y grande (próximo a 1) se dice que hay una correlación
fuerte y positiva. Los valores de cada variable tienden a aumentar cuando aumentan los
de la otra.

50
Es el caso de las estaturas, x1, x2,…, xn, y los pesos, y1, y2,…, yn, de diversos

atletas de una misma especialidad. A mayor estatura cabe esperar que tengan mayor peso,
pero puede haber excepciones.
Cuando ρ es próximo a cero (por ejemplo, ρ = - 0,12 o ρ = 0,08) se dice que la
correlación es muy débil (prácticamente no hay correlación) y en este caso la nube de
puntos es amorfa.

Es lo que ocurriría si lanzáramos simultáneamente dos dados y anotáramos sus


resultados: puntuación del dado rojo, xi; puntuación del dado verde, yi. No existe
ninguna relación entre las puntuaciones de los dados en las diversas tiradas.
Cuando ρ es próximo a -1 (por ejemplo, p = -0,93) se dice que hay una
correlación fuerte y negativa. Los valores de cada variable tienden a disminuir cuando
aumentan los de la otra.

Si en un conjunto de países en vías de desarrollo se miden sus rentas per cápita,


xi, y sus índices de natalidad, yi, se obtiene una distribución de este tipo, pues suele

ocurrir que, en general, cuanto mayor sea la renta per cápita menor será el índice de
natalidad.
Cuando ρ = -1 todos los puntos están alineados en una recta de pendiente
negativa y entonces existe una correlación negativa y absoluta o perfecta entre las dos
variables.

51
3.1.1. Coeficiente de Correlación en una distribución bidimensional
Para estudiar la relación entre dos variables se introduce este nuevo estadístico,
que en una población se constituye en un parámetro de la relación.
Cada una de las dos variables X e Y de una distribución bidimensional en una
población, tiene sus propios parámetros. Para el estudio de la correlación se necesitan sus
medias μx y μy y sus desviaciones típicas, σx, σy.

Hay además un nuevo parámetro, σxy, llamado covarianza, que mide el grado de

relación entre las dos variables: cómo varía cada una con relación a la otra.
La covarianza de una distribución bidimensional de N individuos dados por los
pares de valores (X1,Yy1), (X2, Y2),…,Xn,Yn), se calcula mediante la fórmula
siguiente:
∑ (X – μx) . (Y – μy)
σxy =
∑ (X – μx)² . ∑ (Y – μy)²

El coeficiente de correlación ρ, denominado coeficiente de correlación de


Pearson se obtiene dividiendo la covarianza por el producto de las desviaciones
estándar de cada variable:

Este parámetro no tiene dimensiones. Por ejemplo, si la variable x es una longitud


y la y un peso, los valores x, σx. son longitudes, y sus valores varían según que los datos

estén dados en centímetros o metros; los valores y, σy son pesos, y sus valores varían

según las unidades en que se expresen los datos Kg. o grs.; la covarianza, σxy, es el

producto de una longitud por un peso, y su valor varía según las unidades en que se den
xi, yi; sin embargo, el coeficiente de correlación es un número abstracto cuyo valor no
depende de las unidades en que se hallen los valores de las variables. Además, el hecho

52
de que ρ tome valores entre –1 y 1 hace que resulte muy cómodo interpretar sus
resultados.
Por todo ello, ρ es un parámetro sumamente adecuado para calcular la correlación
entre dos variables estadísticas.
Cuando la correlación se determina sobre una muestra de la población el símbolo
que se usa para representar el coeficiente de correlación de Pearson es r y solo se podrán
generalizar los resultados a la población mediante una prueba de significación que
descarte el posible error de muestreo.
La fórmula para conocer el valor del índice o coeficiente de correlación en una
muestra es la misma que la señalada precedentemente pero aplicada a muestras:
∑ (X - X ) . (Y -Y )
r= -1 ≤ r ≤ 1
∑ (X - X)² . ∑(Y - Y)²

El valor y el signo del coeficiente de correlación puede variar según sea la fuerza
de la misma y su sentido. Cuanto más cerca 1 ó -1 más fuerte es la correlación y cuanto
más cerca de 0 es más despreciable.
En síntesis, el coeficiente de correlación brinda tres informaciones: si hay o no
correlación, la fuerza y el sentido de la misma.
3.2. Ecuación de Regresión
Se llama recta de regresión a una recta que marca la tendencia de la nube de
puntos. Si la correlación es fuerte (tanto positiva como negativa) y, por tanto, los puntos
de la nube están próximos a una recta, el uso de la recta de regresión permite predecir el
valor de una variable a partir del valor de la otra.
Matemáticamente hay dos rectas de regresión, la recta de regresión de Y sobre X y
la de X sobre Y.
La ecuación de la recta de regresión de Y sobre X es:
^ ^
Y = ayx + byx . X donde Y representa la estimación de la variable
Y en función de la variable X
El símbolo ^ sobre la variable Y significa que se trata de un valor estimado por la
recta de regresión y no es un valor medido experimentalmente.
Los parámetros a y b de la recta de regresión se determinan mediante un método
matemático que se denomina el método de los cuadrados mínimos partiendo de la

53
condición por la cual la suma de los cuadrados de las desviaciones entre los valores Y
experimentales de los estimados por la recta de regresión es la mínima posible.
De igual forma, la recta de regresión de X sobre Y es aquella para la cual la suma de los
cuadrados de las desviaciones de los valores experimentales de X respecto de las X
estimadas por la recta de regresión es la mínima.
La ecuación que surge para el parámetro b de la recta Y en función de X es:
∑ (X - X) . (Y - Y)
bxy =
∑ (X - X )²

El parámetro a es:

axy = Y - b . X
Las rectas de regresión tienen las siguientes peculiaridades:
• Ambas pasan por el punto ( X , Y ) llamado centro de gravedad de la
distribución.
• Los valores byx y bxy
se llaman coeficientes de regresión de Y sobre X y de X sobre Y, respectivamente.
• Sólo es válida la estimación de una variable a partir de la otra
cuando no se exceden los límites de valores experimentales que se
utilizaron para calcular la recta.
El producto byx y bxy se llama Coeficiente de determinación y su símbolo es r² y si

su valor es ≥ a 0.80 tiene sentido utilizar una de las rectas de regresión para estimar una
variable a partir del valor de la otra.
3.3. Interpretación del Coeficiente de correlación de Pearson
En base a lo desarrollado en los puntos anteriores y a modo de resumen es posible
afirmar que:
• Cuando la correlación es fuerte, las dos rectas de regresión son muy
próximas (son la misma sí ρ = ±1). Si la correlación es débil, las dos rectas de
regresión forman un ángulo grande.
• Cuando ρ = 1 existe una correlación directa y absoluta entre las dos
variables de modo que el valor de cada variable se puede obtener exactamente a
partir de la otra.
• Cuando ρ es próximo a cero (por ejemplo, p = -0,12 o p = 0,08) se dice que
la correlación es muy débil (prácticamente no hay correlación).

54
• Cuando ρ es positivo y grande (próximo a 1, por ej. p = 0,90) se dice que
hay una correlación fuerte y positiva. Los valores de cada variable tienden a
aumentar cuando aumentan los de la otra.
• Cuando ρ es negativo y de valor absoluto grande (próximo a 1, por ej. p = -
0,93) se dice que hay una correlación fuerte y negativa. Los valores de cada
variable tienden a disminuir cuando aumentan los de la otra.
• Cuando ρ = -1 todos los puntos de la recta están sobre una recta de
pendiente negativa y entonces existe una existe una correlación negativa y absoluta
entre las dos variables.
• Naturalmente existe toda una gama de valores intermedios entre las
correlaciones fuertes y débiles, ya sean éstas positivas o negativas.
En base a lo anterior es posible afirmar que el coeficiente de correlación brinda

información respecto a:

1.- La existencia de la relación entre 2 variables.


2.- El grado o intensidad de tal relación.
3.- El sentido o dirección de la relación (de acuerdo al signo + ó - de p).
El estudio de la correlación entre variables presta grandes servicios en los dominios

donde la experimentación es en general muy difícil: biometría, psicología aplicada,

ciencias económicas, etc. Es necesario, sin embargo, tener presente que una correlación,

aunque sea fuerte, no implica necesariamente una relación de causa a efecto entre ambas

variables. Por ejemplo, si en un recinto en que se hace aumentar la temperatura se colocan

un hilo metálico y un caldo de cultivo con microorganismos y se miden simultáneamente el

alargamiento del hilo y el desarrollo de los microorganismos, se hallará entre esas dos

variables una fuerte correlación. La “causa”, origen de la correlación observada, es

evidentemente externa a las variables mismas.

Con respecto a la utilidad del estudio de la correlación es de destacar que la recta de


regresión sirve para realizar estimaciones fiables de una de las variables para valores de la
otra variable.

55
3.4. Coeficiente de correlación por rangos. Spearman
En algunas situaciones el científico no dispone de una escala de valores medibles
para las variables de su investigación, por ser éstas características de difícil o imposible
medición. Por ejemplo: adaptación social, aspectos estéticos, honestidad, humor, habilidad
para las ventas, etc.
Sin embargo, en muchos casos, una variable puede clasificarse con un nivel de
medición ordinal, por rangos u órdenes de jerarquía, para diferenciar cada unidad de
análisis.
Para calcular el coeficiente de correlación entre dos variables de estas
características se cuenta con una fórmula especial que toma en cuenta las posiciones
relativas de cada serie, para calcular el denominado coeficiente de correlación de
Spearman,

6 ∑ Di ²
ρ=1 -( )
N (N - 1) ²

Siendo ρ: coeficiente de correlación por rangos de Spearman.


Di: Diferencia de rango de una prueba respecto a la otra para el
mismo individuo.
N: Número total de individuos.
Cuando el coeficiente de correlación de Spearman se calcula para muestras y no
para una población su símbolo es R.
A modo de ejemplo se desea calcular el coeficiente de correlación de Spearman,
entre las posiciones logradas por 6 alumnos en las olimpíadas de matemática e historia
realizadas en un colegio de nivel medio. Los resultados se muestran en la siguiente tabla:

Alumno Matemática Historia Di Di


A 1 2 -1 1
B 2 1 1 1
C 3 3 0 0
D 4 6 -2 4
E 5 4 1 1
F 6 5 1 1

56
Reemplazando valores en la fórmula:

6 . 8
R=1- = 0,77
6 (36 – 1)

El coeficiente de correlación por rangos posee propiedades análogas a la del

coeficiente de correlación de Pearson. Por tal motivo, la interpretación de los valores del

coeficiente de Spearman es análoga a la ya vista en el punto anterior.

Bibliografía
Aron A. y Aron E. (2001) Estadística para Psicología Cap.1 Bs.As.: Pearson Education,
Cortada de Kohan, N. y Carro, J. M. (1968) Estadística aplicada. Bs. As.: EUdeB

57
Capítulo 4. Fundamentos de la inferencia estadística
Los temas que integran los Capítulos 2 y 3 corresponden al campo de la Estadística
Descriptiva, y como se ha visto, permiten la presentación y resumen de los datos
recogidos del análisis de una población o de una muestra en una investigación.
Sin embargo, la Estadística tiene como principal objetivo ser una guía del
investigador en la toma de decisiones que exceden a los datos de la muestra. Esto significa
que las conclusiones respecto de la muestra se generalizan a la población que la misma
representa.
Las técnicas y procedimientos que se utilizan para tal generalización corresponden
a la Estadística Inferencial o Inductiva.
Algunas de los procedimientos inferenciales que se estudiarán son: Pruebas de
Hipótesis o de Significación, Técnicas de Estimación de Parámetros y Pruebas de
correlación y Regresión.
4.1. Parámetros y Estadísticos
En el Capítulo 2 se llamaron Índices estadísticos o simplemente Estadísticos a las
medidas que representan al conjunto de valores de una variable en una muestra. Si esta
muestra es perfectamente representativa de la población estos índices deberían tener los
mismos valores que en la población, pero es fácilmente comprensible que esto sucederá
con certeza solo si se toman todos los datos de la población. Los índices tomados de esta
forma se denominan Indices ciertos o Parámetros de la población.
Los mismos índices, determinados sobre la muestra de una población son los
Estadísticos de la misma y representan una estimación de los parámetros.
Cómo es prácticamente imposible investigar todas las unidades experimentales de la
población, se investiga sobre muestras representativas de la misma y, a partir de las
técnicas de la estadística inferencial se estiman los parámetros de la población.
Para diferenciar los conceptos de estadísticos y parámetros, en la literatura
estadística se realiza una diferenciación en los símbolos que los representan. Los
parámetros se simbolizan con letras del alfabeto griego: µ (media), σ ² (varianza) y σ
(desvío estándar).
4.2. La teoría de las probabilidades y las técnicas inferenciales
Ante la imposibilidad de contar con todos los datos del comportamiento de una
variable en la población, el investigador deberá recurrir a los antecedentes que cuente sobre
el mismo y decidir una probable distribución de los valores de la variable en la población.

58
A partir de esta distribución probable de valores, la estadística inferencial permite
realizar inferencias utilizando el método inductivo en pruebas que toman en cuenta los
datos conocidos de las muestras.
Para adoptar una distribución probable de la variable y dependiendo del carácter de
ésta, se recurre a los modelos matemáticos (teóricos) que ofrece la teoría de las
probabilidades.
El modelo más utilizado y que, en general, se adapta exitosamente a la mayoría de
las variables cuantitativas de una investigación psicológica es el modelo normal de
probabilidades que estudiaremos en la unidad siguiente.
La adopción del modelo normal para la distribución de probabilidades de la
variable en la población implica una serie de consecuencias matemáticas que desembocan
en la determinación del modelo de probabilidades de la distribución de los índices
estadísticos de las muestras.
Este modelo de distribución muestral es, en realidad, un modelo de distribución de
los distintos valores que puede asumir el índice por efecto del muestreo. Puede afirmarse
que esta distribución expresa una distribución de errores probables del azar del muestreo
en el cálculo de los estadísticos muestrales respecto del parámetro de la población. Es
decir, errores probables por efecto de tomar muestras aleatorias y no toda la población.
Al contar con un modelo teórico de distribución de los estadísticos muestrales es
posible, entonces, comparar los resultados empíricos de una muestra particular con dicha
distribución y de esta manera decidir si la muestra es una muestra probable de una
población o si existe una diferencia significativa entre el resultado de la muestra y la
distribución muestral teórica.
La lógica de toda prueba de significación es decidir si hay una diferencia
significativa entre los estadísticos de la variable obtenidos empíricamente en la muestra y
la distribución probable teórica del estadístico en muestras del mismo tamaño de esa
población.
Para la Estadística, decir que hay una diferencia significativa quiere decir que se
descarta la diferencia producida por un error de muestreo ya que el índice obtenido no se
encuentra dentro de la probabilidad teórica.
En otras palabras, toda prueba de significación estadística determina si es
probable o no un error de muestreo, a partir de los resultados de la investigación.
Los psicólogos realizan investigaciones partiendo de una hipótesis de trabajo que, de ser
confirmada, probaría un principio teórico o la efectividad de alguna nueva metodología de

59
abordaje terapéutico. Esta hipótesis de investigación sólo podrá aprobarse con seguridad a
partir de un experimento que permita la evaluación y medición de todas las variables que
intervengan en el fenómeno investigado.
Este procedimiento que es común en ciencias tales como la química y la física, con
sus experimentos de laboratorio, es imposible cuando se trabaja con fenómenos complejos
que involucran conductas sociales, en los que participan muchas variables, y algunas no
controlables o desconocidas. Es en estos casos en que se recurre a la comprobación
estadística de las hipótesis, que tendrá como resultado la afirmación de la hipótesis de
investigación o su negación.
Como se señaló, la estadística sólo puede evaluar una probable diferencia
significativa en los resultados de una investigación respecto de un comportamiento
poblacional conocido, por lo que, la aprobación de la hipótesis se realiza sólo cuando
existe una muy pequeña probabilidad que se trate de una diferencia producto del azar del
muestreo. Esto implica que la decisión sobre la hipótesis de investigación se toma de
manera indirecta y una vez que se descarte un error de muestreo.
Es por esto, que se necesita plantear una hipótesis en la que se pueda contrastar
estadísticamente ese probable error de muestreo y es la que se denomina Hipótesis nula o
Hipótesis estadística, y ésta será la que se ponga a prueba en la prueba de hipótesis o
prueba de significación estadística.
La hipótesis nula afirma que no hay diferencias significativas entre los resultados
de la investigación y los marcados por el modelo teórico de distribución muestral, o lo
que es lo mismo, que la diferencia en los valores de los índices respecto del parámetro
poblacional es producto del error de muestreo.
Frente a esta hipótesis siempre habrá una hipótesis que afirme lo contrario que se
denomina hipótesis alternativa.
Sólo si se rechaza la hipótesis nula el investigador podrá afirmar la hipótesis
alternativa. Si ésta coincide con la hipótesis de investigación habrá afirmado esta última.
Como se verá en los temas siguientes, siempre que se contraste una distribución
muestral el investigador debe decidir previamente el nivel de error que está dispuesto a
asumir en su decisión. A este nivel de error posible se lo llama el nivel de significación de
la prueba.
Este nivel de significación corresponde con una zona de muy baja probabilidad del
modelo de probabilidades que se descarta para realizar el contraste de la hipótesis nula. La
zona de probabilidades que efectivamente se utiliza para contrastar la Hipótesis nula es la

60
restante del modelo y se denomina zona de confianza, y es donde se confía de que se
cumpla dicha hipótesis.

4.3. Errores de Tipo I y Tipo II


La prueba de hipótesis siempre involucra un posible error en la decisión porque se
dejan zonas del modelo de muy baja probabilidad fuera del contraste. Esto es inevitable en
toda prueba estadística y es lo que marca siempre un nivel de incertidumbre. Por lo tanto,
toda decisión sobre una hipótesis implica un riesgo de equivocación, y sólo será
comprobado posteriormente, cuando los resultados esperados de la aprobación de la
hipótesis no se verifiquen. Esto origina dos tipos de errores posibles cuando se contrasta
una hipótesis para tomar una decisión.
El rechazo de la Hipótesis nula erróneamente, es decir cuando no se la tendría que
haber rechazado, se denomina Error de Tipo I.
La situación inversa, es decir, no rechazar la hipótesis nula cuando se la tendría que
haber rechazado implica un Error de Tipo II.
Como se verá más adelante, es posible tomar medidas para acotar los errores, pero
la disminución de un tipo de error siempre tendrá como consecuencia aumentar el otro.
4.4. Teoría de Probabilidades
Como ya hemos señalado, la gran contribución de la estadística va más allá de la
descripción de una o más muestras. Tiene que ver con la población, ya que permite
conocer, con algún grado de certidumbre, características de las poblaciones que no se
pueden conocer de manera directa porque dichas poblaciones son infinitas o tan grandes y
complejas que se hace imposible abarcarlas totalmente en un estudio. El capítulo de la
estadística que se ocupa de las técnicas que permiten estas determinaciones, como hemos
visto se denomina estadística inferencial ó inductiva.
El objeto de toda inferencia estadística está en decir algo acerca de las diversas
características de la población estudiada, sobre la base de hechos conocidos a propósito de
una muestra sacada de dicha población.
Como se señaló anteriormente toda inferencia estadística se realiza en base a un
modelo probabilístico, lo que hace necesario que nos aboquemos al estudio de la Teoría de
las Probabilidades como fuente de dichos modelos.

61
4.5. El azar y su estudio sistemático
Como se señaló en el capítulo 2, el término general para cualquier característica que pueda
medirse en una unidad experimental, y que varíe dentro de la población en estudio es la
variable. Las variaciones se producen por dos razones principales:
1. El error en la medición, que incluye la variabilidad debida a clasificaciones
equivocadas, la variabilidad de los instrumentos que se usan y la variabilidad entre
los que hacen las mediciones.
2. La variabilidad inherente a todos los sistemas biológicos. Existen
diferencias entre las especies, entre individuos dentro de una especie y entre partes
de un mismo individuo.
Por estas razones, se denomina a toda variable que es observada como parte de un
experimento como variable aleatoria. Por lo tanto, cada observación de un conjunto de
datos revela un resultado de dicha variable aleatoria. En algunos casos se asignan
arbitrariamente números a los resultados de una variable aleatoria que no puede expresarse
cuantitativamente, por ejemplo, 0 si la cualidad estudiada no está presente, 1 si lo está,
resultando una variable aleatoria discreta dicotómica (sólo dos resultados posibles). En
otros casos, variables pueden expresarse con una escala cuantitativa continua como
mediciones de tiempos ó mediciones de habilidades tratándose, entonces, de variables
aleatorias continuas.
Como se señaló, la aleatoriedad de la variable deviene del concepto de azar en la
manifestación del fenómeno, al que entendemos como el suceso o caso fortuito, es decir
aquello que sucede imprevistamente, es decir, sin "intencionalidad" conocida.
Con la caída del determinismo, como plantea Sussel, la evolución del pensamiento
científico lleva a darle hoy, un real estatuto al azar como inherente a toda investigación;
no ya en forma peyorativa, como ignorancia, sino como aquello que se desconoce en una
primera aproximación a partir de un pensamiento lineal y simple, y que exige considerarlo
permanentemente parte del proceso.
Sistematizar el azar, sería entonces algo así como un sofisma, pues como podría
sistematizarse lo fortuito, como podríamos sistematizar lo desconocido. Pero el azar es
posible de sistematizar a partir de la Teoría de las Probabilidades que permite contrastarlo
permanentemente utilizando herramientas apropiadas.
La estadística inferencial se constituye en una de esas herramientas, permitiendo al
científico, en cualquier campo "predecir y prever" con relación a los fenómenos que le

62
conciernen, acotando así el impacto de lo que llamamos "lo imprevisto", pero no como una
forma ilusoria más para eliminar la "incertidumbre", sino amplificando la predictibilidad.
Para ilustrar lo expresado acerca del desconocimiento y la incertidumbre.de un
problema investigado, puede tomarse un ejemplo: si estudiamos las consecuencias del
parto de cinco madres, internas de un neuropsiquiátrico con diagnóstico de psicosis, se
podría suponer que ninguno de los hijos recién nacidos, o algunos, o todos podrían
presentar alteraciones de personalidad significativa. Estamos en presencia de una situación
azarosa (o aleatoria) y lo esencial de este azar es que no se sabe el resultado cierto, ya que
podrían ser cualquiera de los mencionados. Si no es posible evaluar o conocer qué tan
factible es cada resultado, tenemos una situación de incertidumbre. Pero si, por el
contrario, es posible tener una idea de cuánto probables son los diferentes resultados
(ninguno, alguno, algunos o todos), se tendrá una situación de riesgo, sobre la que se
puede actuar preventivamente..
Estas situaciones enfrentaron al pensamiento científico, imperante hasta fines del
siglo XIX, a su imposibilidad de resolverlas. El esquema causal determinista concibe a las
leyes científicas, como una relación entre fenómenos, de tal suerte, que estarían
encadenados indefectiblemente y eternamente a una relación causa-efecto, en forma
inmutable y unívoca, donde a idénticas situaciones se obtienen idénticos resultados. Pero
si los fenómenos responden a situaciones de riesgo, es decir son fenómenos aleatorios, que
implican el comportamiento de poblaciones o universos numerosos que no se ajustan a
leyes sistemáticas y están influidos por el azar, ante idénticas situaciones pueden obtenerse
comportamientos diversos de los sujetos o entidades.
Esta aspecto afianza más a la Estadística y al Cálculo de Probabilidades, ya que
estas disciplinas permiten arribar a leyes estables (no fijas), del comportamiento
"promedio" de los individuos de la población.
El cálculo de probabilidades se atribuye a los matemáticos Pascal y Fermat, a partir
del siglo XVII, cuando estudiaban responder a las preguntas que surgían en los juegos de
azar.
Posteriormente Laplace, a fines del siglo XVIII - principios del XIX, le da una
estructuración definitiva al Cálculo de Probabilidades, permitiendo además su unificación
con la Estadística, hasta ese momento disciplinas separadas, de tal manera, que se
constituye la Probabilidad como una estructura matemática de base de la Estadística.
La probabilidad es una cualidad, de lo "probable", y ambas palabras provienen de la
familia de "probar", siendo ésta un verbo, que significa por tanto una acción, un hacer, con

63
el fin acreditar por la experiencia que algo del orden de un atributo o fenómeno es
verosímil, la verosimilitud indica aquello que puede ser verdad o no para la razón.
Por lo tanto probar es hacer un examen y un experimento de cualidades, que
permita el conocimiento del fenómeno.
Por ello se tiene, por un lado los conceptos que apuntan a los hechos como
fenómenos captados por los sentidos y por otro, a experiencias que intentan mediante la
comparación, por oposición o analogía con experiencias previas, arribar a la
comprobación.
Los sucesos aleatorios se caracterizan porque admiten dos resultados posibles o
más, y no se tienen elementos de juicio, para afirmar cuál de esos resultados ocurrirá en
una determinada situación.
A esos resultados que tienen la misma oportunidad de ocurrir, se los llama sucesos
o fenómenos equiprobables, es decir que son igualmente posibles de suceder cuando no
hay razón para que uno de ellos pueda producirse con preferencia a otro.
De esto se deducen los dos componentes esenciales en toda situación o experimento
aleatorio:
• La enumeración de posibilidades a futuro, llamado espacio muestral, que es
el conjunto de todos los resultados posibles.
• La cuantificación de la incertidumbre, que es la asignación de
probabilidades.
La probabilidad de un evento dentro del espacio muestral, puede ser nula, posible o
segura. Si se toma un ejemplo, sería:
a. Nula. Ej. Cuál es probabilidad de encontrar un alumno, en una comisión de
Psicoestadística, del turno noche, en Agosto de 2016, en la Universidad Kennedy,
que tenga 6 años de edad.
b. Posible. Cuál e la probabilidad de que llueve en algún día del mes.
c. Segura. Qué probabilidad existe, de que un alumno universitario tenga el nivel
primario completo.
4.6. Probabilidad Teórica y empírica
La probabilidad es una rama de las matemáticas que se ocupa de medir
cuantitativamente la posibilidad de que un suceso o experimento tenga un determinado
resultado.

64
La probabilidad de un "resultado" se representa con un número, entre 0 y 1. El 0
indica la probabilidad nula y el 1 la probabilidad segura. Entre los valores de 0 y 1 se
encuentran las probabilidades de los sucesos posibles.
Los problemas sencillos, son aquellos que miden la probabilidad de un suceso
favorable en un experimento o acontecimiento, con un número conocido de resultados,
todos ellos con igual posibilidad de ocurrir.
El número total de resultados posibles conocidos se indica con la letra n, y de esos
resultados él o los favorables, es decir, aquellos que se esperan que sucedan, se designan
con la letra f.
La probabilidad es la que se ocupa de medir cuantitativamente una posibilidad, por
tanto responde a una fórmula matemática, que relaciona los dos elementos n y f, de la
siguiente forma:
p = f
n
Es un cociente, que se resuelve reemplazando los términos:
Ejemplo: si se tienen cuatro lápices negros y uno rojo en mi cartera, al sacar un lápiz sin
mirar, tengo la probabilidad de sacar el lápiz rojo entre cinco posibilidades, esto sería el
total de lápices, n = 5, f, es decir lo favorable, es el lápiz rojo, o sea f = 1.

p= 1 (tengo un solo rojo) p = 0,20


5 (tengo un total de 5 lápices)
Hay una probabilidad de 0,20 de sacar un lápiz rojo al azar
Si se quiere saber la probabilidad de sacar un lápiz verde, su posibilidad f es igual a
0, y n sigue siendo 5, resulta del cociente p=0,00 (probabilidad nula). En cambio si todos
los lápices fueran rojos, la probabilidad de sacar uno rojo entre cinco, sería 5 dividido 5
igual p=1.00 (probabilidad segura)
Al estimar la probabilidad, puede ocurrir que se sepa previamente cuáles son los
sucesos totales posibles sin hacer ninguna medición previa como, por ejemplo la
probabilidad de sacar un 2 al tirar un dado. Otra situación, como ocurre en la mayoría de
los casos, es que no se sepan los sucesos posibles previamente por lo que es necesario
realizar una experiencia y registrar todos los resultados posibles,
En el primer caso, se calcula teóricamente la probabilidad, apelando a la lógica, y
se habla de probabilidad teórica. En cambio, cuando los problemas se estudian mediante
experimentos repetitivos y el cálculo de probabilidades se determina sobre la base de ellos,
se habla de probabilidad empírica.

65
La probabilidad empírica de un suceso, está determinada por las veces que ese
suceso se dé al repetir la experiencia, o sea la frecuencia con que se produce ese resultado,
y como la probabilidad es la relación con el número total de experiencias, se puede
analogar la probabilidad con la frecuencia relativa de aparición de ese evento.
Esta analogía responde a una Ley empírica formulada por el matemático Bernoulli,
que la llamó Ley empírica de los grandes números, y puede enunciarse como: los
resultados de la experimentación y observación en los más diversos campos de la ciencia,
técnica, en los juegos de azar, etc., permiten afirmar, con "certeza" práctica, que, a
medida que crece el número de repeticiones de un acontecimiento de probabilidad p, la
frecuencia relativa se aproxima a p, llegando a la igualdad cuando el número de
repeticiones es suficientemente grande.
Es por esto que, cuando se trata de poblaciones, se puede asimilar la distribución de
frecuencias relativas de una variable a la distribución de probabilidades de la misma.
Para entender intuitivamente esta conclusión basta en pensar que al repetir el cálculo de
probabilidades con mayor número de ensayos los errores fortuitos se irán equilibrando y la
probabilidad se irá ajustando a la teórica. Por ejemplo, si tiramos 10 veces una moneda al
aire es impensable que se obtengan como resultado 5 caras como indicaría la probabilidad
teórica, pero si repetimos la tirada 100000 veces es fácilmente comprensible que puedan
ocurrir 49000 caras y entonces la probabilidad teórica y la frecuencia relativa de caras
serían prácticamente iguales (probabilidad teórica 0,50, probabilidad empírica
49000/100000 = 0,49)
Observaremos que cuanto más veces se repita el fenómeno, o sea cuanto más
grande sea el número de observaciones, mayor es la aproximación al valor que defina la
probabilidad de ese suceso.
Es importante destacar que no todos los problemas son sencillos, pues se pueden
estudiar acontecimientos en que los distintos resultados pueden tener distintas
probabilidades de ocurrir, o incluso tener un número infinito de posibles resultados. En
este caso se esrtá en presencia de eventos compuestos.
Ante eventos compuestos, es necesario tener en cuenta de qué forma se arriba a la
estimación cuantitativa de la probabilidad, siempre teniendo en cuenta delimitar
exactamente en tiempo y espacio el fenómeno y la forma en que se desean determinar los
resultados.
Puede analizarse a través de un ejemplo: Se considera una población marginal, es
decir de escasos recursos económicos y se toma una muestra de 100 niños entre 5 y 7 años,

66
para investigar distintas situaciones posibles. Si se quiere saber la probabilidad de
encontrar un niño con síntomas de desnutrición por un lado y por otro, la probabilidad de
que un niño presente un deficiente rendimiento escolar. Un evento sencillo sería el del
cálculo de la probabilidad de cualquiera de las dos situaciones por separado, pero si se
plantea la probabilidad de encontrar niños con problemas de desnutrición y que
simultáneamente presenten bajo rendimiento escolar, estaríamos frente a un evento
compuesto.
La conjunción y determina una probabilidad de eventos compuestos, es decir, que
ambos se tienen que dar juntos, matemáticamente responde a la ley de la multiplicación,
que significa que la probabilidad de obtener ambos es igual al producto de cada
probabilidad individual de cada evento, en fórmula:

P (A y B) = P (A) . P (B)

Pero si ocurre, que ambos eventos se deben dar juntos, pero que la presencia de
uno depende de la presencia previa del otro, y viceversa, se plantea una probabilidad
condicional, dado que cada uno de los eventos puede depender del otro, son sucesos
dependientes. En este caso la fórmula:

P (A y B) = P (A) . P (B/A) = P (B) . P (A/B)


P (B/A) se interpreta como la probabilidad de que sabiendo que sucede B, además
suceda A y P(A/B) viceversa.
Mediante ejemplos sencillos se pueden ver las diferencias:
a.- Si de un mazo de 40 cartas quiero plantear la posibilidad de que al sacar 2
cartas juntas se dé un 4 y 7 (compuesta independiente):
P (4 y 7) = P (4) . P (7) = 4 . 4 = 0,01
40 40
b.- Si en una bolsa hay 3 bolas blancas y 2 negras, si el primer suceso E1 es que la
primera bola que se saque sea negra:

P (E1) = 2 = 2
3 + 2 5

Y E2 que la segunda bola extraída sea negra:

P (E2) = 1 = 1
3 + 1 4

67
Se ve que E1 y E2 son sucesos dependientes. La probabilidad que sucedan ambos será
entonces:

P (E1 E2) = 2 / 5 x 1 / 4 = 0,1

Otro tipo de casos, es el de la probabilidad en sucesos mutuamente excluyentes, es decir


cuando la presencia de un suceso anula la posibilidad de la presencia del otro, es decir que
no pueden ocurrir al mismo tiempo. El ejemplo más sencillo es el de la moneda, si al
arrojar una moneda salga cara o seca, cada uno de los sucesos anula al otro. En este caso la
conjunción ó plantea el sentido excluyente de la probabilidad, y matemáticamente
responde a la ley de la suma, y se interpreta, como que la probabilidad de que se produzca
un evento A o B, es igual a la suma de sus probabilidades individuales
P (A ó B) = P (A) + P (B)
Una consecuencia de la definición de probabilidades es que si se suman las probabilidades
de todos los sucesos posibles, la suma es siempre 1,00 (uno).
Si se numeran de 1 a k los sucesos posibles, entonces:
P1 + P2 + P3 + P4 +………..+ Pk = 1.00
La suma de todos los eventos o sucesos posibles es 1,00
De esto, puede deducirse además que:
P1 + P2 + P3 = 1,00 – ( P4 +……..+ Pk)

4.2.3. Distribución de probabilidades


Al observar un fenómeno, las variables pueden adoptar distintos valores; en el
estudio estadístico, se recogen esos datos, se vuelcan en tablas, y se confeccionan los
gráficos de acuerdo con los distintos valores que adopta la variable en cada muestra; si
llamamos X a la variable, los valores obtenidos son X1, X 2, X 3... Xn
Donde cada uno es un valor numérico o modalidad correspondiente al atributo que se está
midiendo (variable).
Se entiende que puede atribuirse a cada X una probabilidad P, resultando que la
sumatoria de todas las probabilidades individuales de todos los valores de X es igual a
1,00. De esta forma se define una variable aleatoria, con relación a la ley de
probabilidades, mediante pares de valores (X1, P1), (X2, P2),..... , (Xn, Pn).
Si toma la variable valores continuos, al graficar el polígono de frecuencias resultará una
curva continua, y el área debajo de la curva, dado que constituye una distribución de

68
probabilidad continua, toma en cuenta todas las probabilidades por lo que representa a
1,00.
4.2.4. Modelos probabilísticas
Un modelo matemático de probabilidades es una representación ideal o una
construcción, en la forma de un sistema, proposición, fórmula o ecuación y representa
todas las probabilidades que puede asumir una variable aleatoria que pueda represntarse
con el mismo. Estos modelos preexistentes son instrumentos para la interpretación de
comportamientos en fenómenos aleatorios. En Estadística son los que nos permiten la
interpretación de los sucesos que investigamos. Muchas veces la interpretación no resulta y
esto no depende de errores del modelo elegido, sino precisamente en el error al elegir el
modelo. Este debe responder a los fines de la investigación para permitir la lectura e
interpretación adecuada de los resultados y para lograr tener cierta predictibilidad sobre el
comportamiento de las variables dentro de una población, en relación el fenómeno
estudiado. Como debe indicar en qué forma se distribuyen los valores de la variable y sus
probabilidades, se les llama distribución.
Una distribución de probabilidad es un modelo para una variable aleatoria, que
describe la forma en que la probabilidad está distribuida entre los valores posibles que la
variable aleatoria puede asumir. Como se vio anteriormente la probabilidad puede ser
interpretada como la frecuencia relativa en un número indefinido de pruebas. Desde el
punto de vista matemático, los conceptos “distribución de la probabilidad” y “variable
aleatoria” están interrelacionados; una variable aleatoria debe tener una distribución de
probabilidad y ésta debe estar asociada a una variable aleatoria.
El primer paso para toda inferencia estadística que permita obtener información de la
población a partir de la información de una muestra de la misma, es la adopción de un
“modelo matemático de distribución de probabilidades” que represente el
comportamiento probable de una variable en dicha población.
Las distribuciones que se describirán a continuación son, por lo tanto, teóricas; aunque
ellas tienen gran importancia y utilidad en la práctica.
En este curso se estudiarán dos tipos de distribuciones: la distribución binomial y la
distribución normal.
4.2.5. Distribución binomial
La distribución binomial representa las probabilidades de diferentes resultados de
una variable aleatoria, donde cada uno de los cuales puede tomar uno de dos valores. Las
variables discretas de este tipo se denominan dicotómicas.

69
Se puede tomar como ejemplo de esta variable a los resultados del lanzamiento de
monedas. En este tipo de problemas, el número de los lanzamientos constituye la magnitud
de la muestra, y el interés se centrará en el número de caras (éxitos) obtenidas en n
pruebas.
Suponiendo que las n pruebas son estadísticamente independientes una de otra,
podemos evaluar inmediatamente las probabilidad de obtener r caras sucesivas seguidas de

(n-r) cruces. Supongamos que p es la probabilidad de obtener una cara; en este caso la
probabilidad de obtener una cruz es (1-p) y se simboliza como q. Como las pruebas son
independientes, puede utilizarse la regla de la multiplicación para el cálculo de la
probabilidad para el caso considerado:
r n-r
p . p . p. . . . . . .p . q.q.q.......q = p . (1 - p)

( r términos ) ( n-r términos )


Esto representa la probabilidad de este suceso según un orden determinado de
aparición de las caras y cruces
Es obvio que la probabilidad de obtener r caras y n-r cruces en otro orden tiene
la misma probabilidad. Por lo tanto, para obtener la probabilidad de conseguir
exactamente r caras en cualquier orden sólo se necesita contar el número de maneras
distintas que tenemos de obtener r caras y (n-r) cruces y sumar las probabilidades.
Cuando n es grande esto es engorroso, pero, afortunadamente existe una fórmula
matemática para determinar las combinaciones posibles de r en n y se expresa por:
n n!
( ) = -----------------
r r ! ( n-r) !

donde n! es el factorial de n y (n-r)! es el factorial de (n-r)


Por lo tanto, la probabilidad total será
n r n-r
P(r) = ( ) . p . q
r
Esta ecuación que proporciona la probabilidad de obtener r sucesos esperados entre

n posibles, aplicada a todos los sucesos r posibles se conoce como la ecuación de la


distribución binomial de la probabilidad y se utiliza como modelo de probabilidades para
variables discretas cuyos resultados se expresen como éxitos ó fracasos. Los parámetros

70
de la distribución son: La media de la distribución binomial es µ = n. p y la varianza es
σ2 = n . p . q
Si se representan gráficamente las probabilidades para diferentes números de
lanzamientos, al aumentar estos el gráfico tiende a transformarse en una curva simétrica.
En ejemplo la la representación de la probabilidad del suceso cara para el
lanzamiento de una, dos o tres monedas es el siguiente:
0,50 0,50 0,33
p p p 0,16
0,25

0,03

nº caras nº caras nº caras


Un lanzamiento Dos lanzamientos Cinco lanzamientos
4.2.6. Distribución normal
Este es el modelo de distribución de variables cuantitativas continuas y
corresponde a la llamada función normal según la siguiente ecuación de Laplace:

(X-µ)²

1 2 σ²
p= e
σ √2 π
Donde
µ = media (parámetro de la curva)
σ = desvío estándar (parámetro de la curva)
e y π son valores numéricos constantes
Esta función está definida en todo el campo real y la representación gráfica
responde a una curva en forma de campana simétrica al eje de las ordenadas p. En esta

distribución, la variable p es dependiente de X, y ésta última es la variable independiente,


por lo que se conoce como distribución de probabilidad continua de X.
Ejemplo gráfico de la función normal

71
La mayoría de las variables en los fenómenos objeto de estudio para las ciencias
sociales y biológicas, cumplen aproximadamente las características de esta distribución,
dado que las frecuencias tienden a distribuirse simétricamente alrededor de los valores
promedios de la variable, es decir de su media μ por lo cual cobra importancia relevante
cuando se adoptan como parámetros de la curva normal los parámetros de una variable en
una población para permitir la observación e interpretación del comportamiento de las
misma.
Es un modelo útil, que a través de una extensa aplicación en innumerables
investigaciones, justifica su empleo, pues se adecua y además facilita trabajar
inferencialmente a través de muestras y hacer la consecuente proyección a la población.
Como expresa la ecuación del modelo, las probabilidades no dependen del número
de casos considerados por tratarse de poblaciones y no de muestras.
Se observa su utilidad cuando al estudiar muestras cada vez más grandes la distribución de
las frecuencias relativas de sucesos aleatorios se hacen muy semejantes a las distribución
normal de probabilidades. En la distribución normal, se sabe que todos los sucesos se
consideran independientes, con la misma fuerza, y la misma probabilidad de ocurrir, tal
cual se supone a priori de cada una de las variables involucradas en el campo de los
fenómenos sociales, y este modelo hipotético encuentra en ello otro motivo de elección.
Volviendo a su expresión gráfica, debe tenerse en cuenta que toda curva o figura,
en un gráfico, encierra un área proporcional al tamaño de la población ya que hay una
relación proporcional del área encerrada con la cantidad de sujetos o entidades que
presentan los valores de la variable, encerradas en esa superficie.
Con relación a la curva normal, el área de la región encerrada bajo la curva entre
los valores X1 y X2, es la probabilidad de que la variable aleatoria continua X, tome valores
encerrados entre los dos valores de X:
p

X1 X2

72
Ø
Puntaje estándar
Los valores de las variables cuantitativas pueden expresarse de una forma que
facilita la utilización del modelo normal y que se denomina puntuación estándar o
reducida y que se simboliza por la letra Z.
Consiste en transformar el valor de la variable restando el valor de la media poblacional y
dividiendo el resultado por el desvío estándar poblacional
Si llamamos X1 valor de la variable X cuya distribución tiene una media de μ y un

desvío estándar de σ, el valor expresado en el puntaje estándar en

X1 - μ
Z1 =
σ
4.2.7 Distribución normal estandarizada
Llamada también distribución de la variable reducida Z, es un modelo simplificado
y estandarizado, que permite trabajar con cálculos matemáticos sencillos, obteniendo
iguales resultados que con la curva normal, pues en la elaboración del modelo
estandarizado, se hallan representadas todas las posibles curvas normales ya que esta
distribución no depende de los parámetros de la población μ y σ.
Es un ejemplo de distribución continua muy significativo e interesante pues facilita
la comparación entre postulados teóricos y las experiencias prácticas a partir de la
Estadística y el Cálculo de probabilidades.
Es una función representada por una curva de forma de campana, igual a la normal
en forma, pero con las siguientes características:
a. Es una curva con ordenadas p siempre positivas y decreciente hacia ambos lados
del máximo representado en el eje de simetría,
b. Es simétrica respecto al eje de ordenadas p y asintótica con el eje de las abscisas Z
(quiere decir, que se acerca indefinidamente al eje Z pero jamás lo toca).
c. Tiene una probabilidad máxima, en el valor de Z = 0. (X = μ)

d. Tiene dos puntos de inflexión, para los valores de Z= 1 y Z= -1 (X=μ+σ)(X=μ-σ)

-1 0 +1 z

73
Los valores de probabilidades de la variable estándar Z están calculados y
representados en una Tabla a la que se puede recurrir transformando los valores de X en Z.
Cuando se trabaja con una población, que responde a la distribución normal, se
pueden efectuar operaciones que permitan utilizar el modelo de la variable reducidapara
calcular las probabilidades, efectuando las conversiones correspondientes.
Dos son en líneas generales las operaciones que se pueden realizar para dicha
transformación: una gráfica y otra de cálculo:
a) Gráfica: desplazando el origen de Z, es decir Z=0, al valor de la media de la
población, resultando que la media del modelo estándar se transforma en el valor
0. Por ejemplo si la media de la muestra es 70 en X, será 0 en Z:

70 (media) x

-z 0 +z

b) En cálculo: Transformando los valores de X, en valores de Z, mediante la


fórmula vista anteriormente, que precisamente toma los valores de la media y del
desvío estándar de la población, que es lo que identifica a la misma en particular.
Esta conversión, significa cambiar la unidad de medida a valores expresados en
unidades de desvío estándar, mediante la ecuación:

Z = (X-µ)
σ
Remplazando en la Ecuación de Laplace X por la variable reducida Z
Z ²
1 2
P/σ = e
√2 π

74
Esto permite calcular las probabilidades en función de Z, transformando las
infinitas curvas posible según los parámetros μ y σ en una sola curva normal estándar con
parámetros 0 y 1. Los matemáticos calcularon las probabilidades con todos los valores de z
posibles con dos decimales y las registraron en una Tabla de Z.
Una vez efectuadas estas operaciones ya se puede utilizar la tabla de Z, pata hallar
cualquier probabilidad de la población, consideradas como áreas, que representan los
valores para cada par de valores de X que desee particularizar.
Algunas áreas de probabilidades características pueden ser las que siguen:
Entre σ = -1 y σ = 1 se halla el 68,27% de la población
Entre σ = -2 y σ = 2 se halla el 95,45% de la población
Entre σ = -3 y σ = 3 se halla el 99,73% de la población

-3 -2 -1 0 1 2 3 z

Como se señaló anteriormente, el área es proporcional a la probabilidad o a la


frecuencia relativa para cualquier par de valores de la variable, El área se interpreta como
la cantidad de casos probables en el total de casos posibles, que se hallan entre ese par de
valores de variable, para nuestra interpretación, sería la cantidad de sujetos o unidades de
análisis que tienen esos valores de variables con relación al total de sujetos o unidades de
análisis de la población.

4.2.8. Distribución Muestral


Si se adopta el modelo normal de probabilidades para una población se demuestra
matemáticamente, a partir del Teorema de Límite Central, que las posibles muestras de esa
población tendrán como distribución de probabilidades de los estadísticos muestrales,
también una curva normal para cada tamaño de muestra y con parámetros diferentes para
cada caso. Esto significa que medias, desvíos estándar, variancia, etc., de las muestras de
un tamaño N definido tienen una probabilidad teórica de distribuirse según el modelo
normal de probabilidades.

75
Esta propiedad matemática se utiliza para tomar decisiones inferenciales a partir de
los resultados empíricos correspondientes a muestras de la población.
Si se calcularan los estadísticos midiendo la variable en toda la población
obtendríamos un único valor que sería el parámetro de la población. Por lo tanto, esta
distribución de probabilidades se produce por utilizar muestras y no estudiar toda la
población.
De esta forma, podemos decir que la distribución muestral es la representación de
los errores en el cálculo de los estadísticos de muestras de tamaño N; errores posibles
por no considerar toda la población y elegir aleatoriamente de las unidades que
integran las muestras
La Estadística Inferencial utiliza la distribución de probabilidades teóricas de
muestreo como el patrón de comparación frente a los que se contrastan los resultados
empíricos de una investigación para saber si una muestra tiene un comportamiento igual
o significativamente diferente al de una población.
Para afirmar que una diferencia es significativa se debe descartar la posibilidad de
que el resultado haya sido producto de un mero error de muestreo, representado en la
distribución muestral.
La utilización de los modelos matemáticos de probabilidades para probar hipótesis
se basa en una lógica de toma de decisión específica de la Estadística Inferencial. Esta
lógica permite que las pruebas inferenciales de la estadística sean utilizadas en todo tipo de
problemas correspondiente a cualquier disciplina científica, ya que sus conclusiones no
toman en cuenta el marco teórico de la misma sino la probabilidad de que los resultados
empíricos no sean producto de un error inherente al muestreo.
A partir de esta lógica, según lo visto anteriormente., se definen diferentes
conceptos que permiten hacer operativa la misma como: intervalo de confianza, nivel de
significación, hipótesis de nulidad e hipótesis alternativa.

4.4. Pruebas de la Estadística Inferencial


Existen diferentes técnicas para contrastar los resultados empíricos de una
investigación que permiten tomar decisiones confiables en base a datos estadísticos.
4.4.1. Pruebas de hipótesis. Pruebas de significación
El objetivo de una llamada prueba de hipótesis, es verificar si una hipótesis
planteada en una investigación puede considerarse verdadera (o falsa) con un alto grado de

76
probabilidad. Las hipótesis son formuladas en forma matemática y por lo tanto, su
verificación es matemática y se basa en la teoría de las probabilidades.
A estas pruebas de hipótesis se las llama también pruebas de significación, dado
que uno de los principios de estas pruebas es verificar si la diferencia entre los
estadísticos de una distribución muestral y los obtenidos experimentalmente es
significativa.
Usualmente se trabaja con pruebas que responden a la distribución normal como
modelo matemático o probabilístico. Es por ello que primero debe observarse cuál es la
capacidad de utilización de este tipo de distribución.
En principio, esta distribución se puede utilizar en aquellas variables que, a través
de estudios previos con muestras grandes puede afirmarse que se distribuyen en forma muy
aproximada a la distribución normal.
4.4.2. Error Estándar de una Distribución muestral
Según lo visto en el punto 3.2.8., si en una población con una media aritmética μ y

un desvío estándar σ se extraen n muestras de tamaño N, obtendremos de cada una de las


muestras n medias aritméticas. Como se señaló previamente, esta variación de resultados
se produce porque tomamos al azar una cantidad limitada de datos de una población y no
todos.
Cada uno de estas medias muestrales pueden representarse gráficamente en función
de la cantidad de veces que se repite el mismo valor, es decir, de su frecuencia. Se puede
afirmar que, para tamaños de muestras N mayores a 30 unidades de análisis, estas
distribuciones de medias muestrales siguen siempre muy aproximadamente la distribución
normal, independientemente del tipo de variable que se trate.
Esto habilita, cuando se estudian las medias de muestras de una población, a utilizar
la distribución muestral probable de medias que surge de la Teoría de las Probabilidades y
que tiene como parámetros una media que llamaremos μ y un desvío estándar de las

medias cuyo símbolo es σm, que se denomina error estándar y cuya ecuación de cálculo,
de acuerdo al Teorema del Límite Central es:
σ
σm = ------------- (Error Estándar)

N
Siendo: μ y σ los parámetros de la población en estudio

77
La distribución muestral de medias es, entonces, la distribución teórica probable de
medias de muestras de un tamaño determinado La dispersión reflejada en σm es producto
de tomar muestras de tamaño N y es por esto, que también se la denomina el error
estándar de la distribución. De la ecuación, se deduce que σm siempre es menor al

desvío estándar de la población σ y que, cuanto mayor es el tamaño de la muestra menor es


el error estándar. Esto último es lógico, ya que cuanto mayor es N más se acerca al tamaño
de la población, menor será la dispersión de valores de medias muestrales, es decir,
disminuye la probabilidad de error.
4.4.3. Prueba de Hipótesis de Medias
Cuando la hipótesis plantea que una media muestral es significativamente diferente
a la media de la población, para comprobarla se debe utilizar una prueba de significación
de medias. La hipótesis mencionada será la hipótesis de investigación o experimental
Una hipótesis experimental sólo puede probarse científicamente mediante
experimentos válidos y confiables, acción normalmente imposible de realizar en estudios
sociales, y esta es la causa por la que se prueban estadísticamente.
La hipótesis se formula siempre a partir de un estadístico de la muestra y, por lo
tanto, en este caso se utilizan los criterios de la lógica estadística y se realiza una prueba
estadística de significación para verificar si lo que afirma la hipótesis puede deberse a un
error de muestreo o no.
Una prueba de significación de medias es un contraste entre una media
experimental de una muestra de tamaño N y la distribución de muestreo probable para
muestras de la población de igual tamaño. Este contraste se realiza dentro de una zona
limitada de la distribución muestreal caracterizada por los parámetros μ y σm, que se
denomina intervalo de confianza o nivel de confianza de la prueba y que será lo más
amplio posible. Es necesario adoptar este nivel de confianza porque, al ser asintótica la
distribución normal siempre existirá una probabilidad de que exista una media que se
origine por error de muestreo aunque esa probabilidad sea ínfima. Los niveles de confianza
se eligen siempre como mínimo del orden del 95% de las probabilidades de la distribución
muestral y en las colas de la distribución, ya que en esa zona la probabilidad es muy baja.
Esto significa que toda prueba inferencial descarta una parte del modelo en la zona donde
es menor el riesgo de equivocarse al tomar una decisión.
Plantear una prueba estadística para determinar que una media experimental es
diferente significativamente de la media poblacional es afirmar que la misma está fuera del

78
intervalo de confianza de la distribución muestral, ya que ésta es la zona en la que el
investigador confía que se refleje un error de muestreo.
Por lo tanto, la lógica estadística de esta prueba se basa en intentar demostrar la
falsedad de una hipótesis que avale la diferencia significativa, afirmando que el resultado
es producto de un error de muestreo. Esto se plantea con una hipótesis nula o de nulidad,
que sostiene que el resultado no es significativo. Esto es, La Hipótesis nula conjetura que
la diferencia entre la media de la población y la de la muestra no es significativa y es
producto de un error de muestreo. En contraposición a esta hipótesis existirá siempre una
hipótesis estadística que afirme lo contrario y que se denomina hipótesis alternativa
Por lo tanto, si la prueba demuestra que la media de la muestra se encuentra dentro
del intervalo de confianza no se puede rechazar la hipótesis nula y se rechaza la hipótesis
alternativa. Por lo contrario, si la media de la muestra se encuentra fuera del intervalo de
confianza, está dentro de la zona en la que puede sostenerse con un margen de probabilidad
alto que la diferencia entre la muestra y el parámetro poblacional es significativa. Por esta
razón, a la zona del modelo de probabilidad muestral que se descarta inicialmente es la
zona de significación de la diferencia y se postula como el nivel de significación de la
distribución muestral, representándose con el símbolo α.
Si ocurre esta últimos, se rechaza la hipótesis nula y se acepta la hipótesis
alternativa que sostiene que la diferencia entre la media de la muestra y de la del universo
es significativa. Si la hipótesis experimental coincide con la hipótesis alternativa, se
comprueba la validez estadística de la misma.
El nivel de significación de una prueba estadística lo elige el investigador, de
acuerdo al riesgo que implica la comprobación de su hipótesis pero, nunca es mayor al 5%
de la probabilidad total de la distribución. Como el nivel de confianza es el resto de la
distribución, será más confiable la verificación de una hipótesis cuanto mayor sea éste y,
por lo tanto, cuanto menor sea el nivel de significación. Como se señaló, esto es así porque
el nivel de significación también es parte de la distribución muestral y una muestra puede
estar dentro y ser posible sólo por error de muestreo.
Un investigador, al elegir el nivel de significación está dejando fuera del contraste
de la hipótesis una zona de probabilidades muy pequeñas, lo que le permite tomar una
decisión con el menor error probable y, por lo tanto, con el menor riesgo posible.
La elección del nivel de significación de la distribución muestral dependerá de lo
que el investigador espera como resultado significativo. Si espera un resultado significativo

79
mayor que μ elegirá la zona en la cola derecha de la distribución. Si espera un resultado

significativo menor que μ elegirá la zona en la cola de la izquierda del modelo. Por otro

lado, si el resultado será significativo tanto si es mayor o si es menor que μ la zona de


significación deberá desdoblarse y ubicarse en las dos colas de la distribución muestral, por
lo que se dice que se trata de una prueba de dos colas.
Reiterando, en el caso de que la hipótesis experimental proponga que la media
muestral es mayor que la media poblacional, se trata de a una prueba de una cola, y en
este caso todo el nivel de significación se hallara del lado de medias mayores (derecha de
la curva). En el caso inverso, si se plantea una hipótesis experimental que exprese que la
muestra tiene una media menor que la de la población, la zona de rechazo se ubica en la
otra cola de la distribución, a la izquierda de la misma

Una cola
P(x) Intervalo de Confianza

Nivel de Significación (α)

µ xf

Dos colas
P(x)

Nivel de significación (α/2)

(µ - σ) µ (µ + σ) X
Como la distribución muestral es una distribución normal. las pruebas de hipótesis
se realizan utilizando la distribución normal estándar (en función de Z) que permite

80
delimitar perfectamente el intervalo de confianza y la zona de rechazo. Así, para una
distribución muestral, en la que la variable es medias de muestras de tamaño N, se calcula
la variable estadarizada Z como:
X - μ
Z = ---------- (1)
σ
N

X es la media muestral,
μ es la media poblacional
σ es el desvío poblacional,
N es el tamaño de la muestra.
El procedimiento para realizar una prueba de significación de medias muestrales
consiste en determinar el valor de la media muestral que está en el límite entre nivel de
confianza y el de significación. Una vez calculada la media muestral teórica del este punto
del modelo se observa si la media experimental está dentro del nivel de confianza o dentro
del nivel de significación. En el primer caso no se rechaza la Hipótesis nula y se rechaza la
alternativa. Si el resultado experimental cae dentro del nivel de significación se rechaza la
Hipótesis nula y se acepta la alternativa.
Para el cálculo del valor límite de la media de la distribución muestral se aplica la
definición de Z expresada en la ecuación (1), despejando términos resulta:

X lim = μ+ Z lim σ/ N

donde: Zlim surge de la Tabla de Z que representa a la distribución normal, para el Nivel
de significación elegido
La interpretación de X lim es que se trata del mayor valor de media teórica
probable por error de muestreo para ese nivel de confianza (si la cola de significación es
la derecha de la curva) y si la media experimental es mayor a este valor el investigador
puede arriesgarse y rechazar la Hipótesis nula y aceptar la Hipótesis alternativa. Si la cola
está a la izquierda de la curva el razonamiento es similar, dando el menor valor de media
teórica probable por error de muestreo y se rechazará la Hipótesis nula si la media
experimental es menor que ese valor.

81
Si la prueba es de dos colas se deberán determinar los dos valores límites de las
medias de la distribución muestral para el nivel de significación elegido. El razonamiento
para rechazar la Hipótesis nula se deduce de los dos anteriores.
Existe un procedimiento alternativo para la toma de decisiones en esta prueba que
deriva del anterior y consiste en calcular el valor de Z exp para la media experimental y
luego compararlo con el Z lim que surge de la tabla. Si el Z exp está dentro del nivel de
significación se rechaza la Hipótesis nula y se acepta la alternativa

4.4.4. Prueba de significación de diferencias de medias muestrales.


En este caso, lo que se desea es saber si dos poblaciones difieren
significativamente. Lo que se tiene en general, como datos, son las medias de dos muestras
X1 y X2 de estas poblaciones, que se contrastarán para saber si hay diferencia significativa
entre ellas. Esta prueba es siempre de dos colas.
El Teorema del Límite Central demuestra que las diferencias de medias de
muestras de una misma población también se distribuyen según la Distribución Normal
con una media de diferencias nula (μ = 0) y un desvío estándar de las diferencias σ dif.
Si se utiliza la misma fórmula de Z aplicada a la curva normal de diferencias de
medias muestrales:

( X1 – X2 ) – 0 σ 1² + σ 2²
Z exp = Donde σdif =
σ dif N1 N2

Si las muestras son mayores a N=30 pueden utilizarse los desvíos muestrales de cada
muestra para estimar σdif. Por lo tanto, el Zexp puede calcularse como:

( X1 – X2 )
Zexp = ------------- Donde Sd es el Desvío estándar de las diferencias estimado
Sd

Donde:

S1 2 S2 2
Sd = ---- + ----
N1 N2

Una vez obtenida Zexp y tratándose de una prueba de dos colas siempre, el procedimiento

82
de toma de decisión es el ya visto: Se compara el Zexp con el Zlím , que se extrae de la
Tabla de Z, para saber si la diferencia de las medias caer en la zona de confianza o en la de
significación y tomar la decisión correspondiente.
4.4.5. Tamaño de Muestras. Prueba de t de Student
Lo planteado anteriormente se considera válido si N > 30, dado que en esas
condiciones se podría decir que la aproximación a la distribución normal es buena, pero
cuando la muestra es de tamaño menor y no se conoce el σ de la población es necesario
hacer una corrección a los valores de la curva normal.
Un matemático de apellido Gosset, y cuyo seudónimo fue Student, estudió y
desarrolló una distribución que es aplicable para los casos en que N ≤ 30. A esta se la
conoce como distribución t de Student.

Esta distribución esta expresada en una tabla de valores de t en la que se obtienen a


partir de los niveles de significación más usados en investigación, y en función de los
grados de libertad de la prueba, que se definen como:

gl = N – 1

Para N > 30 los valores de Z de la distribución normal y los de t de la de Student


coinciden

4.4.6. Prueba de Hipótesis de medias cuando N ≤ 30 y no se conoce σ


Las ecuaciones de cálculo y los procedimientos de decisión para las pruebas de
significación de medias muestrales cuando N ≤ 30 son las mismas que las ya vistas,
reemplazando Z por t y utilizando los grados de libertad en lugar de N

El valor de texp correspondiente a una media de muestra estará dado por:

X - μ
texp =
S
N–1

donde X es la media de la muestra, S su desvío estándar y N su tamaño, y μ la media


poblacional o de referencia.

83
El valor hallado se compara con el obtenido de la tabla de t para el nivel de
significación, tal que si está dentro del intervalo de confianza no se rechaza la hipótesis
nula, y si es mayor sí.
Usualmente la tabla de t da los valores diferenciados según las pruebas de una sola
cola o de dos colas, por lo que debe extraerse el valor de la tabla correspondiente.

4.4.7. Prueba de hipótesis de diferencias de medias cuando N≤ 30 y no se


conoce σ
El procedimiento es análogo al ya visto, solo que el valor de texp estará dado por:

( X1 – X2 )
texp =
Sd

Donde:

N1 S12 + N S22
Sd =
N1 + N2 - 2

En este caso. Los grados de libertad estarán dados por:


gl = N1 + N2 - 2

Consultando la tabla para encontrar el tlim se acepta o rechaza la hipótesis nula con
la misma lógica de siempre
4.4.8. Prueba de estimación de µ
Cuando se ha probado de una muestra es significativamente diferente a las
probables de una población, se impone la tarea de predecir cual será el parámetro µ que
corresponderá a la nueva población a la que pertenece la muestra. Debe recordarse que
cuando se habla de población se está señalando el comportamiento de una variable en una
población, por lo que la tarea será predecir el parámetro µ que define el nuevo
comportamiento de la variable.
La prueba estadística que permite hacer esta inferencia se denomina Prueba de
estimación de µ y se basa en estimar los valores probables de µ a partir de la media y el
desvío estándar de la muestra y conociendo que la media está dentro del nivel de confianza

84
de la distribución muestral teórica de las muestras de tamaño N de dicha población cuyos
parámetros se desconocen.
La lógica de esta prueba consiste trabajar con la distribución muestral de medias en
una prueba bi-lateral de tal manera de situar el Nivel de Confianza en el centro de la
distribución. En principio se supone que la muestra es la que corresponde al límite inferior
del Nivel de Confianza, es decir, es la media de valor menor probable, con lo que es
posible aplicar la ecuación de estimación de la µ probable sabiendo el valor de t lim que
corresponde al nivel de confianza elegido y los grados de libertad. Como, al desconocer el
parámetro de la curva no se sabe en qué lugar del Nivel de Confianza se encuentra la
muestra, un segundo paso consiste en suponer a la muestra se encuentre en el otro extremo
del nivel de confianza y recalcular µ. Así, se obtienen los valores máximo y mínimos

probables de μ.
El resultado final de la estimación es un intervalo de la distribución de medias en el
cual puede estar el parámetro µ de la población.
La ecuación a utilizar en esta prueba se desprende de la definición de Z, en este
caso reemplazada por t :

X tlim S ≤ µ ≤ X + tlim S

N-1 N-1

Si el valor de σ de la nueva población es conocido y la muestra es mayor a N=30 es


posible hacer la estimación utilizando los valores de la Tabla de Z y reemplazando en la ecuación
N-1 por N.

Bibliografía
Aron A. y Aron E. (2001) Estadística para Psicología Cap.1 Bs.As.: Pearson Education,
Cortada de Kohan, N. y Carro, J. M. (1968) Estadística aplicada. Bs. As.: EUdeB

85
Capítulo 5. Análisis de Frecuencias. Prueba de Chi cuadrado

La Prueba de chi cuadrado es una prueba muy general que puede emplearse
cuando se desea estudiar si las frecuencias obtenidas empíricamente difieren
significativamente o no de las que se esperarían bajo cierto conjunto de supuestos teóricos.
Se trata de una Prueba de hipótesis que se realiza a partir de las frecuencias, por lo que no
es imprescindible que se trabaje con variables cuantitativas como en las pruebas de
hipótesis ya estudiadas.
De hecho, es la prueba más valiosa para estudiar variables cualitativas expresadas
en escala nominal ya que para variables cuantitativas existen otras pruebas de hipótesis,
que son más adecuadas.
En esta prueba las hipótesis se expresan como igualdades o desigualdades entre las
frecuencias observadas en una investigación y las frecuencias esperadas en función de
alguna condición pre-determinada o modelo.
Es por esto, que se expresan las frecuencias como frecuencias observadas (las que
son producto de la investigación) y frecuencias esperadas (las que son producto del
modelo teórico de comparación). Estas frecuencias se comparan según un nuevo índice

estadístico denominado Chi cuadrado y representado por el símbolo χ².

La Hipótesis de Nulidad de esta prueba se plantea como una igualdad entre las
frecuencias observadas y esperadas. Esta hipótesis conjetura que las diferencias entre las
frecuencias observadas y esperadas se deben al azar de muestreo y, por lo tanto, no son
significativas.
En cuanto a su lógica de contraste de las hipótesis, es similar a las demás pruebas
de significación que se han estudiado, ya que se adopta un nivel de significación y se

contrasta el estadístico χ² de la prueba con el valor límite o crítico teórico del intervalo de
confianza de la distribución de probabilidades del estadístico χ², expresado en una Tabla
en función del nivel de significación y del grado de libertad de la prueba.
Esta prueba es siempre de una cola porque la distribución de chi cuadrado siempre
parte del valor mínimo que es cero.
Para comparar las frecuencias y tomar una decisión sobre la Hipótesis nula el
estadístico proporciona una medida de la diferencia entre las frecuencias observadas y las
esperadas según la siguiente ecuación:

86
2
( fo - fe )
χ² = ∑
fe
Cuanto mayor es la diferencia entre las frecuencias observadas y las esperadas,
tanto mayor es el chi cuadrado. Este sólo será cero si todas las frecuencias observadas y
las esperadas son exactamente las mismas.
La distribución de muestreo, esto es la distribución de probabilidades de valores de
chi cuadrado producto del muestreo es conocida y está tabulada. Existe una curva de
distribución probabilística diferente para cada grado de libertad de la variable.
Si el chi cuadrado resulta mayor de lo que anticiparía el azar de muestreo estaremos
en condiciones de descartar la hipótesis nula siguiendo el procedimiento habitual

5.1. Pasos a seguir para el cálculo del estadístico chi cuadrado


1. Encontrar las frecuencias observadas, reales de cada atributo
2. Determinar las frecuencias observas para cada atributo, de acuerdo al
modelo propuesto
3. Calcular las frecuencias observadas menos las esperadas de cada
atributo
4. Elevar al cuadrado las diferencias
5. Dividir cada diferencia cuadrática por la frecuencia esperada del
atributo
6. Sumar los resultados del paso anterior para obtener el chi cuadrado
de la prueba
7. Extraer de la Tabla el chi cuadrado límite o crítico para el nivel de
significación adoptado y los grados de libertad
8. Rechazar o no la Ho

Esta prueba puede utilizarse para diferentes situaciones según los modelos de
comparación de las frecuencias esperadas.

87
5.2. Prueba de bondad de ajuste.
En esta aplicación se prueba si las frecuencias esperadas de una variable estudiada
se ajusten a un modelo esperado. Generalmente, se trata de un modelo de probabilidades
teóricas para la variable (que surge de antecedentes empíricos de la misma)
Sea una variable aleatoria X dividida en k categorías ó clases mutuamente excluyentes X1,
X2, ...., Xk .
Se extrae una muestra de unidades de análisis independientes de la población de
tamaño N que va a ser clasificada según la variable X y se denomina como fOi a la

frecuencia de la categoría xi , de forma que ∑ fOi = N

Hipótesis Nula (Ho): No hay diferencias significativas entre las frecuencias


observadas y las esperadas correspondientes a una distribución modelo de
referencia (teórica ó probabilística )
Hipótesis Alternativa (Ha): Hay diferencias significativas con la distribución
modelo de referencia

Si fei es la frecuencia esperada de Xi , tal que ∑ fei = N, se ve la discrepancia entre


las distribuciones observadas y esperadas a través del cálculo de chi cuadrado para los
datos empíricos y su comparación con el valor crítico del chi cuadrado de la tabla para el
nivel de significación elegido y los grados de libertad de la prueba. Los grados de libertad
de la prueba son los grados de libertad de la variable (k – 1) ya que pueden variar todas
las frecuencia observadas para la muestra menos las que corresponde a una categoría ó
clase para que no se altere que ∑ foi = N .

( foi - fei ) 2
χ² prueba = ∑
fei

Los grados de libertad, para elegir la curva de chi cuadrado a contrastar se calcula
restando 1 a la cantidad de valores o atributos diferentes de la variable:

88
gl = n - 1
Los requisitos para aplicar la prueba son los siguientes:
1. El tamaño de la muestra debe ser mayor ó igual a 50
2. Las frecuencias deben ser distintas de cero
3. Hasta un 20% máximo de frecuencias menores a 5
5.3. Prueba de Independencia de dos variables
La situación más común en la que se utiliza la prueba de chi cuadrado es aquella en
la que se investiga si existen dos variables cualitativas, cada una con múltiples atributos.
En esta sección nos abocaremos a este caso.
En esta aplicación se analiza la independencia de las dos variables, frecuentemente
expresadas en escala nominal, comparando las frecuencias observadas empíricamente con
las frecuencias esperadas si las variables fueran independientes entre sí.
Por lo tanto, en esta aplicación hay un solo modelo de comparación entre las
frecuencias y es el modelo de independencia entre las variables.
Los resultados de esta clasificación se sistematizan en la Tabla de contingencia,
que expresa las frecuencias observadas de la asociación de las dos variables.
Suponiendo que las variables observadas en la muestra son X e Y, la Hipótesis de
nulidad conjetura que: La diferencia entre las frecuencias observadas y esperadas según
el modelo de independencia asociadas a las dos variables no es significativa y se debe al
azar de muestreo.
La distribución de las frecuencias de la asociación de ambas variables para cada
unidad de análisis se representan en un Cuadro de distribución de frecuencias llamado
Cuadro de Contingencia en el que las que cada celda representa las frecuencias en las que
coinciden dos atributos asociados de las variables.

La aplicación de la Prueba de χ² permite contrastar la hipótesis Ho de

independencia entre las dos variables. En este caso se denomina Prueba de independencia.
Esta prueba se utiliza generalmente para probar la no-independencia de las
variables. Es la prueba más importante para estudiar la Asociación o Correlación entre dos
variables cualitativas en escala nominal y complementa las pruebas de correlación ya
estudiadas para variables cuantitativas o cualitativas en escala ordinal.
En la prueba de independencia los grados de libertad se calculan multiplicando los
grados de libertad de cada variable, calculados en la sección anterior.

89
La decisión se toma de la misma forma que en la prueba de bondad de ajuste: si el
chi cuadrado de la prueba supera el chi cuadrado de la tabla de distribución de chi
cuadrado para los grados de libertad correspondiente y un nivel de significación, se rechaza
la Ho y se acepta la Ha.

Bibliografía
Aron A. y Aron E. (2001) Estadística para Psicología Cap.1 Bs.As.: Pearson Education,
Cortada de Kohan, N. y Carro, J. M. (1968) Estadística aplicada. Bs. As.: EUdeB

90

Вам также может понравиться