Вы находитесь на странице: 1из 3

Defina confiabilidad y cules son sus tcnicas/mtodos.

Explquelos:
Confiabilidad: Desde una perspectiva general en psicometra se puede decir que
la confiabilidad hace referencia al atributo de consistencia en la medicin. Denota
algo consistente, independientemente de si alude a algo bueno o malo; slo es
consistente. As mismo, hay diferentes grados y tipos de confiabilidad; esto se
obtiene a travs de un coeficiente de confiabilidad (proporcin que indica la
razn entre la varianza de la puntuacin en una prueba y la varianza total).
Confiabilidad= puntuacin verdadera + factor de error.
Las tcnicas para medir la confiabilidad pueden dividirse en 3 categoras:
1) Confiabilidad a travs del tiempo:
Prueba-reprueba (test retest): Es una estimacin de la confiabilidad
que se obtiene al correlacionar pares de puntuaciones de las mismas
personas en dos aplicaciones diferentes de la misma prueba. Es
apropiada cuando se valora la confiabilidad de una prueba que
pretende medir algo relativamente estable a lo largo del tiempo.
Entre ms tiempo pase, es ms probable que el coeficiente de
confiabilidad sea menor. Cuando el intervalo entre pruebas es mayor
a seis meses, se hace referencia a la estimacin de confiabilidad
test-retest como coeficiente de estabilidad.
Formas alternas o equivalentes (paralelas): El grado de la relacin
entre varias formas de una prueba puede evaluarse por medio de un
coeficiente de confiabilidad de formas alternas o equivalentes, al cual
a menudo se le denomina coeficiente de equivalencia.
Formas paralelas: Emplea, para cada forma del examen, iguales
medidas y varianzas de las puntuaciones de la prueba observada.
Formas alternas: Son versiones diferentes de una prueba que se
han construido para que sean paralelas. Las formas alternas de
una prueba generalmente estn diseadas para ser equivalentes con
respecto a variables como contenido y nivel de dificultad.
2) Consistencia interna: o estimacin de consistencia entre reactivos.
Divisin en mitades: Se obtiene correlacionando dos pares de
puntuaciones obtenidas de mitades equivalentes de una sola prueba
aplicada una sola vez. Es til cuando no se desea, o es poco
prctico, realizar dos pruebas para evaluar la confiabilidad. Implica 3
pasos:
1) Dividir la prueba en mitades equivalentes.
(Es de recordar que, cuando se busca calcular los coeficientes de confiabilidad de
divisin por mitades existe ms de una forma para dividir la prueba. Es

recomendable dividir la prueba asignando al azar las preguntas de una u otra


mitad. Otra forma es recurriendo a la confiabilidad non-par: implica asignar las
preguntas con nmeros nones a una mitad de la prueba, y las identificadas con
nmeros pares a la otra mitad. Otro modo podra ser dividiendo la prueba por
contenido, de modo que cada mitad de la prueba contenga reactivos equivalentes
con respecto al contenido y dificultad.)

2) Calcular una r de Pearson entre las puntuaciones en las dos


mitades de la prueba.
3) Ajustar la confiabilidad de una mitad de la prueba usando la
frmula de Spearman-Brown.
La frmula de Spearman- Brown: Indica la consistencia interna de una
prueba a partir de la correlacin de dos mitades. Es una aplicacin
especfica de una frmula ms general para estimar la confiabilidad de una
prueba que se ha alargado o acortado en cualquier cantidad de reactivos.
Esta frmula puede ser usada para estimar el efecto del acortamiento en la
confiabilidad de la prueba; por lo general, aunque no siempre, la
confiabilidad se incrementa conforme aumenta la longitud de la prueba. As
mismo puede ser empleada para determinar el nmero de reactivos
necesarios para alcanzar el nivel deseado de confiabilidad.
Alfa de Cronbach: Se calcula para para intentar responder sobre
qu tan similares son los conjuntos de reactivo; uso se extiende
incluso a pruebas con reactivos no dicotmicos.
No debe olvidarse que el coeficiente alfa proporciona un ndice
caracterstico de un grupo particular de puntuaciones de prueba, no
de la prueba misma.
Kr20: Se recurre a ella principalmente para determinar la
consistencia entre reactivos de tipo dicotmicos, sobre todo aquellos
que pueden ser calificados como incorrecto/correcto
3) Consistencia entre evaluadores:
Es el grado de acuerdo o consistencia que existe entre dos o ms evaluadores.
Para ello se calcula un ndice de concordancia. Entre mayor sea esta, ms fiable
resultar el instrumento.
Defina validez y sus 3 enfoques principales:
Validez: Es un juicio o una estimacin acerca de qu tan bien una prueba mide lo
que pretende medir en un determinado contexto. Es la elaboracin de un juicio con
base en la evidencia sobre lo apropiado de las inferencias realizadas a partir de
las puntuaciones de una prueba.
1. Validez de contenido: Principalmente busca determinar qu tan
apropiados son los reactivos. Es C.H Lawshe quien disea un mtodo para
determinar si hay un consenso entre jueces respecto a lo esencial de los
reactivos; para ello deben calificar cada uno respondindose si es: esencial,

til pero no esencial, no necesaria. Cuando ms de la mitad de los expertos


califican como esencial un reactivo, este se considera ms o menos vlido;
el grado de validez de contenido es directamente proporcional a la cantidad
de expertos que lo consideren esencial.
2. Validez relacionada con el criterio: Es un juicio de cun adecuadamente
puede ser utilizada la puntuacin (el resultado de una prueba o instrumento)
de una prueba para inferir la posicin ms probable de un individuo con
respecto a una cierta medida de inters. La validez de criterio necesita
validarse en el tiempo. Se refleja a corto y largo plazo. Existen dos tipos de
evidencias de validez:
Validez concurrente: Se enfoca en el presente. Busca diferenciar en
el momento mismo de la aplicacin de la prueba la posicin del
sujeto
con base en su calificacin y con respecto a una medida de
inters.
Validez predictiva: Se enfoca en el futuro, como su nombre lo dice.
Busca esclarecer el grado en que la puntuacin de una prueba
determinada puede predecir alguna medida de criterio de la misma.
Criterio: Es un modelo contra el cual se compara y evala una
prueba,
o su puntuacin. Debe ser Adecuado, en la medida que es
pertinente e importante al tema de inters. Vlido, para el propsito en
que se
utiliza. Y libre de contaminacin: lo cual implica que est
libre de
factores que pueda inducir el resultado.
3. Validez de constructo: Grado en que el instrumento tiende a medir las
inferencias del constructo para el cual fue diseado. Deben realizarse
varios estudios para probar la capacidad del instrumento para diferenciar un
constructor de otros.
Validez convergente: Se administra el instrumento validante a otro
que mide lo mismo, a un grupo, y se correlacionan las puntuaciones.
Se comparan los resultados de un instrumentos con otro.
Validez divergente: Se administra un instrumento validante y otro
instrumento validado pero, que mida otro constructo y se
correlacionan las puntuaciones. Aunque sea diferente, debe tener
una relacin con lo que se mide.
Matriz multimtodo: Se administran instrumentos que miden lo
mismo y que miden constructos diversos, y se obtiene una matriz de
correlacin mltiple.

Вам также может понравиться