Академический Документы
Профессиональный Документы
Культура Документы
Investigación educacional
Cualitativo Cuantitativo
Explicativa destinada o establece relaciónLo que más utiliza es la observación y
entre Variables descripción
Tipo de muestra :Matemática o Tipo de muestra: Intencionada (Se elige con
probabilidad cuantos se estudiará pero hay que explicar
el porqué)
Subjetiva Objetiva
Holística Particularista
Sigue el proceso Se preocupa del resultado
2: A que llamamos modelo mixto de investigación?
Los objetivos en la investigación es aquello que se quiere lograr con tal investigación
Una pregunta de investigación es el primer paso que debe realizar el investigador para
realizar un a investigación.
Consiste en indicar las razones de peso que tiene el investigador para el estudio del
problema, por qué se realiza el estudio y a quién beneficia. Aquí se debe destacar tres
aspectos:
El Aspecto Teórico
El Aspecto Práctico
El Metodológico
Apellido y nombre del o los autores, (fecha de publicación), nombre del libro, editorial,
País
Hipótesis nula: construida para anular o refutar, con el objetivo de apoyar una hipótesis
alternativa. Cuando se la utiliza, la hipótesis nula se presume verdadera hasta que una
evidencia estadística en la forma de una prueba empírica de la hipótesis indique lo
contrario. El uso de la hipótesis nula es polémico
Hipótesis alterna: descubrir los hechos sobre el mundo que nos rodea. De las
observaciones que hacen y los datos que recogen, tratan de explicar un evento u
observación utilizando la información que está disponible actualmente.
La hipótesis alternativa: de representar a dos declaraciones contradictorias. Se dice que
se excluyen mutuamente y no pueden ser ambas verdaderas. Las propuestas deberán
cubrir todos los posibles resultados de la investigación experimental.
Ejemplo: La hipótesis alternativa para este experimento podría ser que el medicamento
tiene algún efecto sobre el nivel de colesterol del paciente. Esta es una hipótesis muy
generales, lo que es probable que va a trabajar hacia una hipótesis alternativa mucho más
específicas, tales como el tratamiento farmacológico reduce significativamente el nivel de
colesterol del paciente.
Hipótesis general
Hipótesis específica
Hipótesis nula: descubrir los hechos sobre el mundo que nos rodea. De las observaciones
que hacen y los datos que recogen, tratan de explicar un evento u observación utilizando
la información que está disponible actualmente.
Ejemplo: La hipótesis alternativa para este experimento podría ser que el medicamento
tiene algún efecto sobre el nivel de colesterol del paciente. Esta es una hipótesis muy
generales, lo que es probable que va a trabajar hacia una hipótesis alternativa mucho más
específicas, tales como el tratamiento farmacológico reduce significativamente el nivel de
colesterol del paciente.
Hipótesis unitaria.
Es variable dependiente aquella que se produce en los sujetos en función de las variaciones
en la variable independiente.
Son extrañas todas las demás variables que actúan sobre los sujetos durante el
experimento, y que pueden influir en el resultado final.
validación interna
Existen diversos factores o fuentes que pueden hacer que nos confundamos y no sepamos si
la presencia de una variable independiente surte o no un verdadero efecto. Se trata de
explicaciones rivales a la explicación de que las variables independientes afectan a las
dependientes. A estas explicaciones se les conoce como fuentes de invalidación interna
porque atentan contra la validez interna de un experimento. La validez interna se relaciona
con la calidad del experimento y se logra cuando hay control, cuando los grupos difieren
entre sí solamente en la exposición a la variable independiente (presencia-ausencia o en
grados), cuando las mediciones de la variable dependiente son confiables y válidas, y
cuando el análisis es el adecuado para el tipo de datos que estamos manejando. El control
en un experimento se alcanza eliminando esas explicaciones rivales o fuentes de
invalidación interna.
1. Historia. Acontecimientos que ocurren durante el desarrollo del experimento, afectan a al
variable dependiente y pueden confundir los resultados experimentales.
2. Maduración. Procesos internos de los participantes que operan como consecuencia del
tiempo y que afectan los resultados del experimento (cansancio, hambre, aburrición,
aumento en la edad y cuestiones similares).
3. Inestabilidad. Poca o nula confiabilidad de las mediciones, fluctuaciones en las personas
seleccionadas o componentes del experimento, o inestabilidad autónoma de mediciones
repetidas aparentemente "equivalentes".
4. Administración de pruebas. Se refiere al efecto que puede tener la aplicación de una
prueba sobre las puntuaciones de pruebas subsecuentes.
5. Instrumentación. Esta fuente hace referencia a cambios en los instrumentos de medición o
en os observadores participantes que pueden producir variaciones en los resultados que
se obtengan.
6. Regresión estadística. Provocado por una tendencia que los sujetos seleccionados sobre la
base de puntuaciones extremas, muestran a regresar, en pruebas posteriores, aun
promedio en la variable en la que fueron seleccionados.
7. Selección. Elegir los sujetos de tal manera que los grupos no sean equiparables. Es decir, si
no se escogen los sujetos de los grupos asegurándose su equivalencia, la selección puede
resultar tendenciosa.
8. Mortalidad experimental. Se refiere a diferencias en la pérdida de participantes entre los
grupos que se comparan.
9. Interacción entre selección y maduración. Se trata de un efecto de maduración que no es
igual en los grupos del experimento, debida a algún factor de selección. La selección da
origen a diferentes tasas de maduración a cambio autónomo entre grupos.
10. Otras interacciones.
Una vez definido el problema a investigar, formulados los objetivos y/o hipótesis,
determinadas las variables y elegido el tipo de diseño de investigación que vamos a utilizar, es
preciso definir cual va ser la población o universo en la que vamos a aplicar nuestra
investigación. La población o universo está formada por todos lo elementos o sujetos que se
quiere estudiar y que podrían ser observados individualmente en el estudio.
Salvo en el caso de poblaciones pequeñas es necesario realizar una selección de los sujetos,
ya que por razones de tiempo, coste y complejidad para la recogida de datos, sería imposible
estudiarlos a todos.
Para ello se utiliza la selección de una muestra de sujetos o elementos, que no es más que la
elección de una parte representativa de una población o universo, cuyas características se
reproducen en pequeño lo más exactamente posible.
Los requisitos fundamentales que debe reunir la muestra son:
- Debe comprender parte del universo y no la totalidad de éste.
- Su tamaño será estadísticamente proporcionado a la magnitud del universo. La
magnitud de la muestra es directamente proporcional a su fiabilidad y vendrá
estadísticamente determinada en unas tablas que existen al efecto.
- Debe ser representativa en cuanto a las características de la población. Si hay distintos
sujetos con distintas características, la muestra deberá representarlos en idénticas
proporciones a las de la población.
18: ¿Cuáles son los tipos de muestra que existe y cuáles son las formas para
seleccionarlas?
ay varios criterios para clasificar las muestras, pero se adoptará el criterio que emite Freud
(1977), Rivas (1991), Moráguez (2005), entre otros, por ser uno de los más difundidos y
empleados en la actualidad.
1. Aleatorio Simple: Le da la probabilidad a cada uno de los miembros de una población a ser
elegidos. Es uno de los más empleados y recomendado en las investigaciones sociales y
educacionales, ya que este principio de darle la oportunidad a cada uno de los miembros
de la población a ser elegidos o tomados como muestra, es lo que permite obtener
conclusiones en la muestra e inferir lo que pudiera ocurrir, a partir de ésta, en la
población, con un elevado grado de pertinencia. Estadísticamente permite inferir a la
población los resultados obtenidos en la muestra (Devore, 2000), (Montgomery, 1999),
(Siegel, 1997),
2. Aleatorio Sistemático: Se hace una lista de la población a intervalos fijos, bien sea
tomando el coeficiente de elevación (ce) como punto de partida; donde:
Indica que cada vez que se produzcan piezas en múltiplos de 5, será seleccionada
una para la realización de determinada medición, etc. elementos u objetos
producidos (si se tratara de un proceso de producción de piezas).
También se puede extraer de la lista cada enésimo caso, este método se emplea
mucho en los controles de calidad de producciones seriadas y masivas; pero también
puede ser empleado en las investigaciones en general.
2.1) Muestreo no aleatorio por accidente: El investigador incluye los elementos que le
son más convenientes para la muestra.
2.2) Muestreo no aleatorio intencional o de juicio: La idea básica que involucra este tipo
de muestra, es que la lógica y el sentido común pueden usarse para seleccionar la muestra
que sea representativa de una población. Ej. Selección de expertos por el método de
experto.
2.3) Muestreo por cuotas: Ésta se obtiene al especificar las características deseadas de los
sujetos que se desea recoger la información y se le deja libertad al investigador para que le
aplique los instrumentos necesarios a las personas con esas características. Ej. Se desea
hacer un estudio de una población estudiantil de los estudiantes que han repetido el 6. grado
y tiene determinada edad o situación en el hogar.
(*)
Donde:
n: Cantidad real de elementos de la muestra a partir de la población asumida o de los estratos asumidos en la
población.
N: Número total de elementos que conforman la población, o número de estratos totales de la población.
z: Valor estandarizado en función del grado de confiabilidad de la muestra calculada. Por ejemplo, si
consideramos trabajar con un 95 % de confiabilidad la muestra seleccionada, entonces el valor estandarizado
asumir es igual a 1.96 (Para dos colas).
Algunos valores estandarizados (z) en función de grado de confiabilidad asumido (para dos colas):
90 % ------------- z = 1, 64
Є: Error asumido en el cбlculo. Toda expresión que se calcula contiene un error de cálculo debido a las
aproximaciones decimales que surgen en la división por decimales, error en la selección de la muestra, entre
otras, por lo que este error se puede asumir entre un 1 hasta un 10 %; es decir, que se asume en valores de
probabilidad correspondiente entre un 0.01 hasta un 0.1. No obstante, se propone la siguiente tabla para
valores óptimos del error para el cálculo del número de estratos de una muestra:
Este es un parámetro muy importante, debido a que mediante el mismo se asume qué por ciento o proporción
de la muestra no puede presentar las mismas características de la población, debido a diversos factores
subjetivos y objetivos de los individuos u objetos que conforman la población. Muchos autores plantean esta
probabilidad entre un 1 hasta un 25 %, otros asumen, cuando no se conoce esta variable asumir el valor
máximo de 50 %. Del estudio realizado por este autor se propone la siguiente tabla:
p: Probabilidad de la población que presenta las características. Dicho de una forma más comprensible, es la
probabilidad que tiene la muestra en poseer las mismas cualidades de la población (homogeneidad) y está
determinada por:
Una vez que hemos seleccionado el diseño de investigación apropiado y la muestra adecuada de acuerdo con
nuestro problema de estudio e hipótesis, la siguiente etapa consiste en recolectar los datos pertinentes sobre
los atributos, conceptos, cualidades o variables de los participantes, casos sucesos comunidades u objetos
involucrados en la investigación.
Cualitativa Cuantitativa
- - Cuestionarios
- Entrevistas
- Encuesta
Objetivo General
Objetivo especifico
Formulación de objetivo
Marco teórico
24: Nombre el tipo de investigación que hay dentro del paradigma cualitativo y
cuantitativo
Cualitativo Cuantitativo
Hipótesis general
Hipótesis específica
Hipótesis nula
Hipótesis alternativa
Hipótesis estadística
Hipótesis unitaria.
Una investigación cuasiexperimental sería aquella en la que existe una ‘exposición’, una
‘respuesta’ y una hipótesis para contrastar, pero no hay aleatorización de los sujetos a los grupos
de tratamiento y control, o bien no existe grupo control propiamente dicho.
Una vez que tenemos la información, es decir terminada la fase de recogida de datos,
debemos realizar una serie de tareas para analizarlos. En primer lugar procederemos a
codificarlos, o lo que es lo mismo, a asignarles códigos que faciliten el trabajar estadísticamente
con ellos. Estos códigos pueden ser números o letras, si bien el uso de números facilita el
tratamiento informático de los datos. La asignación de los códigos dependerá de la naturaleza de
las variables que queremos representar.
Toda esta información debe servir a la finalidad de simplificar el manejo de los datos,
posibilitarlo a nivel informático y controlarlo a nivel interpretativo. Esto va a implicar que
debemos conocer perfectamente lo que significa cada código, a qué variable pertenece cada
etiqueta y, en definitiva, se está requiriendo una planificación para la tarea de la codificación.
Tras todo este proceso llegamos a lo que se denomina matriz de datos.
Una vez que tenemos la matriz de datos se procede a su tratamiento estadístico. En él caben
varias posibilidades, las cuales dependerán del tipo de diseño elegido, del número de la muestra,
etc. En el mercado existen varios paquetes informáticos para el tratamiento estadístico de los
datos.
Una vez que tenemos la información, es decir terminada la fase de recogida de datos,
debemos realizar una serie de tareas para analizarlos. En primer lugar procederemos a
codificarlos, o lo que es lo mismo, a asignarles códigos que faciliten el trabajar estadísticamente
con ellos. Estos códigos pueden ser números o letras, si bien el uso de números facilita el
tratamiento informático de los datos. La asignación de los códigos dependerá de la naturaleza de
las variables que queremos representar.
Toda esta información debe servir a la finalidad de simplificar el manejo de los datos,
posibilitarlo a nivel informático y controlarlo a nivel interpretativo. Esto va a implicar que
debemos conocer perfectamente lo que significa cada código, a qué variable pertenece cada
etiqueta y, en definitiva, se está requiriendo una planificación para la tarea de la codificación.
Tras todo este proceso llegamos a lo que se denomina matriz de datos.
Una vez que tenemos la matriz de datos se procede a su tratamiento estadístico. En él caben
varias posibilidades, las cuales dependerán del tipo de diseño elegido, del número de la muestra,
etc. En el mercado existen varios paquetes informáticos para el tratamiento estadístico de los
datos.
Una vez que tenemos la información, es decir terminada la fase de recogida de datos,
debemos realizar una serie de tareas para analizarlos. En primer lugar procederemos a
codificarlos, o lo que es lo mismo, a asignarles códigos que faciliten el trabajar estadísticamente
con ellos. Estos códigos pueden ser números o letras, si bien el uso de números facilita el
tratamiento informático de los datos. La asignación de los códigos dependerá de la naturaleza de
las variables que queremos representar.
Toda esta información debe servir a la finalidad de simplificar el manejo de los datos,
posibilitarlo a nivel informático y controlarlo a nivel interpretativo. Esto va a implicar que
debemos conocer perfectamente lo que significa cada código, a qué variable pertenece cada
etiqueta y, en definitiva, se está requiriendo una planificación para la tarea de la codificación.
Tras todo este proceso llegamos a lo que se denomina matriz de datos.
Una vez que tenemos la matriz de datos se procede a su tratamiento estadístico. En él caben
varias posibilidades, las cuales dependerán del tipo de diseño elegido, del número de la muestra,
etc. En el mercado existen varios paquetes informáticos para el tratamiento estadístico de los
datos.