Академический Документы
Профессиональный Документы
Культура Документы
Manual de competencias 3
1
Competencia 33: Epistemología – Investigación II Paradigmas que están a la base de la
metodología cualitativa y cuantitativa
Metodología Cuantitativa
Metodología Cualitativa
En cuanto a la clasificación de los paradigmas se observa que existen dos fuerzas bien definidas:
el positivista y el interpretativo, definidos por el carácter de su ontología, epistemología, y
metodología. Sin embargo, a partir de la teoría crítica de Habermas, se desarrolló el llamado
paradigma sociocrítico, cuyos puntos de contacto con el interpretativo hacen que muchos
autores lo consideren unido a este. Es por ello que para el presente manual, se considerará tanto
el paradigma interpretativo, como el sociocrítico dentro de la metodología cualitativa.
Metodología Cuantitativa
Paradigma positivista
Para lograr la fiabilidad de los resultados se necesita delimitar con criterios estadísticos una
muestra representativa de cada población. Solo así los resultados podrán ser considerados con
validez universal, aplicables a cualquier contexto o situación.
2
3. La explicación causal
4. El interés dominador del conocimiento positivista (control y dominio de la realidad)
Positivismo clásico
Se sabe que el estudio riguroso del conocimiento, desde la perspectiva filosófica, comenzó con
el positivismo lógico, cuyos representantes se agruparon en el Círculo de Viena (1929),
sosteniendo que el conocimiento que amerita ser estudiado desde el punto de vista
epistemológico era específicamente el conocimiento científico, y no cualquier otro tipo de
conocimiento.
En ese sentido, los positivistas lógicos distinguieron dos niveles de análisis sobre el
conocimiento, que fueron: el contexto de descubrimiento y el contexto de justificación. El
primero se refiere al estudio del acto de concebir o inventar una idea, o teoría nueva; o sea, trata
de los procesos reales del pensar relacionados con la psicologíadel conocimiento. Mientras que
el contexto de justificación trata de la validación lógica de una hipótesis o teoría científica ya
estatuida, con el fin de aceptarla o rechazarla.
Augusto Comte
Así, realiza un análisis de la historia del conocimiento, estableciendo tres estadios o etapas en el
desarrollo de este, distinguiendo el conocimiento positivo como aquel que proviene de la
observación y de la experimentación. Estos estadios son:
1.- Estado Teológico: En la que el hombre hace depender los fenómenos naturales de la
voluntad de poderes superiores (p.e. fetichismo, politeísmo, monoteísmo).
2.- Estado Metafísico: Consiste en una forma algo más crítica, que sustituye las creencias del
primer tiempo por entidades abstractas (fuerzas, esencias y la naturaleza).
3.- Estado Positivo: Es el definitivo. En él, la imaginación queda subordinada a la observación.
La mente humana se atiene a las cosas. El positivismo busca sólo hechos y sus leyes. No causas
ni principios de las esencias o sustancias. Los significados son sinónimo de lo real, útil, certero
y relativo, al contrario de lo negativo.
3
Locke combate con toda decisión la teoría de las ideas innatas. La mente es un papel en blanco
(o tabula rasa) que la experiencia cubre poco a poco con los trazos de su escritura. Distingue
entre una experiencia externa (sensación) y una experiencia interna (reflexión). El pensamiento
no agrega un nuevo elemento sino que se limita a unir unos con otros los datos de la
experiencia. Locke infringe el principio empirista admitiendo verdades a priori.
Immanuel Kant
Sabemos que la gran revolución en la epistemología la hizo Kant al considerar que en el
desarrollo del conocimiento intervienen tanto el objeto que hay que conocer como también el
sujeto que conoce. Los empiristas ingleses consideraban el conocimiento proveniente de las
sensaciones; en Kant el conocimiento significa formas puras de la sensibilidad y formas puras
del entendimiento, en donde relaciona racionalismo y empirismo. Las sensaciones ya no forman
parte del conocimiento desde Kant. Kant señaló que había límites para el conocimiento y que
esos límites era encuadrarlo dentro de la experiencia, en consecuencia no había nada para el
conocimiento humano fuera del fenómeno y el mundo fenomenal contiene en sí lo
verdaderamente real.
Positivismo lógico
El positivismo lógico se consolida como escuela independiente con el Círculo de Viena y
el Círculo de Berlín por los años 1920-30. Su objetivo fundamental es establecer los
fundamentos del conocimiento científico mediante la obtención de un lenguaje lógico o ideal
unificado. Se acentúa el rechazo de la metafísica y de cualquier otro conocimiento que pretenda
superar los datos de la ciencia. La filosofía consistirá en una lógica del conocimiento científico.
Carnap
Propone una filosofía “científica”, basada en hechos, afirman las ciencias experimentales y
niegan la metafísica, que no es ciencia y carece de interés. La filosofía ha de limitarse al análisis
de los métodos y resultados de las ciencias. En otras palabras, el positivismo lógico postula un
empirismo antimetafísico tendente al análisis lógico y lingüístico de las proposiciones del
lenguaje común y científico.
4
observación, y la cambió por el principio de la confirmación.De acuerdo con este principio, las
hipótesis pueden ser más o menos confirmadas, o desconfirmadas, por los datos
observacionales. Pero además, Carnap distinguió entre la confirmabilidad, y la noción más
fuerte de "experimentalidad". Una proposición es confirmable si existen registros de
observaciones que la confirmen o desconfirmen, y una proposición confirmable es también
experimentable cuando podemos definir y realizar a voluntad experimentos que conduzcan a su
confirmación. De lo anterior se desprende que una proposición dada puede ser confirmable sin
ser experimentable (como cuando sabemos que la observación de un grupo de eventos la
confirmaría pero no es posible realizar los experimentos pertinentes), mientras que todas las
proposiciones experimentables también son confirmables.
Postpositivismo:
A medida que el positivismo lógico va alcanzando madurez, surgen algunas revisiones,
encabezadas por Karl Popper (1902-1994), que pretenden sentar las bases de una renovación de
la filosofía y la historia de la ciencia. Tres representantes de esta nueva filosofía de la ciencia
son Kuhn, Lakatos y Feyerabend.
Thomas Kuhn
Según Kuhn, el paso de una visión teórica a otra es tan global y tiene consecuencias tan
radicales sobre la disciplina implicada, que no duda en utilizar el término «revolución» y
habla precisamente de «revolución científica», en donde se produce un cambio de los
problemas que se proponen a la investigación científica, y también un cambio de los
criterios con los que la profesión establecía lo que debía ser considerado como un problema
admisible o como una solución legítima del mismo. Se realiza una reorientación de la disciplina
que consiste «en la transformación de la estructura conceptual a través de la cual los científicos
miran el mundo». Esta estructura conceptual es aquella a la que Kuhn llama paradigma y es este
aspecto de su teorización, más que el análisis del proceso de desarrollo de la ciencia, el que nos
interesa en este contexto.
¿Qué entiende Kuhn por paradigma? Con este término designa una perspectiva teórica:
a) Compartida y reconocida por la comunidad de científicos de una determinada disciplina.
b) Fundada sobre adquisiciones que preceden a la disciplina misma.
c) Que actúa dirigiendo la investigación en términos tanto de:
c1) identificación y elección de los hechos relevantes a estudiar
c2) formulación de hipótesis entre las que situar la explicación del fenómeno
observado
c3) preparación de las técnicas de investigación empíricas necesarias.
Sin un paradigma una ciencia no tendría orientaciones y criterios de elección: todos los
problemas, todos los métodos, todas las técnicas son igualmente legítimos.
De acuerdo con Kuhn, la ciencia es caracterizada de acuerdo a las fases de desarrollo en que se
encuentren, y la vigencia de un paradigma en una ciencia determinada será condición de
normalidad para ella y señal de madurez disciplinar al mismo tiempo. Así, se distinguen dos
estados de ciencia:
1.- Preparadigmático: existe una pluralidad de teorías y metodologías.
2.- Paradigmático: presencia homogénea de un paradigma orientador del pensar y del actuar
científico.
5
Por último, una teoría se convertirá en paradigma cuando en la resolución de un problema es
exitosa tomando una ventaja instrumental sobre sus competidoras.
Karl Popper
El falsacionismo, refutacionismo o principio de falsabilidad es una corriente epistemológica
fundada por el filósofo austriaco Karl Popper(1902-1994).
El paradigma postpositivista de Popper mantiene el rigor de la lógica deductiva por medio de su
falsacionismo, pero debilita el realismo por medio de su racionalismo crítico.
Para Popper, contrastar una teoría significa intentar refutarla mediante un contraejemplo. Si no
es posible refutarla, dicha teoría queda corroborada, pudiendo ser aceptada provisionalmente,
pero nunca verificada (nunca tendrá pretensión de verdad).
El problema de la inducción nace del hecho de que no se puede afirmar algo universal a partir
de los datos particulares que ofrece la experiencia. Por muchos millones de cuervos negros que
se vean, no será posible afirmar que «todos los cuervos son negros». En cambio, basta encontrar
un solo cuervo que no sea negro para poder afirmar: «No todos los cuervos son negros». Por esa
razón Popper introduce el falsacionismo como criterio de demarcación científica. Su tesis
central es que no puede haber enunciados científicos últimos, es decir, enunciados que no
puedan ser contrastados o refutados a partir de la experiencia. La experiencia sigue siendo el
método distintivo que caracteriza a la ciencia empírica y la distingue de otros sistemas teóricos.
Popper propone un método científico de conjetura por el cual se deducen las consecuencias
observables y se ponen a prueba. Si falla la consecuencia, la hipótesis queda refutada y debe
entonces rechazarse. En caso contrario, si todo es comprobado, se repite el proceso
considerando otras consecuencias deducibles. Cuando una hipótesis ha sobrevivido a diversos
intentos de refutación se dice que está corroborada, pero esto no nos permite afirmar que ha
quedado confirmada definitivamente, sino sólo provisionalmente, por la evidencia empírica.
Paul Freyerabend
- Anarquismo filosófico
Aconseja ir en contra de las reglas; por ejemplo, ante los empiristas que creen en la inducción
(los científicos que consideran que son los hechos experimentales los que deciden si sus teorías
son correctas o incorrectas) debe procederse en forma contraintuitiva, o sea que deben
construirse hipótesis que contradigan de manera flagrante y abierta las teorías más aceptadas y
confirmadas, o que se opongan a los hechos más contundentes. Sólo así se logrará mantener la
frescura y el avance de la ciencia. Consciente de que sus críticos reaccionarían señalando que
esto simplemente es la proposición de otra metodología más.
6
METODOLOGIA CUALITATIVA
Paradigma postpositivista (Teoría fundamentada, por ejemplo).
Este paradigma surge a partir de un intento por solucionar las falencias presentes en el
positivismo, pero conservando las mismas creencias básicas de este paradigma, por lo que
autores como Guba y Lincoln (1994) y Krausse (1995), denominan que el intento del
postpositivismo por superar las críticas hechas al positivismo es limitado.
El postpositivismo, se caracteriza por mantener la creencia de que la realidad existe y es una
sola, es decir, que existe una realidad universal, sin embargo, manifiesta que la realidad en sí es
aprehensible de forma parcial, determinado por las capacidades del investigador, en otras
palabras, si bien la realidad existe, solo se puede conocer de manera imperfecta y limitada.
Teoría Fundamentada:
Hunde sus raíces en el interaccionismo simbólico. En este el investigador busca determinar qué
significado simbólico tienen los artefactos, gestos y palabras para los grupos sociales y cómo
interactúan unos con otros. El investigador busca construir lo que los participantes ven como su
realidad social. Desde su introducción en los años 60 se ha desarrollado hasta convertirse en la
metodología cualitativa más usada.
Aquí las fuentes de datos son las entrevistas, las observaciones de campo y documentos que
contengan información. El investigador cualitativo que hace uso de la teoría fundamentada
asume la responsabilidad de interpretar lo que observa, escucha o lee.
La principal diferencia entre este método y otros métodos cualitativos, reside en su énfasis en la
generación de teoría. A través del proceso de teorización el investigador descubre o manipula
categorías abstractas y relaciones entre ellas, utilizando esta teoría para desarrollar o confirmar
las explicaciones del cómo y porqué de los fenómenos.
Glaser y Strauss (1967) diferencian dos tipos de teorías:
Sustantivas: Se relacionan con el área concreta de la investigación. Ej: Escuelas,
hospitales, o con el consumo de drogas.
Formales: Se refieren a áreas conceptuales de la indagación, tales como estigmas, las
organizaciones formales, la socialización y la desviación.
Las dos estrategias fundamentales de Glaser y Strauss proponen para desarrollar teoría
fundamentada son: El método de la comparación constante y muestreo teórico
Método de la comparación constante: El investigador codifica y analiza los datos de forma
simultánea para desarrollar conceptos. Su aplicación supone una contratación de categorías,
propiedades e hipótesis.
Método del muestreo teórico del investigador: Selecciona nuevos casos a estudiar según su
potencial para ayuda a refinar o expandir los conceptos y teorías ya desarrollados. Lo
importante no es el número de casos, sino la potencialidad de cada uno para ayudar al
investigador a desarrollar una mayor comprensión teórica sobre el área que está estudiando.
EgonGuba
Propone una categorización basada en la forma en que los paradigmas dan respuesta a tres
preguntas básicas, las cuales son:
La pregunta ontológica: ¿Cuál es la forma y la naturaleza de la realidad? Es decir, ¿qué
es lo que podemos conocer de ella? ¿Es una sola? ¿Es construida? ¿Se puede conocer
todo o solo de manera limitada?
La pregunta epistemológica: ¿Cuál es la relación entre quien conoce o busca conocer y
lo que puede ser conocido? Entonces posibles respuestas son el distanciamiento, la
7
objetividad, el estar libre de valores o teñido por ellos para acceder y relacionarse con el
conocimiento.
La pregunta metodológica: ¿Cómo el investigador debe proceder para acceder al
conocimiento? Es decir, cual es la metodología apropiada para conocer la realidad,
considerando si se debe controlar ciertos factores, si se debe manipular la realidad,
realizando experimentos, etc.
Ahora bien, a partir de cómo se responde a estas preguntas, Guba procede a analizar cuatro
paradigmas: el positivista, el post-positivista, el crítico y el constructivista.
a) El paradigma positivista:
Responde a la pregunta ontológica, como una ontología realista (o realismo ingenuo), es decir,
la realidad existe, operando según leyes y mecanismos naturales e inmutables, las cuales se
pueden generalizar libre de tiempo y contexto, cobrando la forma de leyes causa-efecto. En
definitiva, se supone la existencia de una realidad aprehensible.
Respecto a la pregunta epistemológica, esta tiene por solución una epistemología
dualista/objetivista. El dualismo está presente por la suposición de que el investigador y el
objeto investigado son dos entidades independientes, donde el investigador es capaz de estudiar
al objeto sin influenciarlo o ser influenciado por él (de aquí lo objetivista). Por esto, se evita que
los valores y prejuicios tengan alguna influencia en los resultados, cumpliendo con los
procedimientos prescitos rigurosamente. Los resultados entonces son tomados como reales y
repetibles en cualquier contexto y tiempo.
Finalmente la pregunta metodológica, tiene por respuesta una metodología experimental y
manipuladora. Donde las preguntas o hipótesis son presentadas como proposiciones y se
sujetan a una prueba empírica para su verificación, donde las condiciones deben ser controladas
(manipuladas), para evitar resultados influenciados por otras variables.
b) El paradigma postpositivista:
Ontología: Realismo histórico. Entiende una realidad que existe y que anteriormente era
plástica, pero con el paso del tiempo, ciertos factores o valores sociales, políticos, culturales,
económicos, étnicos y de género, le han dado una forma específica que ha sido cristalizada, y
que en la actualidad son consideradas (inapropiadamente), como reales, es decir como
inmutables y naturales. Las estructuras sociales conforman una realidad virtual e histórica.
Epistemología: transaccional y subjetivista. Supone que el investigador y el investigado están
vinculados interactivamente, donde los valores del investigador inevitablemente influencian la
investigación, por ende los valores están mediados por los valores del investigador.
8
Metodología: dialógica y dialéctica*. Al tener una epistemología transaccional, se requiere de
un dialogo entre el investigador y el investigado, y ese dialogo debe tener una naturaleza
dialéctica para transformar la ignoracia y los conceptos erróneos en una conciencia más
informada. Es decir, se busca que las estructuras vistas como inmutables históricamente, sean
aceptadas con una naturaleza o posibilidad de cambio.
*dialéctica: por medio de una tesis y antítesis se conforma una síntesis, es decir a partir de dos
puntos de vista contrapuestos se llega a una idea nueva que considera e integra ambas ideas
posteriores.
d) El paradigma constructivista:
Ontología: relativista.Las realidades son comprensibles en forma de construcciones mentales
múltiples e intangibles, basadas social y experiencialmente, por ende son de naturaleza local y
específica, aunque pueden existir elementos compartidos entre individuos y culturas.
Epistemología: Transaccional y subjetivista. El investigador y el investigado están vinculados
interactivamente, por lo que los hallazgos son creados entre ambos al avanzar en la
investigación.
Metodología: Hermenéutica y dialéctica. La naturaleza variable y personal de las
construcciones sociales, refieren a que estas solo pueden ser refinadas por medio de la
interacción entre el investigador y quienes responden, por lo que se utilizan técnicas
hermenéuticas convencionales y se comparan y contrastan con un intercambio dialectico para
llegar a una construcción consensuada y que sea más sofisticada e informada que cualquiera de
las construcciones precedentes (del investigador y del investigado).
Paradigma constructivista
Corriente epistemológica que asume que el conocimiento es construido socialmente por
las personas en interacción con la realidad. La realidad es una realidad construida por medio de
representaciones sociales. Por lo que pueden existir realidades múltiples. Se requiere de una
interrelación entre El investigador y el objeto de estudio para elucidar las representaciones
personales y sociales. Utilización de la inducción. Conceptos emergentes. Utilización de
técnicas no estadísticas que permiten una Comprensión profunda del tema estudiado
Ontología: Relativista, la realidad sólo existe en la forma de múltiples construcciones mentales y
sociales. La realidad como constructo social.
Epistemología: Subjetivista, no hay diferenciación entre sujeto y objeto del conocimiento. Ambos se
funden en una sola entidad epistemológica.
Metodología: Hermenéutica y dialéctica, refinamiento hermenéutico y contrastación dialéctica. Estas
metodologías están orientadas por la fidelidad al objeto de estudio, la complementaridad, en el
sentido que el investigador complementa la investigación. Y a diferencia de las metodologías
cientificistas y críticas, carece de ideal de progreso como criterio regulativo. El principal criterio
regulativo de la investigación constructivista es la solidaridad. La metodología de la investigación
educativa bajo la influencia del paradigma constructivista está representada, principalmente, por la
corriente de metodologías etnográficas: estudio de casos, trabajo de campo, etnografía, descripciones
"densas". También se cuenta con una corriente de metodologías hermenéuticas.
9
afuera y se no puede ser nunca que los valores son en la forma de
conduce por leyes completamente de algún modo la vía construcciones
y mecanimos aprendida. La de entrada a la mentales
naturales realidad se conduce “realidad”, pues son múltiples,
inmutables. Así el por leyes naturales ciertos valores los fundadas social y
conocimiento es que pueden ser sólo que permiten experiencialmente
generalizado y parcialmente seleccionar un tema , locales y
algunas de estas comprendidas de estudio, el específicas,
generalizaciones paradigma dentro del dependientes en
posteriores toman cual será estudiado, su forma y
la forma de leyes los instrumentos y contenido de las
causa- efecto los modos en que se personas que las
analizará la sostienen.
información, las
interpretaciones,
conclusiones y
recomendaciones
que se hacen
Epistemología Dualista, Objetivista Subjetivista, en el Subjetivista,
objetivista,para el modificada, la sentido que los investigador e
investigador es objetividad valores del investigado están
tanto posible permanece como un investigador median fundidos en una
como esencial ideal regulatorio. Es en la investigación. entidad singular.
adoptar distancia relevante el juecio Los hallazgos son
y una postura no de los pares de la literalmente la
interactiva. Los comunidad científica creación del
valores y los para cada proceso de
otros factores investigación y ésta interacción entre
predisponentes debe ser consistente ambos.
son con la tradición
autoáticamente propia de la
excluidos de disciplina
influenciar los respectiva.
resultados.
Metodología Experimental Experimental/manip Dialógica Hermenéutica,
manipultativa, las ulativa modificada, transformativa, los dialéctica, las
preguntas y/o enfatiza la teórico-críticos construcciones
hipótesis son multiplicidad crítica. buscan una individuales son
establecidas por Se compensan los aproximación elicitadas y
adelantado en desequilibrios por dialógica que elimine refinadas
forma de hacer investigación la falsa conciencia y hermeneuticament
proposiciones, y en contextos facilite la e, y comparadas y
sometidas a tests naturales usando transformación en el contrastadas
empíricos métodos momento en que los dialécticamente,
(falsación) bajo cualitativos, grupos se dan cuenta con el objeto de
condiciones dependientes más de de cómo están generar una
cuidadosamente la teoría oprimidos. construcción en la
controloladas. fundamentada, y cual existe
reintroduciendo el consenso
descubrimiento substancial.
dentro del proceso
de investigación.
34: Epistemología- Investigación I Fases de un proceso de investigación cuantitativa y
cualitativa
Fases Investigación:
Formulación del problema,
10
Pregunta de investigación
Objetivos generales y específicos
Marco teórico
Definición y operacionalización de hipótesis de trabajo
Preguntas directrices
Fase de difusión de resultados
Comparar formulaciones de problemas de investigación de orientación cuantitativa y
cualitativa
Resúmenes de los procesos cuantitativo y cualitativo
Proceso cuantitativo
Fase 1 idea
Fase 2 planteamiento del problema
Fase 3 revisión de la literatura y desarrollo del marco teórico
Fase 4 visualización del alcance de estudio
Fase 5 elaboración de hipótesis y definición de variables
Fase 6 desarrollo del diseño de investigación
Fase 7 definición y selección de la muestra
Fase 8 recolección de los datos
Fase 9 análisis de los datos
Fase 10 elaboración del reporte de resultados
Proceso cualitativo
Fase 1 Idea
Fase 2 planteamiento del problema
Fase 3 inmersión inicial en el campo
Fase 4 concepción del diseño del estudio
Fase 5 definición de la muestra inicial del estudio y acceso a ésta
Fase 6 recolección de los datos
Fase 7 análisis de los datos
Fase 8 interpretación de los resultados
Fase 9 elaboración del reporte de los resultados
En cuanto a la investigación cualitativa también se definen las fases del proceso como:
1- Acceso al escenario sociocultural que se pretende estudiar
2- Identificación del fenómeno a estudiar
3- Negociación del rol o oposición dentro de la dinámica social cotidiana
“balcón interno” (para entrar y ver el mundo desde dentro)
4- Selección de informantes claves y estrategias de producción de información.
5- Registro, ordenamiento, reducción, validación de la información
6- Análisis e interpretación de la información obtenida
7- Reformulación y reenfoque del estudio basado en el conocimiento y la comprensión
obtenidos
8- Preparación del retiro de campo
11
escenario, se debe determinar el acceso a ésta, las características de los
participantes, recursos.
Fase de campo:
- Trabajo de campo: 1) acceso al campo: se debe pedir permiso para acceder al
campo. Se debe escoger un buen informante.
- Recogida productiva de datos: se recogen datos más específicos. Se deben tener en
cuenta dos criterios para asegurar el rigor: la suficiencia y adecuación.
Fase analítica: se inicia tras el abandono del escenario
- Reducción de datos: Resultados y conclusiones
- Disposición y transformación
Fase informativa
- Elaboración de informe: se informan los datos, aparte de la comprensión de datos,
estos se deben compartir y difundir y la mejor forma de hacerlos es a través de las
entrevistas especializadas.
La recolección de los datos: emergen poco a poco, hay datos en texto o imagen y en un número
relativamente pequeño de casos.
El análisis de los datos:
- Se realiza el análisis de textos y material audiovisual
- Descripción, análisis y desarrollo de temas
- Significado profundo de los resultados
12
Paso 4: Definir si la investigación es exploratoria, descriptiva, correlacional o explicativa, y
hasta qué nivel llegará.
Objeto de investigación.
Cualquier sistema de la realidad cuyo proceso o estructura resulta de interés para realizar un
estudio, pues reporta una necesidad que superar para el ser humano, es decir, un problema de
investigación.
Problema de investigación.
¿Qué es?
Es un hecho, un fenómeno o una situación que incita a la reflexión y al estudio.
Su descripción y formulación permite conocer la situación que se va a estudiar mostrando sus
principales rasgos.
13
- El problema debe estar formulado como pregunta, claramente y sin ambigüedad; por ejemplo,
¿qué efecto?, ¿en qué condiciones….?, ¿cuál es la probabilidad de …?, ¿cómo se relaciona
con…?
- El planteamiento debe implicar la posibilidad de realizar una prueba empírica. Es decir, la
factibilidad de observarse en la “realidad única y objetiva”.
Ejemplo: No puedo estudiar cuán sublime es el alma de los adolescentes.
Preguntas de investigación.
Una adecuada formulación de un problema de investigación implica elaborar dos niveles de
preguntas:
La pregunta general: debe recoger la esencia del problema y, por lo tanto, el título del estudio.
Las preguntas específicas: están orientadas a interrogar sobre aspectos del problema y no al
problema en su totalidad, pero que en su conjunto conforman la totalidad
Ejemplo
Si mi problema de investigación gira en torno a los nuevos retos que enfrentan las empresas
como consecuencia del nuevo paradigma mundial de la globalización y la competitividad,
puedo formularlo así:
Pregunta general:
¿Cómo deben prepararse las empresas nacionales y sus gerentes si quieren desenvolverse
competitivamente?
Preguntas específicas:
¿Cómo favorece el gobierno la competitividad de las empresas nacionales?
¿Cuál es la actitud de los gremios ante los retos que impone el nuevo milenio?
¿Qué están haciendo las universidades para contribuir a la competitividad de las empresas?
¿Qué están haciendo los empresarios para responder al nuevo ambiente de competitividad?
Objetivos de la investigación.
Son los propósitos del estudio, expresan el fin que pretenden alcanzarse, por lo tanto, todo el
desarrollo del trabajo de investigación se orientará a lograr estos objetivos.
Deben ser claros y precisos, lo que no implica que no puedan modificarse durante la
investigación.
Deben usarse verbos en infinitivo, por ejemplo: Determinar, verificar, definir, identificar,
diseñar, conocer, evaluar, elaborar, estudiar, describir, formular, proponer, analizar, corroborar,
entre otros.
Deben evitarse aquellos que impliquen acciones finales: cambiar, motivar, enseñar, entre otros.
Título de la investigación: “Análisis de la relación entre el tipo de valores practicados por los
estudiantes universitarios y su rendimiento académico”.
14
Objetivo general: Analizar la relación entre el tipo de valores practicados por los estudiantes
universitarios y su rendimiento académico.
Objetivos específicos:
- Identificar el tipo de valores practicados por los estudiantes universitarios.
- Analizar el tipo de valores que practican los estudiantes de más alto rendimiento.
- Analizar el tipo de valores que practican los estudiantes de más bajo rendimiento.
- Analizar la existencia de diferencias significativas entre los valores practicados por estudiantes
de alto y bajo rendimiento.
- Evaluar la relación entre el tipo de valores practicados por los estudiantes universitarios y su
rendimiento académico.
Hipótesis de investigación.
Las hipótesis son el centro del enfoque cuantitativo –deductivo (en lo cualitativo). Las
hipótesis surgen del planteamiento del problema y de la revisión de la literatura.
Preguntas directrices
Las preguntas directrices derivan a partir de los objetivos específicos. Corresponde al eslabón
entre objetivos específicos y técnicas de investigación (o producción de información
propiamente tal).
Reemplaza la hipótesis, especialmente en el enfoque cualitativo, siguiendo el esquema: objetivo
general - objetivo específico - preguntas directrices - técnicas de producción de
información.
MARCO DE REFERENCIA
Para elaborar el marco de referencia de la investigación, cada investigación debe:
15
- Fundamentarse en el conocimiento existente.
- Asumir una posición frente al mismo.
- Realizarse dentro de un marco de referencia o conocimiento previo (teoría, enfoque,
escuela).
- Explicitar la concepción de persona que enmarcará la investigación.
- Precisar los conceptos relevantes de estudio.
Marco de referencia:
“Marco general de la fundamentación teórica y antropológica en la cual se desarrolla el
estudio”
Comprende:
- El marco filosófico-antropológico (opcional)
- El marco teórico
- El marco conceptual
- El marco legal (eventualmente)
Ejemplo
El presente trabajo está enmarcado en una concepción de ser humano como una entidad
compleja y paradójica y, sobre todo, como un ser pluridimensional, ya que es un ser en sí
mismo, es decir, un ser en relación con los otros seres humanos, un ser corpóreo, espiritual,
emocional, intelectual, cultural e histórico, libre, trascendente, y un ser en proyecto, que se
construye y transforma el mundo en que vive (Polo, 1997, p. 53).
Marco Teórico:
Tiene la función de orientar y crear las bases teóricas de la investigación.
Definición (Briones):
“Comprende la ubicación del problema en una determinada situación histórico-social, sus
relaciones con otros fenómenos, las relaciones de los resultados por alcanzar con otros ya
logrados, como también definiciones de nuevos conceptos, redefiniciones de otros,
clasificaciones, tipologías por usar, etcétera”.
16
- Construcción del Marco Teórico
- Integración de ideas revisadas.
- Enmarcación del estudio dentro de ese marco de ideas.
- Se adopta algún enfoque o técnica revisada.
- Indispensable: citar y referenciar.
En esta fase se puede entregar un borrador a los participantes, de tal forma que nos devuelvan
sus opiniones, como un medio más de verificación de las conclusiones. Además del envío a los
participantes de una copia del informe final, la mejor forma de difusión de los hallazgos es la de
publicarlos en las revistas especializadas.
El investigador habrá culminado así el trabajo de investigación, que sólo será posible si se parte
del carácter humano y apasionante de esta tarea, implicándose, comprometiéndose en la misma.
17
- Según el tipo de investigación
- Por la hipótesis a probar
Investigación Experimental.
Diseño: Conjunto de procedimientos con los cuales se manipulan una o más variables
independientes y se mide su efecto sobre una o más variables dependientes.
a) Diseños experimentales
Se clasifican según:
- Grado de control ejercido sobre las variables
- Grado de aleatoriedad con que se asignan los sujetos de la investigación a un grupo o a varios
de ellos
Propósito:
Analizar si una o más variables independientes afectan una o más variables dependientes y por
qué las afectan.
Ejemplo:
Estudio sobre la estrategia más adecuada para una psicoterapia en niños autistas. Los
investigadores trabajan en una institución con estos niños.
¿Cómo asigno a los niños en grupos?
¿Uso las mismas estrategias para cada grupo?
¿Quién aplica las estrategias?
¿Cómo son las condiciones ambientales para cada grupo?
¿Qué hago al final de la investigación?
Tipos:
i. Diseño experimental con post-prueba y grupo control
ii. Diseño experimental con pre y post prueba y grupo control
iii. Diseño de dos grupos apareados con mediciones antes y después
iv. Diseño de Solomon de 4 grupos
Tipos:
18
b.1) Diseño con pre y post prueba y grupo control no equivalente
b.2) Diseño de series cronológicas
b) Investigación No Experimental
El investigador no tiene el control sobre la variable independiente
No se conforman los grupos del estudio, están a priori.
La variable independiente ya ha generado un cambio, pero se busca describir esa variable como
también los efectos que ha producido en la variable dependiente.
Reciben el nombre de ex post facto (después del hecho).
Suelen llamarse experimentos naturales.
Se clasifican según:
a) Período de tiempo
- Retrospectivo: reconstruye el desarrollo del fenómeno estudiado sobre un grupo. Depende de
la memoria o información proporcionada por los propios entrevistados.
Ventaja: Rapidez de recolección de datos
Desventaja: Olvido, fallos en la memoria.
b) Conjunto de participantes
- Tendencias: personas que tienen uno o más rasgos comunes (por ejemplo, el curso de
Investigación en Psicología II).
- Panel: un mismo grupo de personas estudiado en varios momentos (por ejemplo, la generación
2010).
19
- Cohorte: grupo delimitado por haber presenciado un determinado elemento o haber nacido
entre unas fechas determinadas.Estos examinan cambios a través del tiempo en subpoblaciones
o grupos específicos. Su atención son las cohorte o grupos de individuos vinculados de alguna
manera, generalmente la edad, que serían grupos por edad.
TIPOS DE INVESTIGACIÓN
Exploratorios: Es comenzar a ver una variable. Se trata de una exploración inicial en un
momento específico.
20
se puede formular son
conjeturas inciales
Aproximación a Cuantitativo
fenómenos desconocidos
Descriptivo Se plantean objetivos Preexperimental Cualitativo
Reseña las características Transversal Cuantitativo
de un fenómeno actual
Correlacional Diferencia de grupos sin No experimental Cuantitativo
atribuir causalidad
Describe relación entre -Transversal
variables/factores
-Longitudinal
Correlacional
Explicativo Diferencia de grupos sin Experimental Cuantitativo
atribuir causalidad
Intenta encontrar las Causas Cuasi experimental,
del problema, por qué longitudinal y
sucede transversal
No experimental
Causalidad Experimental Cuantitativo
No experimental,
longitudinal y
transversal.
21
( ) Indiferente
( ) En desacuerdo
( ) Totalmente en desacuerdo
La unidad de análisis que responde a la escala marcará su grado de aceptación o rechazo hacia
la proposición expresada en el ítem. Los ítems por lo general tienen implícita una dirección
positiva o negativa.
a. Criterios para la confección de los ítems de una escala
- Los ítems deben facilitar respuestas relacionadas con el fenómeno medido, aunque
dicha relación no tiene porqué ser necesariamente manifiesta
- Cada ítem debe declarar no sólo las dos posturas extremas, sino también graduar las
intermedias. A medida que la gente gane en sensibilidad, ganará también en precisión.
- Los ítems deben ser fiables y seguros. La fiabilidad con frecuencias se logra a costa de
la previsión. Cuanto más refinada es una medición, más probable es que en dos medidas
repetidas obtengamos puntuaciones distintas.
22
5. Evitar formular preguntas que sugieran la respuesta deseada o preferida por el
investigador.
6. Asegurarse que el marco de referencia que subyace a cada pregunta es claro, de modo
que cada entrevistado escuche la pregunta del mismo modo, evitando malas
interpretaciones.
7. Probar la entrevista en un estudio piloto, para eliminar las debilidades.
Estadística Inferencial:
- Intervalos de confianza: concepto de error de estimación y nivel de confianza
- Contraste de hipótesis: error tipo 1 y error tipo 2
Estadística descriptiva
Distribución normal
Corresponde a una forma de distribución de datos en gráficos. Es un modelo teórico y es
asintótica (tiende a 0, pero nunca toca el gráfico, es infinito). También es simétrica cuyo eje es –
z= 0, debiera distribuirse igual a los dos lados del eje. La moda, mediana y media corresponden
a z=0.
Tablas de frecuencia
Tablas de distribución de frecuencias:
Forma de organizar los datos de una variable con el propósito de conocer qué valores aparecen y
con qué frecuencia (localización de los datos)
Elaboración:
- Reglas APA:
Tabla precedida por el nombre de la tabla (Tabla + número correlativo “Tabla 1”)
A continuación del nombre, se presenta una breve descripción del contenido
Las tablas sólo presentan líneas horizontales
23
Solo se emplean líneas horizontales para indicar: el comienzo de la tabla, separar
los encabezados de los datos, indicar el fin de la tabla.
- Reglas de contenido
Primera columna: categorías de la variable + total
Segunda columna: corresponde a las frecuencias absolutas N
Tercera columna: frecuencia relativa fr
Cuarta columna: rango de porcentaje % (1 decimal): se elimina la frecuencia
relativa
Frecuencia absoluta: número de observaciones de una categoría particular. (Ej. Mujer, mujer,
mujer, hombre, hombre= 3 mujeres y 2 hombres)
Frecuencia relativa: Cantidad de observaciones de una categoría en relación al total. Puede ser
proporción o percentual.
Frecuencia acumulada: cuenta la frecuencia de una categoría dada sumándole las frecuencias de
todas las categorías anteriores. Requiere, por lo menos, de variables ordinales (jerarquía)
Ej:
Nivel de estudios N Na % %a
(acumulado) (porcentaje
acumulado)
Sin estudiar 54 54 2.91 2.91
E. básica 520 574 28.02 30.93
E. media 1135 1709 61.15 92.08
E. superior 147 1856 7.92 100
Total 1856 100
Estadísticos de resumen
Localización: medidas de tendencia central
Son estadígrafos de posición que son interpretados como valores que permiten resumir a un
conjunto de datos dispersos, podría asumirse que estas medidas equivalen a un centro de
gravedad que adoptan un valor representativo para todo un conjunto de datos predeterminados.
Estas medidas son:
1. Promedio (Media): cuál es el punto de equilibrio cuantitativo.
2. Mediana: el valor central
3. Moda: el valor que más se repite.
4. Media Armónica: se utiliza para calcular la media cuando el tamaño de las muestras no son
iguales entre los grupos.
Otras medidas de posición son:
Percentiles: Dividen la distribución en 100 partes iguales. P1-P99.
Cuartiles: Dividen la distribución en 4 partes iguales (Q1-Q3)
Deciles: Dividen la distribución en 10 partes iguales (D1-D9)
Variabilidad:
Son estadígrafos de dispersión que permiten evaluar el grado de homogeneidad, dispersión
variabilidad de un conjunto de datos. Estas medidas son:
1. Amplitud o Rango: evalúa la distancia ente los valores máximos y mínimos (Xmáx – Xmín)
24
2. Varianza: Evalúa la variabilidad de los datos, este estadístico define la variabilidad de un
conjunto de datos como el grado de dispersión que estos presentan en torno a su media.
3. Desviación Estándar: representa la desviación típica que los sujetos presentan en torno a la
media.un problema con la interpretación de la varianza/cuasi-varianza es que los valores que se
obtienen no se encuentran en la escala original de los datos analizados, sino que se encuentran
en una escala de “valores al cuadrado”. Por ejemplo, si se hubiera calculado la
varianza/cuasivarianza de las estaturas de un conjunto de personas, y las estaturas hubieran sido
medidas en metros, entonces, la varianza/cuasivarianza estaría expresada en “metros al
cuadrado”. Para evitar este problema de la “escala al cuadrado”, es que se deriva a partir de la
varianza/cuasivarianza este nuevo estadístico de dispersión. La DE es la raíz cuadrada de la
varianza/cuasivarianza. Al utilizar la desviación estándar, resulta más sencillo interpretar su
valor, dado que se encuentra en la misma escala que los valores originales analizados.
4. Coeficiente de Variabilidad: permite comparar la dispersión de variables que aparecen
medidas en escalas distintas, sin la necesidad de depender de una de ellas.
Forma de la distribución:
Evalúa la forma que adopta la distribución de frecuencias respecto al grado de distorsión
(inclinación) que registra respecto a valor promedio tomado como centro de gravedad, el grado
de apuntamiento (elevamiento) de la distribución de frecuencias. A mayor elevamiento de la
distribución de frecuencia significará mayor concentración de los datos en torno al promedio,
por tanto, una menor dispersión de los datos. Estas medidas son:
1. Asimetría o Sesgo: mide la distribución en torno al centro de los datos. Pueden ser
simétricas (normales) o asimétricas (con sesgo negativo (cola a la izquierda) o sesgo
positivo (cola a la derecha).
similares)
Gráficos
Barra: Este gráfico es útil para representar datos categóricos nominales u ordinales. A cada
categoría o clase de la variable se le asocia una barra cuya altura representa la frecuencia o la
frecuencia relativa de esa clase. Las barras difieren sólo en altura, no en ancho. La escala en el
eje horizontal es arbitraria y en general, las barras se dibujan equiespaciadas, por esta razón este
tipo de gráfico sólo debe usarse para variables categóricas.
Circular: En este gráfico, ampliamente utilizado, se representa la frecuencia relativa de cada
categoría como una porción de un círculo, en la que el ángulo se corresponde con la frecuencia
relativa correspondiente. Como en todo gráfico es importante indicar el número total de sujetos.
25
Esta representación gráfica es muy simple y permite comparar la distribución de una variable
categórica en 2 o más grupos.
Histograma: variables numéricas. El área de sus barras representa distribución de las variables,
el eje horizontal representa los valores de las variables. Los intervalos son continuos. Permite
visualizar fácilmente la moda, dispersión y forma de la distribución.
Aspectos a considerar al analizar un histograma:
Uno de los principales usos del histograma, consiste en analizar la forma de la distribución
de frecuencias de los valores de la variable.
Dentro de las distintas formas que puede revelar un histograma, una de las más importantes,
desde una perspectiva estadística, corresponde a la denominada “distribución normal”
Otra distribución de frecuencias que se puede observar en un histograma, corresponde a la
denominada “distribución uniforme”
El siguiente histograma muestra las
características de esta distribución:
Un aspecto crucial a considerar, es que aquellas variables que presentan este tipo de distribución
son bastante difíciles de analizar con las técnicas estándar, por lo que usualmente, requieren un
análisis más pormenorizado.
Boxplot: permite graficar las variables numéricas, identifica un minimo, máximo, mediana
(cuartil 2 o percentil 50). La caja central representa al 50% central de la distribución. La línea
central de la caja representa a la mediana (si es simétrica se encuentra al medio de la caja). Los
bigotes se trazan con Limite inferior y Limite superior, fuera de los bigotes se ubican los casos
atípicos.
Construcción de un boxplot:
Para dibujar la caja se procede a calcular los tres cuartiles (Q1, Q2 y Q3) de la
distribución de datos. Luego se determinan las fronteras superior e inferior, que separan los
valores atípicos de los restantes valores. Para calcular la frontera, en primer lugar se calcula la
distancia a la que estas se van a encontrar en relación a la caja
26
El último aspecto a considerar es la forma en la que se deben presentar en el boxplot
aquellos datos cuyos valores resulten mayores al valor de la frontera superior, o bien resulten
menores al valor de la frontera inferior. Estos datos reciben el nombre de “valores atípicos”
(“outliers”). Se tiene la convención de representar los valores atípicos con algún símbolo
especial que los individualice.
Aspectos a considerar al analizar un box plot:
El análisis de un box plot complementa al de un histograma para describir las características de
una variable numérica. Las principales características a analizar en un box plot corresponden a:
1. Tendencia central de los datos, a partir del examen de la
mediana
2. Los valores que encierran al 50% central de los datos(Q 1=P25 y
Q2=P75)
3. Una indicación del grado de variabilidad del conjunto de datos,
dado que permite calcular fácilmente tanto los valores máximos
como los valores mínimo, y también el rango intercuartil.
4. Permite identificar de manera explícita cualquier valor
particularmente alto o bajo (valores atípicos) en relación al resto de
los valores del conjunto de datos
5. Finalmente, permite identificar simetrías o asimetrías en la distribución de valores de la
variable.
Otro uso de los box plot consiste en inspeccionar visualmente las similitudes y diferencias entre
distintos grupos en relación a una misma variable de comparación.
Cuando se emplean los box plot con este propósito, los aspectos en los que se centran las
comparaciones corresponden a:
27
Estadística inferencial (análisis estadístico inferencial)
1. Conocer el valor de una característica de la variable
2. Probar la hipótesis toda la población censo no se puede realizar.
Se toma una muestra: argumentar que la muestra da una respuesta igual de adecuada al censo.
Para esto son necesarios ciertos requisitos:
1.- Muestra seleccionada de forma aleatoria.
Muestra representativa
2.- Tamaño muestral aleatorio.
Estimación de parámetros
Conjunto de procedimientos estadísticos que permiten conocer las características de una
población, en base a los datos obtenidos de una muestra aleatoria extraída de ella.
a. Parámetro: cantidad que es una función de los valores de la población. Se emplea para
describir alguna característica de la población.
b. Estadístico: es una cantidad que es una función de los valores de la muestra. Se emplea
para describir alguna característica de la muestra.
c. Estimador: cantidad que es una función de los valores de la muestra. Se emplea como una
aproximación al valor de un parámetro.
28
muestras aleatorias de una misma población, las distintas muestras tenderán a arrojar resultados
diferentes al estimar el mismo parámetro.
Ahora bien, si de la población original continuáramos extrayendo nuevas muestras y, en
cada una de ellas procediéramos a calcular el promedio, obtendríamos después de muchas
repeticiones de este procedimiento, todos los valores de los promedios muestrales que podrían
aparecer a partir de dicha población.
Esto implica que resulta inadecuado realizar una Estimación Puntual del Parámetro, ya
que generamos la falsa impresión de que hemos identificado el verdadero valor del promedio
poblacional, lo cual es incorrecto.
Debido a lo anterior es que se vuelve necesario, al momento de estimar el promedio
poblacional en base a los resultados de una muestra, que el procedimiento de estimación que se
utilice tome en cuenta el fenómeno de la variabilidad muestral que introduce el muestreo
aleatorio.
¿Cómo diseñar un procedimiento de estimación que tome en cuenta el fenómeno de la
variabilidad muestral que introduce el muestreo aleatorio?
Para poder resolver este problema, debemos analizar con mayor detalle cómo se
comporta la variabilidad muestral que introduce el muestreo aleatorio. Concluyendo que:
1. La mayoría de los promedios muestrales no coincidirá con el verdadero valor del promedio
de la población (Esto, una vez más, refuerza la idea de lo inadecuado de realizar una estimación
puntual)
2. Sin embargo, la mayoría de las muestras que se extraigan de la población de interés,
presentarán valores del promedio localizados en torno al verdadero valor del promedio
poblacional.
29
el intervalo de confianza estará definido al igual que la media poblacional (μ) y solo se confía si
contendrá al verdadero valor del parámetro o no.
Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9%
El segundo resultado señalado anteriormente, es la base del procedimiento de
estimación de parámetros que se emplea mayoritariamente y que recibe el nombre de estimación
por intervalos de confianza.
La estimación de un parámetro mediante un intervalo de confianza, consiste en
construir, a partir de un valor del promedio que arroja una muestra, un intervalo que se extienda
por arriba y por debajo de dicho promedio muestral y, concluir que el valor del parámetro
debería ser alguno de los valores que se encuentran dentro de dicho intervalo.
El empleo de esta estrategia garantiza que muchas muestras generen un intervalo que
logre incluir el valor del promedio de la población.
Por ejemplo: Elijamos una muestra, por ejemplo, alguna de las muestras que haya presentado
como promedio el valor de 4.0. La comparación directa muestra que el valor 4.0 es diferente al
valor del promedio de la población de 4.166. Sin embargo, si ahora procedemos a construir un
intervalo de confianza que se extienda 0.2 hacia ambos lados del promedio de la muestra (4.0),
habremos definido el siguiente intervalo de confianza para estimar el promedio poblacional:
[3.8, 4.2]. Al observar este intervalo, podemos darnos cuenta que esta estimación si logra acertar
en localizar el verdadero valor del promedio poblacional, dado que el intervalo incluye el valor
4.166 que es el valor parámetro.
a. Construcción de un intervalo de confianza
Cómo decidir cuál debe ser el valor que se va a utilizar para construir el intervalo de
confianza a partir del promedio de una muestra a objeto de garantizar que este valor logre dar
origen a un intervalo de confianza que contenga el parámetro?
En principio, se podría pensar que la mejor solución consiste en utilizar un valor muy
grande, de forma que cualquiera sea el promedio de la muestra con la que se esté trabajando, el
intervalo que se obtenga siempre incluya el valor del parámetro. En el ejemplo un valor que
cumple este requisito podría ser 2.2.
Para ver que este valor cumple la condición, supongamos que nuestra muestra hubiera
sido alguna de las dos que presentaron los promedios más extremos entre todas las muestras que
forman la DMM. Dichas muestras corresponden a:
1. La que presenta el promedio más bajo: 2.0
2. La que presenta el promedio más alto: 5.8
Para el caso de la muestra con el promedio más bajo: el promedio de la muestra (2.0) es
bastante distinto a un promedio de la población (4.166). Si se procede a construir un intervalo
de confianza que se extienda 2.2 hacia ambos lados del promedio de la muestra (2.0) habremos
definido el siguiente intervalo de confianza para estimar promedio poblacional [-0.2, 4.2]. Esta
estimación si logra acertar en localizar el verdadero valor del promedio poblacional, dado que
el intervalo incluye el valor de 4.166 que es el valor del parámetro.
Ahora, con la muestra que presento el promedio más alto: el promedio de la muestra
(5.8) es bastante distinto de la población (4.166) si construimos un intervalo de confianza que se
extienda de 2.2 hacia ambos lados del promedio de la muestra (5.8), habremos definido el
siguiente intervalo de confianza para estimar el promedio poblacional [3.6, 8.0]. La estimación
si logra acertar en localizar el verdadero valor del promedio poblacional, dado que el intervalo
incluye el valor 4.166 que es el valor del parámetro.
La elección de un valor grande permite lograr que todos los intervalos que se podrían
construir en base a cualquiera de las muestras que forman la DMM, terminarían incluyendo el
parámetro, el problema que se presenta es que dichos intervalos inevitablemente van a exhibir
una amplitud tan grande, que no van a tener ninguna utilidad práctica.
30
Para solucionar este problema se adopta el siguiente camino:
1. Se decido renunciar a que el valor que se emplee para construir los intervalos, garantice que
todas las muestras darán origen a intervalos que contengan un parámetro
2. En un lugar, se establece que el valor que se utilice permita que solo el 95% de todas las
muestras den origen a un intervalo que contenga el parámetro
Siempre ocurrirá que del total de muestras que se podrían seleccionar, un 5% de ellas darán
origen a un intervalo que NO va a contener el valor del parámetro.
La consecuencia de la decisión anterior, es que se introduce un margen de incertidumbre
inevitable en las estimaciones que se van a realizar empleando este procedimiento. Cuando se
elabore un intervalo de confianza a partir de la única muestra con la que se puede trabajar en la
mayoría de las investigaciones, se tendrá que asumir que no se tiene un 100% de confianza de
que efectivamente el parámetro se encuentre en el intervalo calculado.
Lo que si se va a poder afirmar es que hay una alta confianza, corresponde al 95%, de
que el intervalo calculado corresponda a aquellos intervalos que si logran incluir el valor del
parámetro. ¿Cómo se determina el valor que se emplea en la construcción de intervalos de
confianza que garantice que el 95% de las muestras logren incluir el parámetro?
Volver a las propiedades de la DMM: la propiedad que permite resolver el problema es
aquella que dice que la DMM se caracteriza por presentar una distribución normal. Se puede
demostrar que en una distribución normal, aproximadamente el 68% de todas las muestras, se
localizan a una distancia del promedio de la DMM, menor o igual a 1 DE en ambas direcciones.
De igual modo, se sabe que en toda distribución normal, el 95% de todas las muestras, se
localizan a una distancia promedio de la DMM, menor o igual 1.96 veces la DE en ambas
direcciones. Este antecedente es el que se utiliza para obtener el valor con el cual se construye el
intervalo de confianza a partir del promedio de cualquier muestra obtenida de una población.
Para ello se requiere multiplicar el valor de 1.96 por el valor de la DE de la DMM, también
denominado ERROR ESTÁNDAR. El valor que se obtiene al hacer esta multiplicación recibe
el nombre de ERROR MUESTRAL, ERROR DE MUESTREO o ERROR DE PRECISIÓN.
e: Error muestral
1.96: puntaje Z que permite que el 95% de las muestras de la DMM den origen a un intervalo de
confianza que incluya el promedio poblacional.
31
El resultado anterior nos dice que para conocer el valor del error estándar no
necesitamos obtener la DMM, sino que basta conocer la desviación estándar de la población en
la que se desea llevar a cabo la estimación del parámetro.
Ahora bien, esta solución no es del todo práctica por cuanto obliga a tener acceso a los
resultados de un censo que nos permita conocer la desviación estándar de la población de
interés. Lo cual, en la práctica, sólo se consigue rara vez.
Para resolver este último problema vamos a tener que estimar el valor de la desviación
estándar poblacional, a partir de los datos de la muestra con la que estamos haciendo las
inferencias.
El estimador que se emplea corresponde a la desviación estándar muestral:
e: Error muestral
1.96: puntaje Z que permite que el 95% de las muestras de la DMM den origen a un intervalo de
confianza que incluya el promedio poblacional
S: desviación estándar muestral.
n: tamaño de la muestra
Una vez obtenido el error muestral, se procede a restarlo y a sumarlo del valor del
promedio de la muestra con la que se está trabajando para construir un intervalo de confianza
deseado:
Contraste de hipótesis:
Hipótesis nula (Ho): implica que no hay efectos o diferencias a nivel de la población.
Hipótesis alternativa (H1): Implica que hay efectos o diferencias a nivel de la población (los
grupos son distintos).
32
Corresponde al procedimiento mediante el cual se comparan los resultados esperados según lo
planteado por una teoría y los resultados obtenidos de la observación de los fenómenos. Ahora
bien, los resultados esperados se redactan en la forma de una afirmación, la cual recibe el
nombre de hipótesis de investigación.
Sin embargo, en la mayoría de las ocasiones no es posible observar todos los elementos de las
poblaciones de interés, por lo que se presenta el problema de cómo decidir si la hipótesis de
investigación es correcta o incorrecta. La solución a este problema, consiste en emplear las
herramientas que proporciona la estadística inferencial.
33
de apoyar H1 y, por ende, concluir que su hipótesis de investigación ha sido apoyada por los
datos del estudio.
Conclusión:
Para someter a evaluación la hipótesis del estudio, se aplico la prueba Z para una media,
mediante un contraste unilateral. Al comparar los resultados de los tiempos de reacción de las
personas que participaron en sesiones de entrenamiento (M=, DE=) con los tiempos de reacción
de la población general (M=, DE=) se concluye que los primeros tienden a mostrar resultados
significativamente menores que estos últimos (Z=-4.14, p<0.001)
Errores estadísticos
Error tipo I o error Alfa: Se refiere a cuando los datos de la muestra llevan a concluir que hay
que rechazar la hipótesis nula, pero en realidad en la población es cierta.
Nivel de significación: es la máxima probabilidad de cometer un error tipo I que estamos
dispuestos a aceptar. Si P es mayor o igual a alfa (0.05) –> se acepta hipótesis nula. Mientras
34
menor sea el numero mejor (0.01, 0.001), sin embargo, si es más chico la muestra aumenta
considerablemente, por lo que no conviene.
Error tipo II o error Beta: Cuando al analiza la muestra concluye que la hipótesis nula es
verdadera cuando en la población es falsa.
Potencia: 1-B. La potencia es la probablidad de que a partir de la muestra detectemos un efecto,
si es que el efecto existe a nivel de la población. Nos va a mostrar de cuanto tiene que ser la
muestra. En Psicología se exige un 80% de potencia, la potencia da control al error tipo II y la
potencia se controla por la muestra
muestra potencia Error tipo II (la probabilidad de cometer un error tipo II tiene que ser
menor a 20% y la potencia tendría que ser 80% (o más), para eso la muestra debe ser grande.
Cuando se conduce una investigación, el investigador desea arribar a conclusiones que estén
libres de error. Esto significa que el investigador/a espera que si el análisis de los datos
obtenidos en la muestra indican que se debe aceptar la H0 esto sea lo correcto, y
recíprocamente, si es que los datos indican que se debe rechazar la H0.
No obstante lo anterior, y dado que se trabaja con muestras, siempre existe alguna probabilidad
de cometer un error en las conclusiones a las que se arriba durante una investigación.
Esto significa que, si el análisis de los datos obtenidos en la muestra indican que HJ0 es
correcta, sea justamente lo contrario lo que realmente esté sucediendo, y recíprocamente, si es
que los datos indican que se debe rechazar la H0.
Error tipo II o Error Beta: Consiste en aceptar como verdadera H0, cuando en realidad
ésta es FALSA EN LA POBLACIÓN.
Al igual como ocurriría con el error tipo I, es imposible reducir a 0 la probabilidad de
cometer el error tipo II en una investigación.
Sin embargo, si se puede lograr que dicha probabilidad se aun número pequeño.
En investigación psicosocial se tiende a fijar el Error tipo II en el valor 0.20.
Esto implica que si H0 fuera FALSA EN LA POBLACION ocurriría que si se repitiera el
mismo estudio 00 veces empleando muestras diferentes, pero del mismo tamaño, extraídas de la
misma población, solo en 20 e ellas se obtendría un valor en la prueba estadística que llevaría a
aceptar H0 y por ende, a cometer el error tipo II.
Usualmente, en contextos de investigación, más que considerar el error tipo II se prefiere
considerar su complemento.
Potencia = 1- beta
De este modo, la potencia de una investigación viene a ser la probabilidad de no cometer el
error tipo II es decir, la probabilidad que tiene una investigación de detectar “un efecto” (una
relación entre variables, una diferencia entre grupos, etc.) si es que este se encuentra presente en
la población.
35
Es así como la potencia de una investigación, puede ser vista como el grado de
“sensibilidad” del estudio para detectar un efecto si es que este existe en la población.
Dado que el máximo valor que se le asigna al error tipo II en la investigación psicosocial
corresponde a 0.20, en consecuencia se tiene que el mínimo valor de potencia aceptado es de
0.80
Si una investigación no es capaz de alcanzar una potencia cercana a 0.80, no sería adecuado
llevarla a cabo, por cuanto es casi seguro que el estudio va a ser incapaz de detectar la existencia
de algún efecto que esté teniendo lugar en la población.
Esto significa que si H0 es falsa en la población, el investigador/a tiene muy pocas
probabilidades de lograr rechazar H0 a partir de los datos de su muestra.
El control del error tipo II resulta más complejo que el error tipo I.
Entre los factores que permiten controlar el error tipo II se tienen:
1. Una adecuada elección del tamaño de la/s muestra/s con las que se va a trabajar. Mientras
mayor sea el tamaño de la/s muestra/s, mayor serpa la potencia del estudio y, en consecuencia,
menor será la probabilidad de cometer el Error tipo II.
2. Una correcta elección del estadístico de contraste
3. Empleo de instrumentos de medición con alta confiabilidad y validez
Finalmente, es importante señalar que el error tipo II mantiene una relación inversa con el error
tipo I, por cuando, al disminuir la probabilidad de cometer el error tipo I aumenta la
probabilidad de cometer el error tipo II.
Conclusión final en torno al trabajo con muestras: La conclusión ultima que se debe tener
presente cuando se llevan a cabo generalizaciones en base a muestras, es que nunca se puede
saber con total seguridad si el resultado que se obtiene es correcto, o bien producto del
azar.Debido a ello es que los estudios deben replicarse en nuevas muestras, a fin de poder
identificar qué resultados tienden a ser consistentes a lo largo de los deferentes estudios.
36
1) Exactitud: En que medida los valores son cercanos a los verdaderos valores de la variable.
Valor real: Puntaje que una persona tiene para una variable.
Valor real=valor observado + error.
Error de medición
No hay un instrumento que mida exactamente los valores de la variable.
Se busca que la variable observada refleje le valor real de la variable, pero también un valor
del error.
El valor del error debe ser bajo.
Si el error es bajo (casi 0), el valor observado se acerca al valor real. Por otro lado, si el
error es alto, el valor observado no se acerca al real.
Los instrumentos que son exactos tienden a ser estables en sus puntajes.
Test 1 Test 2
37
1) Aplicar el mismo test en dos ocasiones a una misma muestra de sujetos.
2) Calcular el coeficiente de correlación entre los puntajes obtenidos en ambas
aplicaciones (Pearson).
Este resultado refleja la estabilidad de los puntajes a través del tiempo.
Existe una dificultad con este procedimiento y es la de determinar cuál es el tiempo
adecuado entre una y otra aplicación del test. Si es muy corto, las personas pueden recordar
las preguntas y pueden contestar lo mismo para permanecer coherentes (sobreestima). Si el
tiempo es muy largo, la persona puede cambiar en ese lapso (subestima). El tiempo en
general utilizado va de 2 semanas a tres meses.
c) Consistencia interna: Se mide una sola vez a la persona con el mismo instrumento.
Procedimientos:
1) División en mitades.
2) Coeficiente alpha de Cronbach.
1) División en mitades: Una vez aplicada la escala a una muestra de sujetos, se procede a
dividir los reactivos en dos grupos. Para cada grupo se obtiene un puntaje total. Finalmente
se calcula el coeficente de correlación producto momento de Pearson entre ambos puntajes
totales. Este coeficiente permite estimar la confiabilidad de la prueba.
2) Coeficiente alpha de Cronbach:
Evita las desventajas del procedimiento de División en mitades.
Desventajas de la División en mitades:
Requiere dividir la escala en mitades
No hay una única forma de hacer esta división, y por lo tanto genera incertidumbre de
si quedan los dos grupos iguales o no.
El cálculo de Pearson se debe ajustar y por lo tanto es una estimación y no el valor real.
Cuando un alpha de Cronbach es malo o muy bajo, ¿Cuáles podrían ser las razones,
porque no se llegó a 1?
Respuesta a través de un ejemplo:
Ej.: Alpha=0,46.
2 posibilidades:
- Que todos o la mayoría de los ítems son inconsistentes.
- Que solo algunos ítems sean inconsistentes.
El alpha de Cronbach posee valores entre 0 y 1. Mientras más cercano a 1 mejor es la
confiabilidad del instrumento.
¿Qué se podría hacer?
En el caso uno, la escala no sirve, se pierde. En el caso dos, debemos encontrar los ítems que
son inconsistentes, eliminarlos de la escala y seguir trabajando con los otros.
¿Cómo sabemos cuál de las dos opciones es?
A través del análisis de la capacidad discriminativa (homogeneidad).
Para llevar a cabo este análisis se procede a determinar el coeficiente de correlación
producto-momento r de Pearson entre cada uno de los ítems de la escala y el puntaje total
corregido de la escala.
38
EJEMPLO:
R de Pearson con
Ej.: entre los valores de ítem 1 y total corregido 1.
2 2 1 2 2 7 (7-2) 5 (7-1) 6
3 1 1 3 2 7 (7-1) 6 6
4 5 4 3 5 17 Etc. Etc.
5 4 4 4 4 16 Etc. Etc.
…
n
…
A cada ítem se le asocia un total corregido. Total corregido (1) = se le resta el ítem uno al total
de la fila. Luego se saca el R de Pearson con los valores de la columna ítem 1 y total corregido
(1). Para interpretar el resultado de r se debe considerar que puntajes mayores a 0,30 pueden ser
considerados confiables. Mientras más lejano a cero en el sentido de los números negativos más
inconsistentes y menos confiables.
Ej.: r ítem 1= 0,51
Ítem 2= 0,45
ritem 3= 0,04 debe ser eliminado.
39
1) Se Seleccionan todos los ítems de la escala que queremos analizar y luego aparecen los
siguientes resultados:
Analizar->escala->analisis de fiabilidad
40
PD: LA TABLA CON LOS VALORES DE ALFA ES IMPORTANTE SABERSELA
41
42
VALIDEZ:
Se define una variable y se construye un instrumento que la mida. Surge el problema de evaluar
en qué medida el instrumento o conjunto de operaciones miden adecuadamente la variable.
La validez del procedimiento de medición se refiere a que los datos resulten apropiados
para las inferencias y decisiones basados en ellos.
Convencionalmente la definición de validez es el grado en que un instrumento mide lo
que pretende medir.
La definición actual: Grado en que la evidencia empírica y las bases teóricas apoiyan la
adecuación de las interpretaciones y acciones basadas en las puntuaciones de los test.
Esta definición tiene dos implicaciones:
1) Énfasis en las puntuaciones y no en los instrumentos (validez y
confiabilidad son propiedad de los datos y no de los instrumentos)
2) Hay diferentes evidencias que permitirán justificar las decisiones que se
adopten en base a los datos entregados por un instrumento.
3 TIPOS DE VALIDEZ:
a) La validez de contenido consiste esencialmente en el juicio. En forma individual o con
otras personas, uno juzga la representatividad de los elementos o reactivos. Su definición
puede ser guiada por la siguiente pregunta ¿es el contenido de esta medida representativo
del contenido o del universo de contenido de la propiedad que se va a medir?
Forma de evaluar la validez de contenido:
JUICIO DE EXPERTOS: 4 PASOS
Paso 1: Identificación y definición de las dimensiones del constructo.
Paso 2: Identificación de expertos en el constructo bajo estudio.
Paso 3: Juicio de los expertos acerca del grado en el que el contenido del instrumento es
relevante, representativo del constructo por medio de un procedimiento estructurado.
Paso 4: Un procedimiento para resumir los datos de la fase anterior.
El paso 3 y 4 requiere de:
43
Entregar a los jueces descripciones claras de las dimensiones o constructo que deben
abordar los ítems del instrumento.
Presentación de los ítems a los jueces, quienes compararan cada ítem con las dimensiones,
indicando a que dimensión corresponde cada uno. ( un ítem puede tener una o unas o
ninguna dimensión)
Registro de la opinión de los expertos, se ocupa una pauta que contiene los ítems, también
una columna para cada dimensión del constructo y una columna que diga ninguna.
Porcentaje de jueces que asigne cada ítem a la misma dimensión debe estar en el 75%.
Falla en la validez de contenido:
1) Alguna dimensión importante no está siendo medida.
2) Se miden con ítems todas las dimensiones, pero los ítems son poco precisos.
3) Los ítems no tienen nada que ver con el constructo.
b) Validez de criterio: Busca establecer la relación entre los resultados que entrega el
procedimiento de medición que se trata de validar y los resultados que entrega un proceso
de medición distinto.
Opciones del criterio:
El criterio que se va a utilizar debe poseer una validez y una confiabilidad satisfactoria.
1) Instrumento que mide le mismo constructo que intenta medir el instrumento que se
quiere validar.
2) Opinión de un evaluador calificado que evalúa el mismo constructo que mide el
instrumento que se intenta evaluar.
3) Instrumento que mide un constructo diferente, pero que se encuentre muy
relacionado con el instrumento que se quiere validar.
44
Tiene dos variantes:
a) Análisis factorial exploratorio (EFA): Programa busca cuántos factores mide el
instrumento y que ítem mide cada factor.
b) Análisis factorial confirmatorio (CFA): Se le indica al programa cuántos factores
cree uno que mide el instrumento y que ítem cree uno que mide el factor.
45
OJO: Existen unas teorías a la base del análisis psicométrico (que es confiabilidad y validez)
estas se llaman teoría de respuesta al ítem y teoría clásica.
También es importante que para los instrumentos las validez que se pueden ver es la de
contenido, de criterio (pudiendo ser concurrente o predictiva), la aparente y la de constructo
(que es la que vemos con el análisis factorial). PD: LO ANTERIOR; NO CONFUNDIR
CON VALIDEZ INTERNA Y EXTERNA PORQUE ESTAS SON DEL EXPERIMENTO
Y NO DEL INSTRUMENTO.
Sig.
,000
46
47
EXPLICACION TABLA ANTERIOR: Acá nos fijamos en el valor total y cuales van a ser
mayores que 1, los mayores que 1 son los componentes que vamos a ocupar para la escala y
después cuando se les da nombre se llaman factores, también al lado sale cuanto % de la
varianza explican cada uno y en porcentaje acumulado significa la varianza que van explicando
cuando se van juntando por ejemplo los tres primeros explican un 48,916% de la variable.
También otra opción es que pueden poner el grafico de sedimentación que en ese se tiene que
ver cuales valores se escapan de la línea, para ver cuantos componentes tenemos.
Acá nos fijamos en el valor total y cuales van a ser mayores que 1, los mayores que 1 son los
componentes que vamos a ocupar para la escala y después cuando se les da nombre se llaman
factores, también al lado sale cuanto % de la varianza explican cada uno y en porcentaje acumulado
significa la varianza que van explicando cuando se van juntando por ejemplo los tres primeros
explican un 50,939% de la variable.
También otra opción es que pueden poner el grafico de sedimentación que en ese se tiene que ver
cuales valores se escapan de la línea, para ver cuantos componentes tenemos.
48
Gráfico de sedimentación
6
A u to v a lo r
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Número de componente
49
Acá en esta tabla aparecen al lado izquierdo los ítems de la escala y en cada componente
aparece su carga factorial asociada, acá se tiene que ver donde se carga cada ítem y en el
caso de que se cargue en dos componentes ese ítem se queda en el componente en donde su
carga es mayor. Por ejemplo el ítem A2 se queda en el componente 2. Luego de esto se
agrupan los ítems en relación a cada componente que quedaron y se ve que dice cada uno
para así poder darle nombre al componente y llamarse factor!!!
Matriz de componentes rotados(a) (otro ejemplo)
Componente
1 2 3 4 5
E22 ,781
E14 ,600 ,336
E21 ,597
E15 ,590 ,409
E9 ,555 ,309
E16 ,536 ,479
50
E13 ,526 ,427
E3 ,854
E2 ,823
E11 ,690
E19 ,762
E10 ,586 ,358
E7 ,422 ,348 ,547
E17 ,542 ,501
E8 ,300 ,471 ,542
E20 ,528
E5 ,803
E4 ,387 ,747
E23 -,847
E1 ,678
Método de extracción: Análisis de componentes principales.
Método de rotación: Normalización Varimax con Kaiser.
a La rotación ha convergido en 9 iteraciones.
Por ejemplo el ítem E22 se queda en el componente 1, pero el ítem E8 carga en el componente 1, 2
y 3 pero como en el 3 tiene carga de 0,542 se atribuye a ese componente.
Luego de esto se agrupan los ítems en relación a cada componente que quedaron y se ve que dice
cada uno para así poder darle nombre al componente y llamarse factor
42ª: Investigación Cualitativa - Investigación II Diseños y tipos de investigación
cualitativa
Enfoque fenomenológico
Enfoque etnográfico.
Teoría fundamentada.
1. Enfoque fenomenológico
Algunos antecedentes de la fenomenología:
La fenomenología se hereda de la filosofía y la sociología, constituyéndose en la
corriente filosófica de mayor influencia en el siglo XX.
Contrario al positivismo, en enfoque fenomenológico considera que el conocimiento no
es total.
Etimológicamente, fenomenología proviene de “phenomenon”, que significa “que se
muestra”. Esto quiere decir que uno no ve la realidad, sino lo que ésta representa.
La fenomenología busca comprender cómo los sujetos experimentan su realidad; se
interesa por describir la experiencia de los sujetos, tal cual la viven. Buscando comprender y
mostrar la esencia del mundo subjetivo del hombre, conformado por todo el campo de
experiencias, percepciones y recuerdos al que un individuo puede acceder en un momento
determinado.
El abordaje de la realidad, siempre parte desde el marco de referencia interno del
individuo
El enfoque fenomenológico pasa por el desarrollo de técnicas conversacionales, que
luego el investigador plasma en un reporte.
Orientaciones fenomenológicas:
Fenomenología eidética (Husserl, corte filosófico)
a. Considera nefasto del positivismo el formalismo (traducir todo el conocimiento a una
estructura matemática) y el nominalismo (todo conocimiento científico debe tener correlato
medible en la realidad).
51
b. Surgimiento del “mundo social”: “el mundo de la vida” trasciende lo que puede abarcar
el formalismo/nominalismo.
c. Conceptos:
1) Epoyé: poner la subjetividad entre paréntesis; suspender el propio juicio; acercarse a la
subjetividad del otro poniendo entre paréntesis la propia; implica asumir que se puede
estar equivocado.
2) Intentio: concepto de “intención”, entendido como “la conciencia de”.
3) Asepsia: aproximación al mundo de los significados alejándose del mundo de la
metafísica o lo no científico.
52
a) Se estudian las descripciones para delimitar los temas centrales, dando paso a la
elaboración de categorías, para luego integrar las categorías señaladas en una
estructura global que las incluya.
b) Analizar, reflexionar y percibir la totalidad.
c) Pasar desde lo que dicen los sujetos, a su subjetividad (esencia del significado). Y
desde estos significados particulares encontrar similitudes que nos permitan
observar lo universal.
4.Discusión del resultado del análisis, en contraste con lo planteado por otras
investigaciones.
a) Relacionar lo fenomenológicamente descrito, con lo que ha sido teóricamente
establecido previamente.
b) Comparar, analizar y sintetizar.
c) Se reduce lo universalmente esencial para dar paso a lo trascendental e
intersubjetivo.
Enfoque etnográfico
Fenomenología (filosofía, sociología) Etnografía (antropología)
Visión en torno a un foco. Funcionamiento de un grupo contextualizado.
Como la gente experimenta los fenómenos Estudio del “etnos” (endogrupo).
(significados que se le atribuyen).
2. Definición de etnografía
Trabajo de describir una cultura.
Comprender la forma de vida de un grupo desde el punto de vista de sus miembros.
Más que “estudiar a la gente” es “aprender de la gente”: “proceso de aculturación
controlada”; es más que extraer datos de la gente, por eso depende de las concepciones
culturales vigentes y cómo entiendo a los otros. Estos dos últimos aspectos son parte de la
evaluación de la etnografía, así como también lo son:
1) La perplejidad (distinciones llamativas).
2) Sobrevalorización de mi cultura.
3) Diversidad (hay otro distinto, todos somos diferentes): estudio de los otros = alteridad.
53
b) Le play (quiebre): no hay modelos a priori; visión del fenómeno desde todas las
perspectivas posibles (triangulación metodológica y teórica); datos sobre
preconcepción.
c) Siglo XIX-XX: particularismo histórico de Boas:
Crítica al evolucionismo (importancia del ambiente, la psiquis individual y la historia).
Considera la “singularidad cultural”.
Es riguroso en la recolección de datos.
Los datos deben ser contextualizados.
d) Siglo XIX-XX/primera guerra mundial:
Malinowski, funcionalismo: función social (soluciones colectivas a necesidades
individuales); presencia personal y prolongada; perspectiva nativa; cultura como
sistema.
Benedict, particularismo histórico: culturas son únicas; se comprenden en sus propios
términos; estudio de culturas japonesa, polinesia y malari; critica la asociación de la
adolescencia y el temperamento a la cultura y género.
54
6. Estudio etnográfico
Distingue entre:
Macroetnografía: de las sociedades.
Microetnografía: situaciones sociales puntuales.
Tiempo de duración:
Hasta la saturación de la información.
3 meses (microetnografía), 1 a 10 años (macroetnografía).
7. Fases de la etnografía
1) Acceso al escenario sociocultural.
2) Identificación del fenómeno a estudiar.
3) Negociación del rol o posición dentro de la dinámica social cotidiana: balcón
interno o negociación para ver el grupo desde adentro.
4) Selección de informantes claves de estrategias de producción de información.
5) Registro, ordenamiento, reducción y validación (con alguien del grupo) de la
información.
6) La información se analiza e interpreta.
7) Reformulación y reenfoque del estudio: basado en el conocimiento y
comprensión obtenidos.
8) Preparación del retiro del campo.
8. Método de la etnografía
Observación participante: se necesita formar parte del grupo para saber los significados que
ocurren en torno a un fenómeno. Debe tener en cuenta:
1. Variedad metodológica (multitécnica, complementando la observación
participante).
2. Instrumentos deben generarse in situ.
3. Contacto prolongado y repetitivo (elástico->finaliza con la saturación teórica, no
se sabe a priori el tiempo de investigación).
4. Triangulación
5. Producto: narración personalizada en 1ª persona.
6. Flexible (apertura a incorporar procedimientos de recolección y análisis de
información)
Teoría fundamentada
a) Procedimiento que a partir de los datos permite generar teoría (inductiva-> de lo
particular a lo general).
b) Ve la experiencia del sujeto, los factores que intervienen, etc.
c) Describe la experiencia contextualizada.
d) Aborda el fenómeno y se amplía a otros factores.
e) Mientras la fenomenología es esencialmente descriptiva, y se queda en el centro del
fenómeno, la teoría fundamentada toma en cuenta los factores de afuera considerando
las causas del fenómeno, sus factores intervinientes y sus consecuencias.
f) Se origina en la sociología, más específicamente en el interaccionismo simbólico.
g) Su mayor aporte tuvo que ver con el concepto de saturación teórica y con el uso del
método de comparación constante (hasta el momento el análisis comprendía la
inducción analítica, es decir, probar una teoría con los datos recolectados; los autores
55
Glasser y Strauss plantean que hay que detenerse en la producción de información
cuando el investigador es capaz de predecir lo que va a ocurrir).
h) La única forma de llegar a la saturación teórica a través de este método, es el muestro
teórico (selección de informantes, el muestreo no es a priori; estratégico, pragmático,
por conveniencia).
Origen
a. Altos recursos económicos para la Universidad de Chicago en los años 30, llevó a un
aumento de la producción de investigación cualitativa.
b. Luego EE.UU. quiere una visión más general, y para eso la Universidad de Columbia
aporta con sus investigaciones.
c. En los años 60, las dos escuelas se encuentran en los autores B. Glasser (U de
Columbia) y A. Strauss (U de Chicago).
Glasser: métodos cuantitativos (Lazarsfeld), operacionalización; teorías de alcance
medio (Merton), fenómeno no en general, sino de la sociedad.
Strauss: estudio microsocial (Simmel), no en grupos, sino en situaciones;
interaccionismo simbólico (Blummer).
Definición
Método general para el desarrollo inductivo de teorías.
Genera modelos conceptuales a partir de la observación del mundo social.
Teoría no es la base, sino el producto del estudio.
En definitiva, la teoría fundamentada es el descubrir teorías, conceptos, hipótesis y
proposiciones partiendo directamente de los datos, y no de supuestos a priori, de otras
investigaciones o de marcos teóricos existentes.
Teoría
Modelos conceptuales, formas de explicación.
Esquema analítico abstracto de un fenómeno vinculado a una situación y un contexto
particular.
Forma de la teoría (narración, figura, serie de proposiciones, dependerá de la tradición de la
teoría fundamentada).
Requisitos de una teoría:
a) Ajuste a los datos: cada cosa dicha en investigación debe calzar con los datos.
b) Funcionamiento: explicar el fenómeno.
c) Parsimonia: decir cosas de la manera lo más sencilla posible.
d) Tipos de teoría:
1. Teorías formales: áreas temáticas o conceptuales, referida a fenómenos universales.
2.Teorías sustantivas: áreas concretas de donde extraer conocimiento; dar sentido a
cuestiones prácticas de la vida social; son locales y/o aplicadas.
Glasser Strauss
Teoría formal como meta. Teoría puede ser formal o sustantiva; no
generalizables.
Acumulación de teorías sustantivas, generan Teorías no necesitan ser generalizables, sino
una teoría formal. útiles (generativas).
56
Teoría fundamentada: forma de hacer investigación con estructura lógica, con su propio
muestreo y lógica de análisis. Tiene sus propias formas y producción.
1) No tiene métodos de producción específicos: no dice si elegir uno u otro, no hay una
predilección definida, pero hay más uso de entrevistas y observaciones.
2) Selección de participantes: muestreo teórico y muestreo intencional.
3) Análisis: método de comparación constante.
4) Saturación teórica: el análisis y muestreo se hacen en conjunto hasta no obtener más
información nueva.
El investigador, codifica y analiza los datos de forma simultánea para desarrollar conceptos. Su
aplicación supone la contrastación de las categorías, propiedades e hipótesis que surgen a lo
largo de un estudio en sucesivos marcos o contextos. Este procedimiento se desarrolla en cuatro
etapas (Glaser y Staruss, 1967):
La primera implica la comparación de los datos, la segunda supone una integración de cada
categoría con sus propiedades; la tercera requiere delimitar la teoría que comienza a
desarrollarse; por último, en la cuarta etapa, que se produce tras un proceso de saturación de los
incidentes pertenecientes a cada categoría; recoge la redacción de la teoría.
Durante todo este proceso el investigador, selecciona nuevos cados a estudiar, según su
potencial información para ayudar a elaborar la teoría, refinando o expandiendo conceptos. Este
proceso se conoce con muestreo teórico.
57
Los resultados son un tipo de síntesis de orden superior
• FENÓMENO
• CONDICIONES CAUSALES
• CONTEXTO
• CONDICIONES INTERVINIENTES
• ESTRATEGIAS DE ACCIÓN
• CONSECUENCIAS
ELEMENTO DESCRIPCIÓN
Fenómeno la idea central, evento, suceso o incidente al cual se refieren
las acciones o interacciones con el cual se relacionan
Condiciones causales Son los eventos o variables que conducen a la ocurrencia o
desarrollo del fenómeno. Es un conjunto de causas y sus
propiedades
Contexto El set de propiedades específicas con el cual se da el
fenómeno.
Difícil de distinguir de las condiciones causales. Son las
localizaciones específicas (valores) de las variables que lo
definen. Un conjunto de condiciones que influyen en la
acción/estrategia. Los investigadores hacen frecuentemente
58
una curiosa distinción entre variables activas (causas) y
variables de contexto. Tiene más que ver con lo que el
investigador encuentra interesante que con distinciones de la
naturaleza.
3. Codificación selectiva: proceso de integrar y refinar la teoría. El primer paso que se lleva a
cabo para integrar los datos es determinar una categoría central o medular, la cual representa el
tema principal de la investigación. Aunque la categoría central va evolucionando a partir de la
investigación, también es una abstracción. En un sentido exagerado consiste en todos los
productos del análisis, condensados en unas cuantas palabras que parecen explicarnos"de qué
trata esta investigación".
59
Propósitos de los procesos de codificación en general:
-Construir teoría más que comprobarla
-Ofrecer a los investigadores herramientas útiles para manejar grandes cantidades de datos
brutos
-Ayudar a los analistas a considerar significados alternativos de los fenómenos
-Ser sistemático y creativo al mismo tiempo
-Identificar, desarrollar y relacionar los conceptos, elementos constitutivos básicos de la teoría.
b) Tradiciones
1) Glasser: diseño emergente
Teoría debe tener: ajuste, funcionamiento, relevancia, modificabilidad.
No usar ideas preconcebidas.
2) Strauss: diseño sistemático
Conjunto de pasos que facilitan la teorización.
Inductivo, creativo y sistemático.
3) Chamaz: diseño constructivista
Diseño emergente y sistemático serían objetivistas.
No hay realidad unidimensional.
Observador y observado.
60
Generalizar a la población
Se requiere una explicación causal
Cuando se tiene una hipótesis que verificar
Cuando hay una realidad objetiva y particular que estudiar
No experimental Observa, no interviene
Experimental Prueba causalidad. Controla Variables. Grupos aleatorios
Cuasiexperimental Confirmatoria, Grupos predefinidos.
61
2) Tipo de cuestionario: algunos medios de entrevista pueden producir información errónea (ej:
por teléfono); modo de hacer las preguntas.
3) El entrevistador cambia el modo de la entrevista: la naturaleza predeterminada de la
entrevista está orientada a minimizar los errores.
B) Entrevistas semi estructuradas: Al igual que las anteriores las preguntas están definidas
previamente -en un guión de entrevista- pero la secuencia, así como su formulación pueden
variar en función de cada sujeto entrevistado. Es decir, el/la investigador/a realiza una serie de
preguntas (generalmente abiertas al principio de la entrevista) que definen el área a investigar,
pero tiene libertad para profundizar en alguna idea que pueda ser relevante, realizando nuevas
preguntas. Como modelo mixto de la entrevista estructurada y abierta o en profundidad,
presenta una alternancia de fases directivas y no directivas.
c) Entrevistas en profundidad (no estructurada o abierta): También denominada por algunos
autores como entrevista abierta. Generalmente suelen cubrir solamente uno o dos temas pero en
mayor profundidad. El resto de las preguntas que el investigador realiza, van emergiendo de las
respuestas del entrevistado y se centran fundamentalmente en la aclaración de los detalles con la
finalidad de profundizar en el tema objeto de estudio. Aunque es la que más se caracteriza por la
carencia de estructura –salvo la que el sujeto le de- y por la no-dirección, no hay que olvidar que
las entrevistas deben desarrollarse bajo la dirección y el control sutil del investigador/a. Lo que
se dice en las páginas siguientes puede aplicarse a todas las entrevistas independientemente del
enfoque.
- Sería una técnica cualitativa “por derecho propio”.
- Características:
1) Inexistencia de cualquier pauta de preguntas (no hay preguntas, sino un tema y un foco).
2) No hay estructuración de subtemas previas.
- Pasos a seguir:
1) Acceso al setting: acceder al escenario social donde se da el fenómeno; no olvidar que en
algunos casos no hay setting (ejemplo: personas que viven en la calle).
2) Comprensión del lenguaje que hablan los entrevistados.
3) Decidir cómo nos vamos a presentar a nosotros mismos (aquí vale mucho la 1ª impresión).
4) Localizar un informante (“informante clave”): será el facilitador para entrevistar a otras
personas y acceder al lenguaje.
- Aspectos éticos:
Consentimiento informado.
Derecho a la privacidad.
Proteger de cualquier daño a las personas investigadas.
Si la entrevista será abiertamente grabada o no.
Grado de involucramiento de los investigadores.
Adecuación de las entrevistas en profundidad en las siguientes situaciones:
Cuando se desea estudiar acontecimientos del pasado o no se puede tener acceso a un
particular tipo de escenario y por tanto los escenarios o las personas no son accesibles
de otro modo.
La investigación depende de un amplia gama de escenarios o personas.
Cuando existen limitaciones de tiempo en comparación con otras técnicas, como la
observación participante. Las entrevistas permiten un empleo más eficiente del tiempo.
El investigador quiere esclarecer experiencia humana subjetiva. En este caso los autores
se refieren a historias de vida basadas en entrevistas en profundidad.
62
La decisión de optar por la utilización de entrevistas, y en caso afirmativo, dictaminar su uso
combinado o propio, va a estar determinada por el diseño del estudio de investigación y en
concreto por el objetivo o los objetivos marcados en el estudio.
Tipos de preguntas
•Introductorias.
•De profundización.
•De sondeo.
•De especificación.
•Directas.
•Indirectas.
•De estructuración.
•Silencio.
•De interpretación.
Planificando entrevistas:
7 etapas:
1. Organización temática: por qué y de qué realizamos entrevistas. (por qué, propósito de
realizar entrevista y no otro --> podrían ser exploratorias, comprobación de hipótesis,
descriptivo, teorizante (teoría fundamentada), investigación acción participativa y como
material de apoyo para estudios de carácter práctico.
2. Diseño: tener claro dimensión temporal, sujetos entrevistados (+- 10, mayor
entrevistados, menor información nueva) y guión de las entrevistas (semiestructuradas)
3. Ejecución: aplicar entrevistas/producción (introducción informativa propósito de
entrevista, tema, objetivo, contexto, consentimiento informado; Sensación de vacío
dar espacio a preguntas; sesión de reflexión tiempo breve donde se le da la
posibilidad de dar su experiencia durante la entrevista.)
4. Transcripción.
5. Análisis: en función de este se modifican la estructura de las siguientes entrevistas.
6. Paralelamente al análisis: verificación: a medida que se hace el análisis y es posible
modificar, puedo volver a los mismos sujetos y a otros para ver si los resultados de la
entrevista está libre de sesgos.
7. Informe.
Aspectos éticos:
Microética:
-Consentimiento informado: dar a conocer los objetivos de la investigación, nuestros intereses,
quienes tienen acceso a las entrevistas, qué se va a registrar. Puede retirarse de la entrevista en
cualquier momento, es confidencial, los resultados se envían.
-Confidencialidad: Los datos confidenciales del entrevistado no pueden llegar a ser conocidos.
-Consecuencias: Considerar el beneficio o daño que puede causar la entrevista. Algunas pueden
gatillar algún evento traumático.
Integridad de la entrevista: la experiencia del investigador determina qué información entrega y
qué no. La honestidad también es importante.
Macroética:
Tiene que ver con los resultados, ¿Para quiénes son útiles?¿A quienes les beneficia la
información?, es decir, cómo las entrevistas tienen repercusión en la sociedad, en algunos casos
63
pueden llegar a ocasionar efectos negativos. También puede dar que se rompan ciertas éticas con
el fin de dar beneficio a la sociedad.
D) Focus group
o Técnica conversacional dirigida a grupos. Es parte de las entrevistas grupales.
o Discusión en la cual un grupo de personas conversa respecto de temas considerados
importantes para una investigación, y donde dicha discusión es guiada por un moderador o
facilitador.
o Morgan: las entrevistas grupales son un modo específico de escuchar a las personas y
aprender a ellas.
o Número de participantes: algunos señalan que puede ser de 6 a 12 personas; Morgan: un
grupo de 6 a 8 es “fácilmente dirigible”.
o Trabajo de los moderadores con un set de preguntas preestablecidas, orientadas a temáticas
(no a elementos específicos) que se quieren tratar.
o El FG no busca necesariamente llegar a acuerdos o a conclusiones grupales, sino más bien
busca develar cómo se llega a acuerdos o desacuerdos. La idea es generar un análisis de las
interacciones.
Focus group es un punto medio en un proceso de 3 etapas:
1) Decisión del equipo de investigación, respecto a qué necesitan oír del grupo focal.
2) Focusgroup propiamente tal.
3) Resumen de lo que se ha aprendido de los personajes participantes.
Focus group es un proceso activo y no pasivo. Esto significa que:
Investigadores eligen el tema.
Investigadores dirigen la discusión.
Sin embargo, los investigadores tampoco deben ser tan directivos o rígidos.
La única manera de escuchar a los participantes, es considerando sus prioridades.
El FG es adaptable a distintos propósitos. Por eso se ocupa en distintas instancias.
64
Implementación Retroalimentación Monitorear Evaluación de Intervención,
de la investigación. la respuesta procesos. aplicación con
Recolección de del cliente. la
datos. organización.
Evaluación Análisis de la Refinar el Evaluación de Rediseña el
información. producto. resultados. proceso de
Contrastar la intervención.
información
65
5) Selección de participantes:
- Principalmente sigue la variable sociodemográfica.
- Otra alternativa es el grado de involucramiento en con el tema.
- Se ha planteado que las personas de un FG no deben conocerse.
Limitaciones:
- -El investigador tiene menos control del proceso que en una entrevista individual.
- -Una enorme cantidad de información puede ser rápidamente producida, puede tomar
hasta 8 horas de transcripción.
- -La información es compleja de analizar. (datos voluminosos, inestructurados y poco
manejables.)
- -Son difíciles de organizar: acuerdo inicial + tiempo específico
Técnicas Observacionales:
- La observación permite observar directamente, sin mediación, las prácticas de las
personas. La mediación está dada por el relato o discurso.
- Dimensiones de la observación:
1) Encubierta (ejemplo, experimento de Festinger y las sectas) v/s al descubierto.
2) No participante (ejemplo, filmación de una práctica social) v/s participante (el
investigador se involucra y se relaciona con los sujetos que investiga).
3) Sistemática (se necesita de una pauta previa y estructurada de lo que se quiere
encontrar) v/s no sistemática (“lo que se encuentra”, no estructurada).
4) En situaciones naturales v/s en situaciones artificiales (ejemplo, laboratorios).
5) De sí mismo v/s de otros.
Tipos de observación:
1) Observación no participante.
2) Observación participante.
3) Etnografía
4) Fotografía
5) Análisis de películas.
Características de la observación:
1) Debiera ser repetitiva y regular: se debe volver al lugar de observación varias veces.
2) No incluye solamente el dato visual: también incluye el sonido, los olores, lo que se
toca, lo que se sabe.
66
3) Los observadores cualitativos están libres para buscar las categorías o conceptos que
parecen significativos a los sujetos: no están limitados por categorías predeterminadas de
respuestas. Ejemplo: limitaciones de género, religión, edad, etc.
4) Puede variar entre diferentes practicantes, a través de la etapa.
•El trabajo de campo es la fase de producción de datos, cuando los investigadores dejan sus
escritorios y se sumergen en el mundo.
El rol del observador depende de: el propósito de la observación, las características del
observador, y la naturaleza del escenario.
Etapas de la observación:
1) Selección del entorno: qué se va a observar; comportamiento de interacciones en los
seres humanos; interaccionismo en ellas están los significados que serán
interpretados para la comprensión de los fenómenos psicológicos.
2) Definición del foco: a partir del objetivo de investigación.
3) Formar observadores.
4) Observación descriptiva: es el único de la etapa de observación propiamente tal,
evitando los juicios personales.
5) Observación focalizada: observación específica del foco.
6) Observación selectiva: se escoge algo particular, que es clave o lo más significativo del
foco.
7) Final de la observación.
67
Tienen que ver con la validez (que mida lo que tiene que medir) y la confiabilidad (que
en repetidas ocasiones de aplicación, se mida lo mismo).
Validez: Para aumentar la validez utilizar múltiples observadores o equipos, diversos en
edad y género.
Confiabilidad: para aumentar la confiabilidad se deben realizar observaciones
conducidas sistemática y repetidamente en tiempo. Observar varios lugares distintos y
observamos el mismo lugar en tiempos distintos.
La primera responsabilidad del observador es saber lo que está pasando, para verlo,
escucharlo, tratar de hacer sentido de ello. Esto es más importante que obtener la nota
perfecta o una cita. Mucho de lo que deja es una aproximación que podemos mejorar
más, si tenemos una buena idea lo que pasó.
En la investigación cualitativa, la observación sería una herramienta que aportaría a la
validez (en la entrevista se puede dar el fenómeno de la deseabilidad social, y ese riesgo
disminuye en la observación).
Los sesgos en la observación se pueden evitar por:
a) Triangulación de los distintos puntos de vista de los observadores.
b) Triangulación de métodos (uso de varias técnicas).
Rigor en la observación:
Phillips: la observación suministra una calidad “suculenta”.
La técnica de observación es la menos intrusiva de todas las técnicas (no hay mayor
influencia en los grupos).
Emergencia de la observación: la investigación cualitativa tiene una lógica inductiva (a
partir de las cosas particulares); la observación debería hacer emerger la información.
Combinación de la observación con otras técnicas.
Debilidades de la observación
•Procesos no observables (procesos mentales se infieren)
•Cantidad de tiempo (tienen que producirse en largos periodos de observación y generalmente
está asociado con recursos económicos.
•Específica a un lugar (no se puede generalizar)
•Posibilidad de transferibilidad (no se puede transferir lo que pasa en un lugar a otro)
•Dependencia del observador y sus sesgos
Fortalezas de la observación
•La mayor parte de la observación es no intrusiva lo que la hace propicia para producir
información altamente confiable. Es la menos intrusiva de todas las técnicas de investigación.
•Su emergencia, permite ir conduciendo la investigación y generado preguntas. (construcción de
categorías, libertad de modificar los problemas y preguntas investigadas).
•Combinación con otras técnicas. (generalmente la entrevista).
•Las prácticas son accesibles sólo mediante observación, mientras que las entrevistas hacen
abordables los relatos de las prácticas.
•Es adecuada tanto para descubrir nueva información (generación de teoría) como para validar
conocimiento existente (confirmación de teoría).
Aspectos éticos
Una primera consideración en cualquier estudio de investigación es dirigir la investigación de
una forma ética, haciendo saber a la comunidad que el propósito que uno tiene al observar es
documentar sus actividades. Si bien puede haber casos en que los métodos de investigación
cubierta pueden ser apropiados, estas situaciones son pocas y son sospechosas.
68
Otra responsabilidad ética es preservar el anonimato de los participantes en la escritura final y
en las notas de campo para prevenir su identificación, en caso de que las notas de campo sean
requeridas para inspección.
También señalan que hay una preocupación ética en torno a las relaciones establecidas por el
investigador cuando dirige una observación participante; el investigador necesita desarrollar
relaciones cercanas, y esas relaciones son difíciles de mantener cuando éste retorna a su hogar
en un sitio lejano
•Engaño.
•Observación encubierta, asumir un rol falso podría violar el principio del consentimiento
informado.
•Confidencialidad, tanto protegiendo la identidad de los participantes como rehusando revelar
información sensible recolectada durante el proceso de investigación que pudiera dañar a los
individuos involucrados.
•Deben ser inclusivos, representando realistamente las voces de todos los participantes en un
escenario de investigación. Informantes claves y porteros podrían bloquear el acceso a los
menos poderosos y es preciso encontrar formas de by-pasearlos (buscar otras formas para llegar
a otro informante).
•Usados para investigar conductas desviadas, lo que podría generar el llamado “conocimiento
culpable.
- Paradigmas observacionales:
1) Sociología formal
Porpuesta por George Simmel.
Trabajó con la “estructura relacional”: no hay que fijarse tanto en los contenidos de las
interacciones humanas, como en su forma.
Simmel trabajó con las “formas de asociación” (se refería a las formas de interacción).
Tipos sociales: los tipos sociales que le interesaban a Simmel eran 2:
1) Los definidos por su relación con otros: las relaciones triádicas, diádicas, de
subordinación o superordinación.
2) Marginales: interés por individuos que parecían marginales en la sociedad.
Rol del observador: puede integrar participación y no participación (saliencia total v/s
membrecía completa); importancia del distanciamiento del observador o “posicionamiento”.
Introdujo la acción del vagabundeo.
2) Sociología dramatúrgica
La propone ErvinGoffman.
Perspectiva respecto a que las personas juegan roles en la sociedad.
Las personas, con estos roles presentan su self o identidad (lo que ellos quieren mostrar
que son) “autopresentación del sí mismo”.
Las presentaciones del self son intencionales y no naturales en nosotros.
Metodológicamente, Goffman señala que la observación tiene algunas limitaciones: es
no sistemática (no tiene pautas previas) y es naturalística (tal como está dada). No explicitó
estas dos como fortalezas y debilidades de la observación, sino como parte de sus limitaciones.
Goffman se interesó por mostrar un amplio espectro de las relaciones humanas (“atrapar
al personaje social”). Quería ver todas las partes del rol que el hombre cumple en la sociedad.
Incluyó la observación de los pequeños movimientos a los grandes rasgos (rango de
actos).
3) Estudios en el reino público
Son investigaciones con foco en el orden moral, relaciones interpersonales, etc.
Descripción de las características propias de diversos tipos de individuo.
Es un desarrollo de la teoría de Goffman.
69
Por “reino público”, se entendería “sociedades urbanas y modernas”.
El objetivo de la técnica es obtener datos de grandes grupos de personas en un lugar y
aislar patrones de la conducta grupal.
Investigaciones en el reino público:
1.- Lofland
- Observaciones externas y posterior escritura de sus observaciones.
- Su investigación era individual.
- Señala el elemento del peligro y los límites de la observación (noción de no quebrar los límites
de la observación, no involucrarse o ser impertinente; adscrito a la línea menos participante).
2.- Nash
- Aquí el observador tampoco participa mucho.
- Trabajó con equipos de investigación y vio el problema de los “investigadores novatos”
(involucramiento de prejuicios).
- Destaca la importancia de la “epojé” (poner entre paréntesis).
3.- Humphreys
- Observación rigurosa con pautas de registro sistemáticas.
- Pudo describir formas de funcionamiento y normas de relación entre los individuos extraños, y
diferentes categorías de individuos.
- Su investigación usó una observación participante.
- Puso tensión al menos en dos aspectos: el tema ético y la confidencialidad.
- Auto-observación:
Herramienta de investigación en niveles más íntimos de análisis.
Noción de reciprocidad de perspectiva: el observador puede exponer una situación para
observarse a sí mismo, y eso le ayuda a ver aspectos más íntimos.
Desde el concepto psicológico: se busca lo que le pasa a una persona frente a una
determinada situación; observación de los propios sentimientos; propone ir a las experiencias, ir
a vivir la misma situación que otros y observar cuáles son los sentimientos, y ver qué me
produce lo que veo (ejemplo: ir al lugar donde alguien vivió el terremoto).
- Etnometodología:
Su autor inicial fue Harold Garfinkel.
Parson: los seres humanos vivíamos en una sociedad que estaba construida socialmente,
y ahí se funcionaba.
Garfinkel: efectivamente vivimos en mundos sociales, pero no somos autómatas
sociales. Propone que lo que hacemos es construir persistentemente la sociedad, a través de
pequeñas cosas.
Objetivo de la etnometodología:
1) Cómo se construye la vida social de las personas.
2) Interesa más la estructura de las relaciones en función de normas, relaciones, roles.
3) Interesa la estructura subyacente de la realidad social.
Los etnometodólogos rechazan las entrevistas y prefieren el registro de observaciones lo
más fidedigno posible. Utilizan audio, video y otros, para registrar.
Los etnometodólogos prefieren observar lejos, lo más objetivos posible.
Utilizan el análisis de conversaciones: esto sirve para ver cómo se produce la vida
social. Requiere de observaciones con detalle.
Los detalles y el rigor hacen un buen registro. Si esto es así, las conclusiones son las
mismas que puedan tener otros.
Algunos aspectos éticos:
70
- Investigación encubierta o no.
- Publicación de los resultados.
- Grado de participación.
Muestreo teórico:
Se basa en el método de comparación constante es decir en la conexión que se produce entre los
datos, esto permitiéndole ir hacia una determinada fuente de datos y no hacia otras. No se parte
con muestreo a priori.
Según Strauss es el proceso de recogida de datos para generar teoría por medio del cual el
analista recoge, codifica y analiza sus datos conjuntamente y decide que datos recoger después y
donde encontrarlos, para desarrollar su teoría a medida que surge. Este proceso de recogida de
datos esta controlada por la teoría emergente.
Para seleccionar informantes que puedan entregar información por medio de la entrevista, se
puede utilizar la “técnica de la bola de nieve” la cual consiste en conocer a algunos informantes
que presentarán a nuevos informantes y estos últimos a otros (acceder a los informantes por
redes sociales naturales)
Selecciona nuevos casos a estudiar según su potencial para ayuda a refinar o expandir los
conceptos y teorías ya desarrollados. Lo importante no es el número de casos, sino la
potencialidad de cada uno para ayudar al investigador a desarrollar una mayor comprensión
teórica sobre el área que está estudiando.
Muestreo estratégico:
También llamado pragmático o por conveniencia, apuntan a la posibilidad concreta de llegar a
una muestra con ciertas características que nos interesan, respecto de otras de la posibilidad de
llegar a otras. Muestreo a priori, donde uno se enfoca en cierta manera en determinadas
poblaciones.
Muestreo estratégico o de conveniencia responde a una modalidad de muestreo no
probabilístico, en el que la selección de la muestra responde a criterios subjetivos,
acordes con los objetivos de la investigación. Por lo que comparte las ventajas y los
inconvenientes básicos de cualquier muestreo no probabilístico.
Saturación teórica:
71
A grandes rasgos es cuando la información comienza a ser redundante, no aportando
ningún nuevo punto de vista analítico. Por lo que se decide la conclusión de la recogida de
información.
Para comprobar una hipótesis como una teoría potencialmente robusta, uno se debe detener en
la producción de información cuando como investigar uno es capaz de predecir la información
que se dará a continuación si se siguiera analizando o extrayendo información (es decir se repite
la información). Alcanzar el punto en el que nuevos datos no son iluminadores. Utilizando los
términos de la codificación, la saturación teórica sería el punto en la construcción de la
categoría en el cual ya no emergen propiedades, dimensiones, o relaciones nuevas durante el
análisis.
Cuando una categoría está saturada solo corresponde ir hacia nuevos grupos para
obtener datos sobre otras categorías e intentar saturar también estas nuevas categorías. Cuando
ocurre la saturación, el analista por lo general encontrará que alguna brecha en su teoría,
especialmente en sus categorías mayores, está casi, si no completamente, saturada. Al tratar de
alcanzar la saturación, maximiza las diferencias en sus grupos para maximizar las variedades de
datos contenidos en una categoría; y de esta manera desarrolla tantas propiedades diversas de la
categoría como es posible. Los criterios para determinar la saturación son, entonces, la
combinación de los límites empíricos de los datos, la integración y la densidad de la teoría y la
sensibilidad teórica del analista.
Credibilidad
• Cuánto “crédito” es posible darle a los resultados.
• El grado en que los hallazgos hacen sentido.
• Si lo que se reporta corresponde al fenómeno y no al sesgo del investigador.
Se refiere a cómo los resultados de una investigación son verdaderos para las personas que
fueron estudiadas y para otras personas que han experimentado o estado en contacto con el
fenómeno investigado.
Es importante tener en mente que los informantes son los que conocen su mundo, el cual puede
ser completamente diferente al mundo del investigador. Éste tiene la tarea de captar el mundo
del informante de la mejor manera que él lo pueda conocer, creer o concebir lo cual a menudo
es un reto difícil para el investigador. Captar lo que es “cierto”, “conocido” o la “verdad” para
72
los informantes en los contextos o en la situación social en que viven los informantes requiere
escuchar de manera activa, reflexionar y tener una relación de empatía con el informante.
El criterio de credibilidad se puede alcanzar porque generalmente los investigadores, para
confirmar los hallazgos y revisar algunos datos particulares, vuelven a los informantes durante
la recolección de la información. La experiencia indica que, por lo general, a los informantes les
gusta participar en esa revisión pues ellos quieren reafirmar su participación y desean que los
hallazgos sean lo más creíbles y precisos para ellos. La mayoría de los informantes son capaces
de corregir los errores de interpretación de los hechos y para ello se ocupan de dar más ejemplos
que ayudan a clarificar las interpretaciones del investigador.
Propuestas:
• Chequear con participantes.
• Involucrarse en el campo: contactos extensos, observaciones continuas.
• Triangulación de datos.
• Informe transparente.
• Exposición intermedia a par.
Transferibilidad
• Es el grado en que los sujetos analizados son representativos del universo al cual pueden
extenderse los resultados obtenidos.
• El objetivo es dar al lector la suficiente información para juzgar si los resultados son aplicables
a otros escenarios.
• En cualitativa la transferibilidad es una función de los grupos o sujetos comparados (muestreo
teórico).
Este criterio se refiere a la posibilidad de extender los resultados del estudio a otras
poblaciones.. En la investigación cualitativa la audiencia o el lector del informe son los que
determinan si pueden transferir los hallazgos a un contexto diferente del estudio. Para ello se
necesita que se describa densamente el lugar y las características de las personas donde el
fenómeno fue estudiado. Por tanto, el grado de transferibilidad es una función directa de la
similitud entre los contextos.
Propuestas:
• Muestreo teórico.
• Descripción densa.
• La generación de modelos densos y complejos del objeto de estudio.
• Un modo de conocer el nivel de transferibilidad de un estudio es considerar los resultados de
un estudio como hipótesis de otro estudio próximo semejante
Dependencia
• Se refiere a la exactitud de los reportes del fenómeno. Propuestas:
• Triangulación.
• Realizar auditoria (chequeo de la calidad de las decisiones en la producción de información y
su análisis, por parte de expertos).
La dependencia o consistencia lógica es el grado en que diferentes investigadores que recolecten
datos similares en el campo y efectúen los mismos análisis, generen resultados equivalentes. De
acuerdo a Franklin &Ballau (2005) existen dos clases de dependencia, la interna (Grado en el
cual diversos investigadores, al menos dos, generan temas similares con los mismos datos) y la
externa (Grado en que diversos investigadores generan temas similares en el mismo ambiente y
73
período, pero cada quien recaba sus propios datos). En ambos casos, ese grado no se expresa por
medio de un coeficiente, sólo se verifica la sistematización en la recolección y el análisis
cualitativo (Citado por Hernández, Fernández & Baptista, 2006).
Confirmabilidad
• Captar el mundo del mismo modo que lo haría alguien sin prejuicio ni llevado por intereses
particulares.
La habilidad de otro investigador de seguir la pista o la ruta de lo que el investigador original ha
hecho. Otro investigador examine los datos y pueda llegar a conclusiones iguales o similares a
las del investigador original siempre y cuando tengan perspectivas similares. . Para ello es
necesario un registro y documentación completa de las decisiones e ideas que el investigador
haya tenido en relación con el estudio. Esta estrategia permite que otro investigador examine los
datos y pueda llegar a conclusiones iguales o similares a las del investigador original siempre y
cuando tengan perspectivas similares. (Diario de campo)
Propuestas:
• Juicio de expertos que hagan chequeo sobre calidad de las transcripciones, notas de campo,
memos, calidad de las interpretaciones, etc.
• Triangulación de datos, analistas.
• ¿Están los descubrimientos basados en los datos?
• ¿Las inferencias realizadas son lógicas?
• ¿Las decisiones metodológicas son apropiadas?
• ¿Cuál es el grado de sesgo del investigador y en qué se transparenta? (por ejemplo, no busca
casos negativos, sobreinterpreta).
• ¿Qué estrategias se utilizaron para aumentar la credibilidad?
Cuadro resumen:
En resumen los índices de calidad dignos de confianza se pueden lograr mediante los criterios
anteriores.
Esto Incluye los siguientes aspectos:
• Se explicita el modo de producción de información.
• Se reconocen los propios sesgos del investigador.
• Se documentan las decisiones.
• Se utilizan ejemplos específicos de los datos.
• Se evalúa la garantía de los informantes.
• Se triangula.
• Se va y regresa entre recogida e interpretación de la información.
• Se obtiene retroalimentación de los informantes.
• Se acepta la apertura a posibles cambios.
74
Criterios de calidad según Marshall:
1. El método es explicado en detalle a fin de que el lector pueda juzgar si es adecuado y si hace
sentido (que nada aparezca “por obra de magia”).
2. Los supuestos son explicitados (incluyendo los sesgos personales y teóricos) y se analizan.
3. Se evitan juicios de valor en la recolección y el análisis de información.
4. Existe abundante evidencia proveniente de los “datos brutos”.
5. Las preguntas de investigación son explicitadas y el estudio las responde, y genera preguntas
adicionales.
6. La relación entre el estudio actual y estudios previos es explícita (y se da un paso más).
7. El estudio es reportado de manera accesible para otros investigadores, profesionales y
generadores de políticas.
8. La evidencia se presenta mostrando que el investigador fue tolerante frente a la ambigüedad,
buscó explicaciones alternativas, contrastó con evidencia negativa y usó variedad de métodos
para chequear sus hallazgos.
9. El reporte señala las limitaciones de la generalización mostrando al mismo tiempo a los
lectores la transferibilidad de los hallazgos.
10.Se realizaron observaciones en un amplio rango de actividades y sobre un ciclo completo de
éstas.
11.Los datos están almacenados y se encuentran disponibles para un re-análisis.
12.Se aplicaron métodos para chequear la calidad de los datos (veracidad, conocimiento de los
informantes, etc.)
13.El trabajo de campo está documentado.
14.El estudio se adecua a los estándares éticos (consentimiento informado, por ejemplo).
15.Los participantes se benefician, de algún modo, de la investigación.
16.El investigador tiene un mirada holística.
Para profundizar en el tema; Otros autores que proponen diversos criterios de calidad son:
Whittemore, Chase y Mandle: Desarrollo de términos y definiciones más novedosos de
criterios de calidad tales como: autenticidad, explicitud, creatividad, vivacidad, minuciosidad,
sensibilidad, etc.
Calderón:lleva a cabo un intento de integración flexible y abierto de las propuestas
previamente publicadas, en torno a cuatro criterios principales: adecuación epistemológica y
metodológica, relevancia, validez y reflexividad, y que por considerarlos todavía vigentes
pasamos a exponer brevemente a continuación.
El criterio de adecuación epistemológica y metodológica. Conforme a dicho criterio,
antes de valorar cómo se ha llevado a cabo la obtención de información, el análisis, o la
presentación de los resultados, lo primero que hemos de preguntarnos es qué se pretende
investigar, si la perspectiva cualitativa es la que mejor se corresponde con la pregunta y con los
objetivos de la investigación, y si el diseño y modo de desarrollo de la investigación responde
en su conjunto a dicha metodología. La necesidad de dicha adecuación requiere subrayar la
importancia de la teoría en la investigación, así como un sentido bidireccional en el proceso
evaluativo, de lo global a lo particular y valorando el grado de coherencia entre los presupuestos
teóricos de partida y el conjunto del trabajo de investigación.
El criterio de relevancia depende del grado de abstracción/profundidad a que lleguemos
en la interpretación del fenómeno y también de la minuciosidad en la descripción de las
circunstancias en que se ha realizado el trabajo de investigación.
El criterio de validez responde, en primer lugar, a la preocupación del quehacer
investigador por la fidelidad para con el comportamiento del fenómeno investigado en la
realidad, lo cual requiere el máximo rigor en el diseño, obtención y validación de la
información. Pero a su vez, la validez ha de centrarse en su componente de análisis
interpretativo, lo cual ha sido expuesto en términos de "plausibilidad" o "credibilidad", y que
nosotros hemos denominado como "complicidad interpretativa", con la finalidad de destacar la
75
importancia de que las audiencias puedan sentirse partícipes de dicho proceso de interpretación
creativa llevado a cabo a partir del referente empírico.
Por último, la consideración de la reflexividad representa la autoconsciencia por parte
del investigador respecto de sus propios planteamientos y perspectivas teóricas tanto en el
diseño, como en las relaciones con los participantes y en el desarrollo del conjunto de la
investigación. El no ocultamiento del investigador permite además valorar mejor su impronta o
huella en el resultado final de la investigación y subrayar la necesidad de tener en cuenta los
aspectos éticos como componentes fundamentales de la evaluación no sólo a lo largo del
desarrollo de la investigación sino también en lo que respecta a su justificación y aplicabilidad.
76
Las raíces de la fenomenológica hay que situarlas en la escuela de pensamiento filosófico
creada por Husserl en los primeros años del siglo XX. Según Husserl, la tarea de la filosofía
fenomenológica es constituir a la filosofía como una ciencia rigurosa, de acuerdo al modelo de
las ciencias físico-naturales del siglo XIX, pero diferenciándose de esta por su carácter
puramente contemplativo.
Como diferencia fundamental de la investigación fenomenológica, frente a otras corrientes de
investigación cualitativas, destaca el énfasis sobre lo individual y sobre la experiencia subjetiva:
“la fenomenológica es la investigación sistemática de la subjetividad”.
Para Van Manen, el sentido y las tareas de la investigación fenomenológica se pueden resumir
en los siguientes 8 puntos:
1.- la investigación fenomenológica es el estudio de la experiencia vital. Del mundo de la vida.,
de cotidianidad. Lo cotidiano en sentido fenomenológico, es la experiencia no conceptualizada
o categorizada.
2.- La investigación fenomenológica es la explicación de los fenómenos dados a la conciencia.
Ser conciente implica una transitividad, una intencionalidad. Toda conciencia es conciencia de
algo.
3.- la investigación fenomenológica es el estudio de las esencias. La fenomenológica se
cuestiona por la verdadera naturaleza de los fenómenos. La esencia de un fenómeno es un
universal, un intento sistemático de desvelar las estructuras significativas internas del mundo de
la vida.
4.- La investigación fenomenológica es la descripción de los significados vividos, existenciales.
La fenomenológica procura explicar los significados en los que estamos inmersos en n nuestra
vida cotidiana, y no las relaciones estadísticas a partir de una serie de variables, el predominio
de tales o cuales opiniones sociales, o la frecuencia de algunos comportamientos.
5.- La investigación fenomenológica es el estudio científico humano de los fenómenos. La
fenomenológica puede considerarse ciencia en sentido amplio, es decir, un saber sistemático,
explicito, autocrítico e intersubjetivo.
6.- La investigación fenomenológica es la práctica atenta de las meditaciones. Este estudio del
pensamiento tiene que ser útil e iluminar la practica de la educación de todos los días.
7.- La investigación fenomenológica es la exploración del significado del ser humano. En otras
palabras: que es ser en el mundo, que quiere decir ser hombre, mujer o niño, en el conjunto de
su mundo en la vida, de su entorno socio-cultural.
8.- La investigación fenomenológica es el pensar sobre la experiencia originaria.
En definitiva la fenomenológica busca conocer los significados que los individuos dan a su
experiencia, lo importante es aprehender el proceso de interpretación por el que la gente define
su mundo y actúa en consecuencia. El fenomenólogo intenta ver las cosas desde el punto de
vista de otras personas.
La fenomenológica trata de desvelar que elementos resultan imprescindibles para que un
proceso educativo pueda ser calificado como tal y que relación se establece entre ellos. El
resultado de un estudio fenomenológico es una narración que dibuja un modelo, una descripción
de las invariantes estructurales de un determinado tipo de experiencia.
Al analizar distintas aproximaciones al estudio de las prácticas en la educación permanente, se
presenta al enfoque fenomenológico como el desarrollo de 6 etapas:
1. descripción de fenómeno
2. búsqueda de múltiples perspectivas
3. búsqueda de la esencia y de la estructura
4. constitución de la significación
5. suspensión de enjuiciamiento
77
6. interpretación del fenómeno
La fase de descripción supone partir desde la experiencia concreta y describirla de manera mas
libre y rica posible, sin entrar en clasificaciones o categorizaciones pero trascendiendo lo
meramente superficial. Al reflexionar sobre los acontecimientos, situaciones o fenómenos, se
puede obtener distintas visiones: la del investigador, la de los participantes, la de los agentes
externos, etc. Se trata de obtener toda la información posible desde diversas perspectivas y
fuentes, incluso si estas son contradictorias.
A partir de la fase de reflexión, el investigador intenta captar las estructuras del hecho, actividad
o fenómeno objeto de estudio, y las relaciones entre las estructuras y dentro de las mismas. Es el
momento de encajar las piezas del puzzle, establecer categorías y las relaciones existentes entre
ellas.
Durante la constitución de la significación, el investigador profundiza mas en el examen de la
estructura, centrándose en como se forma la estructura de un fenómeno determinado en la
consciencia.
La quinta fase se caracteriza por la suspensión de los juicios mientras se recoge información y el
investigador se va familiarizando con el fenómeno objeto de estudio. Se trata de distanciarse de
la actividad para contemplarla con libertad, sin las contricciones teóricas o las creencias que
determinan de una manera u otra la forma de percibir.
Por último la fase de interpretación, se trata de sacar a luz los significados ocultos, tratar de
extraer de la reflexión una significación que profundice por debajo de los significados
superficiales y obvios presentados por la información acumulada a lo largo del proceso.
No obstante debemos ser conscientes de la diversidad metodológica que se da en el seno de la
aproximación fenomenológica. Bajo esto se presentan 3 corrientes fundamentales: la
descriptiva, la interpretativa o una combinación de ambas.
Una buena forma de conocer el método fenomenológico es a través del análisis de las
investigaciones que se han realizado con el mismo, sobre todo aquellas que explicitan de
manera clara el proceso metodológico seguido.
ETNOGRAFIA:
La etnografía se entiende como el método de investigación por el que se aprende el modo de
vida de una unidad social concreta. A través de la etnografía se persigue la descripción o
reconstrucción analítica de carácter descriptivo de la cultura, formas de vida y estructura social
del grupo investigado. También bajo el proceso de etnografía, nos referimos al producto del
proceso de investigación como un escrito o retrato del modo de vida de una unidad social.
Una familia, una escuela, una clase, un claustro de profesores, son algunos ejemplos de
unidades sociales educativas que pueden describirse etnográficamente. Desde la unidad de
análisis que se escoja la etnografía clasifica en un conjunto que va desde la macroetnografia,
cuya unidad de análisis es la sociedad compleja, hasta microetnografia, interesada por una
situación social dada.
La preocupación fundamental del etnógrafo es el estudio de la cultura en si misma, es decir,
delimitar en una unidad social particular cuales son los componentes culturales y sus
interrelaciones de modo que sea posible hacer afirmaciones explicitas acerca de ellos. Cuando
hacemos la etnografía de una determinada unidad social, estamos intentando construir un
esquema teórico que recoja y responda lo más fielmente posible a las percepciones, acciones y
normas de juicio de esa unidad social.
Desde una dimensión práctica se conceptualiza la etnografía como una unidad social que se
caracteriza por los siguientes rasgos:
1.- un concreto énfasis en la exploración de la naturaleza de un fenómeno social concreto, antes
que ponerse a comprobar hipótesis sobre el mismo
78
2.- una tendencia a trabajar con datos no estructurados, es decir, datos que no han sido
codificados hasta el punto de recoger datos a partir de un conjunto cerrado de categorías
analíticas.
3.- se investiga un pequeño numero de datos, quizás uno solo, pero en profundidad.
4.- el análisis de datos implica la interpretación de los significados y funciones de las
actuaciones humanas, expresándolo a través de descripciones y explicaciones verbales,
adquiriendo el análisis estadístico de un plano secundario.
Como requisito de una buena etnografía educativa se presenta una primera característica como
es el requerimiento de la “observación directa”. No importa con que instrumento, sistema de
codificación, aparato de registro o técnicas se utilizadas, la primera obligación del etnógrafo es
permanecer donde la acción tiene lugar y de tal forma que su presencia modifique lo menos
posible tal acción.
En segundo lugar el etnógrafo debe pasar el tiempo suficiente en el escenario, aunque no existe
una forma rígida que nos indique el tiempo de permanencia en el escenario. Lo importante aquí
es la validez de la observación etnográfica, que se consigue permaneciendo durante el tiempo
que permita al etnógrafo ver lo que sucede en repetidas ocasiones. Descubrimientos
significativos se pueden conseguir tras dos semanas de observación, pero debemos permanecer
en el campo mientras sigamos aprendiendo: en el momento en que la ocurrencia sucesiva no nos
aporte nada nuevo, podemos alejarnos. No obstante, resulta difícil que tras dos semanas se
realice una etnografía cultural seria. Desde la antropología se considera un periodo razonable el
de un año para llevar a cabo el estudio de un fenómeno o una unidad social compleja.
Como tercera condición de una buena etnografía encontramos la necesidad de contar con un
gran volumen de datos registrados. El papel del observador en este sentido será fundamental,
recogiendo todo tipo de información a través de notas de campo o utilizando los recursos
tecnológicos disponibles en la actualidad. Además el etnógrafo debe ser un buen recopilador de
artefactos, productos, documentos o cualquier otra cosa u objeto que este relacionado con el
objeto de estudio.
Una cuarta condición es el carácter evolutivo del estudio etnográfico. En un principio el
etnógrafo debe introducirse en el campo con un marco de referencia lo suficientemente amplio
que le permita abarcar con una gran amplitud el fenómeno objeto de estudio. Al menos al
comienzo de su trabajo el etnógrafo no debería trabajar con hipótesis específicas, sino con la
mente totalmente abierta, atendiendo de esta forma la mayor cantidad posible de relaciones.
Como quinta condición nos encontramos con la utilización de instrumentos en el proceso de
realizar una etnografía. Los registros de las observaciones y entrevistas son la base del trabajo
etnográfico, pero pueden utilizarse otros instrumentos tales como cuestionarios. En cualquier
caso los instrumentos deben emplearse cuando el investigador conozca realmente lo que es
importante descubrir, y cuando se haya elaborado específicamente un escenario concreto y el
foco de indagación se juzga como significante.
La utilización de la cuantificación cuando sea necesaria se constituye en la secta condición de
una etnografía. La cuantificación no es el punto de inicio, ni el objetivo ultimo. Tanto la
instrumentación como la cuantificación han de entenderse como procedimientos empleados para
reforzar ciertos tipos de datos, interpretaciones o comprobación de hipótesis en distintos grupo.
La siguiente condición se refiere al objetivo de estudio de la etnografía. En este sentido
entienden que es descubrir el conocimiento cultural que la gente guarda en sus mentes, como es
empleado en la interacción social y las consecuencias de su empleo.
Por último, es preciso considerar un holismo selectivo y una contextualización determinada en
la realización de la etnografía educativa. El holismo es un ideal deseable, siempre y cuando lo
reduzcamos operativamente, al entorno inmediato donde se centra nuestra investigación.
En ocasiones se olvida contextualizar el trabajo etnográfico en el tiempo, de tal forma que se
presentan como estudios de lo que sucede aquí y ahora. Los estudios longitudinales corregirán
79
este error. Además de esta serie de condiciones se propone como criterios para una buena
etnografía los siguientes:
1. las observaciones son contextualizadas, tanto en el lugar inmediato en el que la
conducta es observada como en otros contextos relevantes mas alejados.
2. Las hipótesis emergen in situ en la medida en que el estudio se desarrolla en el
escenario seleccionado para la observación. El juicio en torno a lo que es relevante para
estudiar en profundidad se aplaza hasta que la fase de orientación del estudio de campo
haya finalizado.
3. La observación es prolongada y repetitiva. Para llegar a establecer la fiabilidad de las
observaciones es preciso observar en varias ocasiones las cadenas de sucesos.
4. el punto de vista nativo de la realidad se atiende a través de las inferencias realizadas a
partir de las observaciones y por medio de las diferentes formas de indagación
etnográfica (incluyendo la entrevista y otros procedimientos de explicitación); sin
embargo, en la propia etnografía, las localizaciones se realizan a partir de lo que las
voces nativas pueden haber escuchado. Las traducciones culturales se reducen al
mínimo.
5. el conocimiento cultural guardado por los participantes sociales constituye la conducta
y comunicación social apreciables. Por lo tanto, una gran parte de la tarea etnográfica
reside en explicitar ese conocimiento de los informantes participantes.
6. los instrumentos, códigos, esquemas, cuestionarios, agendas de entrevistas, etc.
Deberían generar in situ, como resultado de la observación y la indagación etnográfica.
7. siempre esta presente una perspectiva comparativa, transcultural, aunque con frecuencia
como una Asunción no afirmada. Esto es, la variación cultural a lo largo del tiempo y el
espacio se considera una condición humana natural.
8. parte del conocimiento cultural que afecta la conducta y la comunicaron en cualquier
escenario concreto que se este estudiando es implícito o tácito, no conocido por parte de
algunos participantes y solo conocido ambiguamente por parte de otros
9. debido a que el informante (cualquier persona que se entrevistada es alguien que tiene
el cocimiento cultural nativo, el entrevistador etnográfico no debe predeterminar las
respuestas por los tipos de cuestiones preguntadas. La conducción de la entrevista debe
realizarse de tal forma que se promueva el despliegue del conocimiento cultural en su
forma más natural posible.
10. se utilizara cualquier aparato que permita recoger datos más inmediatos, naturales y
detallados de la conducta, tales como cámaras, grabaciones y videos.
11. la presencia del etnógrafo debería reconocerse y describirse su situación de interacción
personal y social.
TEORIA FUNDAMENTADA:
La presentación de la teoría fundamentada hunde sus raíces en el interaccionismo simbólico, en
donde el investigador intenta determinar que significado simbólico tienen los artefactos, gestos
y palabras para los grupos sociales y como interaccionan unos con otros. Desde esta perspectiva
el investigador espera construir lo que los participantes ven como su realidad social.
El enfoque de la teoría fundamentada es el de descubrir teorías, conceptos, hipótesis y
proposiciones partiendo directamente de los datos y no de supuestos a priori, de otras
investigaciones o de marcos existentes.
80
Al igual que otros métodos cualitativos, en la teoría fundamentada las fuentes de dato son las
entrevistas y las observaciones de campo, así como los documentos de todo tipo y las
grabaciones audiovisuales. Así mismo, puede utilizar cualitativos, cuantitativos o una
combinación de ambos. El investigador cualitativo que hace uso de la teoría fundamentada
asume la responsabilidad de interpretar lo que observa, escucha o lee.
La principal diferencia que existe entre este método y otros cualitativos reside en su énfasis en
la generación de teoría. A través del proceso de teorización el investigador descubre o manipula
categorías abstractas y relaciones entre ellas, utilizando esta teoría para desarrollar o confirmar
explicaciones del como y por que de los fenómenos.
Se diferencias dos tipos de teorías: las sustantivas y las formales. Las primeras se relacionan con
un área sustancial o concreta de investigación por ejemplo, con escuelas, hospitales o consumo
de droga. Las teorías formales se refieren a áreas conceptuales de indagación, tales como los
estigmas, las organizaciones formales, la socialización y la desviación.
Las dos estrategias fundamentales que se proponen para desarrollar la teoría fundamentada son el
método de comparación constante y el muestreo teórico. A través del método de comparación
constante el investigador codifica y analiza los datos de forma simultánea para desarrollar
conceptos. Su aplicación supone una contrastación de categorías, propiedades e hipótesis que
surgen a lo largo del estudio en sucesivos marcos teóricos y contextos. Este procedimiento se
desarrolla en cuatro etapas:
ETAPAS TIPO DE COMPARACIONES
1.- Comparar incidentes aplicables a cada Incidentes-incidentes
categoría.
/categoría/
A través del muestreo teórico el investigador selecciona nuevos caos a estudiar según su
potencial para ayudar a refinar p expandir los conceptos y teorías ya desarrollados. Lo
importante no es le numero de casos, sino la potencialidad de cada uno para ayudar al
investigador a desarrollar una mayor comprensión teórica sobre el área que esta estudiando.
Inducción analítica: Uno tiene que llegar a probar una teoría con los datos que uno
llega a recolectar, así llegar al 100% de los datos disponibles. (Usado anteriormente,
este término va evolucionando hasta la saturación teórica).
Saturación teórica: continuar para comprobar una hipótesis como una teoría
potencialmente robusta, uno se debe detener en la producción de información cuando
como investigar uno es capaz de predecir la información que se dará a continuación si
se siguiera analizando o extrayendo información (es decir se repite la información).
Alcanzar el punto en el que nuevos datos no son iluminadores.
Comparación constante: Corazón de la teoría fundamentada. Procedimiento de
comparación de datos e información constante y paulatina dentro de un mismo
documento primario; y comparando a la vez distintos documentos primarios, y como
todo esto tiene una vinculación de alguna manera con las teorías que se están
construyendo. También es definido como el proceso de sostener una conexión estrecha
81
entre los datos y la conceptualización, es decir, la correspondencia entre conceptos y
teorías con sus indicadores no esta pérdida.
82
-Longitudinal
Correlacional
Explicativo Diferencia de grupos sin atribuir Experimental
causalidad
Intenta encontrar las Causas Cuasi experimental
del problema, por qué sucede
No experimental
Causalidad Experimental
No experimental
Diseño exploratorio:
Los estudios exploratorios se efectúan, normalmente, cuando el objetivo es examinar un
tema o problema de investigación poco estudiado o que no ha sido abordado antes. Es decir,
cuando la revisión de la literatura reveló que únicamente hay guías no investigadas e ideas
vagamente relacionadas con el problema de estudio. Por ejemplo, si alguien desea investigar lo
que opinan los habitantes de alguna ciudad sobre su nuevo alcalde o gobernador y cómo piensa
resolver los problemas de ella, revisa la literatura y se encuentra conque se han hecho muchos
estudios similares pero en otros contextos (otras ciudades del mismo país o del extranjero).
Estos estudios le servirán para ver cómo han abordado la situación de investigación y le
sugerirán preguntas que puede hacer; sin embargo, el alcalde y la ciudadanía son diferentes, la
relación entre ambos es única. Además, los problemas son particulares de esta ciudad. Por lo
tanto, su investigación ser exploratoria -al menos en sus inicios-. De hecho, si comienza a
preguntarle a sus amigos lo que opinan sobre el nuevo alcalde, está comenzando a explorar.
Los estudios exploratorios son como cuando viajamos a un lugar que no conocemos, del
cual no hemos visto ningún documental ni leído algún libro (a pesar de que hemos buscado
información al respecto), sino simplemente alguien nos ha hecho un breve comentario sobre el
lugar. Al llegar no sabemos que atracciones visitar, a que‚ museos ir, en qué‚ lugares se come
sabroso, cómo es la gente; desconocemos mucho del sitio. Lo primero que hacemos es explorar:
preguntar sobre qué‚ hacer y a dónde ir al taxista o al chofer del autobús que nos llevar al hotel
donde nos instalaremos, en la recepción, al camarero del bar del hotel y en fin a cuanta persona
veamos amigable. Desde luego, si no buscamos información del lugar y‚ esta existía (había
varias guías turísticas completas e incluso con indicaciones precisas sobre a que‚ restaurantes,
museos y otros atractivos acudir; que‚ autobuses abordar para ir a un determinado sitio)
podemos perder mucho tiempo y gastar dinero innecesariamente. Por ejemplo, vemos un
espectáculo que nos desagrade y cueste mucho, y perdemos uno que nos hubiera fascinado y
hubiera costado poco (por supuesto, en el caso de la investigación científica la inadecuada
revisión de la literatura tiene consecuencias más negativas que la frustración de gastar en algo
que finalmente nos desagrade).
Los estudios exploratorios nos sirven para aumentar el grado de familiaridad con
fenómenos relativamente desconocidos, obtener información sobre la posibilidad de llevar a
cabo una investigación más completa sobre un contexto particular de la vida real, investigar
problemas del comportamiento humano que consideren cruciales los profesionales de
determinada área, identificar conceptos o variables promisorias, establecer prioridades para
investigaciones posteriores o sugerir afirmaciones (postulados) verificables (Dankhe, 1986).
Esta clase de estudios son comunes en la investigación del comportamiento, sobre todo en
situaciones donde hay poca información.
Los estudios exploratorios en pocas ocasiones constituyen un fin en si mismos, "por lo
general determinan tendencias, identifican relaciones potenciales entre variables y establecen el
`tono' de investigaciones posteriores más rigurosas" (Dankhe, 1986, p. 412). Se caracterizan por
ser más flexibles en su metodología en comparación con los estudios descriptivos o
explicativos, y son más amplios y dispersos que estos otros dos tipos (v.g., buscan observar
83
tantas manifestaciones del fenómeno estudiado como sea posible). Asimismo, implican un
mayor "riesgo" y requieren gran paciencia, serenidad y receptividad por parte del investigador.
Diseño descriptivo:
Muy frecuentemente el propósito del investigador es describir situaciones y eventos.
Esto es, decir cómo es y se manifiesta determinado fenómeno. Los estudios descriptivos buscan
especificar las propiedades importantes de personas, grupos, comunidades o cualquier otro
fenómeno que sea sometido a análisis (Dankhe, 1986). Miden o evalúan diversos aspectos,
dimensiones o componentes del fenómeno o fenómenos a investigar. Desde el punto de vista
científico, describir es medir. Esto es, en un estudio descriptivo se selecciona una serie de
cuestiones y se mide cada una de ellas independientemente, para así -y valga la redundancia--
describir lo que se investiga.
Es necesario hacer notar que los estudios descriptivos miden de manera más bien
independiente los conceptos o variables con los que tienen que ver. Aunque, desde luego,
pueden integrar las mediciones de cada una de dichas variables para decir cómo es y se
manifiesta el fenómeno de interés, su objetivo no es indicar cómo se relacionan las variables
medidas.
Así como los estudios exploratorios se interesan fundamentalmente en descubrir, los
descriptivos se centran en medir con la mayor precisión posible. Como mencionan Selltiz
(1965), en esta clase de estudios el investigador debe ser capaz de definir qué‚ se va a medir y
cómo se va a lograr precisión en esa medición. Asimismo, debe ser capaz de especificar quién o
quiénes tienen que incluirse en la medición. Por ejemplo, si vamos a medir variables en
empresas es necesario indicar que‚ tipos de empresas (industriales, comerciales, de servicios o
combinaciones de las tres clases; giros, tamaños, etc.),
La investigación descriptiva, en comparación con la naturaleza poco estructurada de los
estudios exploratorios, requiere considerable conocimiento de la realidad que se investiga para
formular las preguntas especificas que busca responder (Dankhe, 1986). La descripción puede
ser más o menos profunda, pero en cualquier caso se basa en la medición de uno o más atributos
del fenómeno descrito.
Diseño correlacional:
Los estudios correlaciónales pretenden responder a preguntas de investigación tales
como: ¿conforme transcurre una psicoterapia orientada hacia el paciente, aumenta la autoestima
de éste?;¿a mayor variedad y autonomía en el trabajo corresponde mayor motivación intrínseca
respectó a las tareas laborales?; ¿los niños que dedican cotidianamente más tiempo a ver la
televisión tienen un vocabulario más amplio que los niños que ven diariamente menos
televisión?; ¿los campesinos que adoptan más rápidamente una innovación poseen mayor
inteligencia que los campesinos que la adoptan después?; ¿la lejanía física entre las parejas de
novios está relacionada negativamente con la satisfacción en la relación? Es decir, estos tipos
de estudios tienen como propósito medir el grado de relación que exista entre dos o más
conceptos o variables (en un contexto en particular).
La utilidad y el propósito principal de los estudios correlaciónales son saber cómo se
puede comportar un concepto o variable conociendo el comportamiento de otra u otras variables
relacionadas. Es decir, para intentar predecir el valor aproximado que tendrá un grupo de
individuos en una variable, a partir del valor que tienen en la variable o variables relacionadas.
Un ejemplo tal vez simple, pero que ayuda a comprender el propósito productivo de los estudios
correlaciónales, sería el correlacionar el tiempo dedicado a estudiar para un examen de
estadística con la calificación obtenida en él. En este caso se mide en un grupo de estudiantes
cuánto dedica cada uno de ellos a estudiar para el examen y también se obtienen sus
calificaciones en el examen (mediciones en la otra variable); posteriormente se determina si las
dos variables están o no correlacionadas y, si lo están, de qué‚ manera.
En el caso de que dos variables están correlacionadas, ello significa que una varía
cuando la otra también varía (la correlación puede ser positiva o negativa). Si es positiva quiere
84
decir que sujetos con altos valores en una variable tenderán a mostrar altos valores en la otra
variable. Por ejemplo, quienes estudian más tiempo para el examen de estadística tienden a
obtener una más alta calificación en el examen. Si es negativa, significa que sujetos con altos
valores en una variable tienden a mostrar bajos valores en la otra variable. Por ejemplo, quienes
estudian más tiempo para el examen de estadística tienden a obtener una calificación más baja
en el examen. Si no hay correlación entre las variables, ello nos indica que éstas varían sin
seguir un patrón sistemático entre sí: habrá sujetos que tengan altos valores en una de las dos
variables y bajos en la otra, sujetos que tengan altos valores en una de las variables y valores
medios en la otra, sujetos que tengan altos valores en una variable y altos en la otra, sujetos con
valores bajos en una variable y bajos en la otra, y sujetos con valores medios en las dos
variables. En el ejemplo mencionado, habrá quienes dediquen mucho tiempo a estudiar para el
examen de estadística y obtengan altas calificaciones en él, pero también quienes dediquen
mucho tiempo y obtengan bajas calificaciones, quienes dediquen poco tiempo y saquen buenas
calificaciones, quienes dediquen poco y les vaya mal en el examen. Si dos variables están
correlacionadas y se conoce la correlación, se tienen bases para predecir -con mayor o menor
exactitud- el valor aproximado que tendrá un grupo de personas en una variable, sabiendo
qué‚ valor tienen en la otra variable.
Diseño explicativo:
Los estudios explicativos van más allá de la descripción de conceptos o fenómenos o
del establecimiento de relaciones entre conceptos; están dirigidos u responder a las causas de los
eventos físicos o sociales.
Como su nombre lo indica, su interés se centra en explicar por qué ocurre un fenómeno
y en qué condiciones se da éste, o por qué dos o más variables están relacionadas. Por ejemplo,
dar a conocer las intenciones del electorado es una actividad descriptiva (indicar -según una
encuesta de opinión antes de que se lleve a cabo la elección- cuántas personas "van" a votar por
los candidatos contendientes constituye un estudio descriptivo) y relacionar dichas intenciones
con conceptos como edad y sexo de los votantes, magnitud del esfuerzo propagandístico en los
medios de comunicación colectiva que realizan los partidos a los que pertenecen los candidatos
y los resultados de la elección anterior (estudio correlacional) es diferente de señalar por qué
alguna gente habrá de votar por el candidato 1 y otra por los demás candidatos" (estudio
explicativo).
OJO: IMPORTANTE SABER QUE UNA COSA ES EL DISEÑO DE
INVESTIGACION Y OTRA COSA EL ALCANCE.
PLANTEAMIENTO DEL PROBLEMA
Es resultado de una profunda y serena reflexión realizada por el investigador después
de haber revisado detalladamente la literatura correspondiente (antecedentes teóricos y
empíricos) e interiorizado los principales conceptos y proposiciones teóricas que le permiten
formular con toda claridad y dominio el problema que se pretende resolver con la
investigación.
¿Qué realidad me interesa investigar?
OBJETO DE ESTUDIO
Es consecuencia del planteamiento del problema, delimita aquella parte de la realidad
que interesa estudiar. La precisión del investigador, en este sentido, se demuestra en la redacción
minuciosa y cuidada con la cual formula el objeto de estudio.
¿Qué parte de esa realidad deseo investigar?
PREGUNTAS DE INVESTIGACION
Son las interrogantes básicas que se derivan de la justificación y el problema planteado
y, consecuentemente, pretenden ser resueltas por la investigación.
¿Qué cuestiones me interesan de esa parte de la realidad?
85
OBJETIVOS
Representan las acciones concretas que el investigador llevará a cabo para intentar
responder a las preguntas de investigación y así resolver el problema de investigación. Se puede
notar que todos los subtítulos hasta ahora señalados tienen una consistencia entre sí (coherencia
interna), por ello, los objetivos deben ser concretos, claros, realistas y modestos, en la medida
en que realmente reflejan la contundencia del investigador en su intención de aportar en el
conocimiento del objeto de estudio.
¿Qué debo hacer para desarrollar la investigación?
46b: Investigación en psicología I - Investigación Cuantitativa Pertinencia y adecuación
del método cuanti (modelo univariado, bivariado y multivariado) en función de las
características del problema planteado y su objeto de estudio.
Para recordar:
Además existen pruebas paramétricas que corresponde a trabajar con muestras obtenidas
aleatoriamente, las observaciones distribuyen de forma normal (o cercana a la normal) y existe
un parámetro de interés que deseamos estimar; y pruebas no paramétricas que se utilizan cuando
la variable dependiente no distribuye de manera normal.
Ejemplo: La prueba t de student para muestras independientes se utiliza cuando tengo una
variable dependiente y una variable independiente; si mi variable dependiente distribuye normal
puedo usar esta prueba pero si la variable no distribuye de manera normal se utiliza el análogo a
esta prueba que se denomina U de Mann Whitney. (se adjunta cuadro donde se especifica cuales
pruebas son paramétricas y cuales no paramétricas)
86
Tipos de variables
87
Por ejemplo en correlaciones (R de pearson).
88
Por ejemplo en anova, t de student.
Hipótesis causales: Por ejemplo en las regresiones (simple y múltiple) porque buscan predecir;
“cuanto cambio en x (variable independiente) produce un cambio en y (variable dependiente)”
89
Por lo anterior en las pruebas cuando existe lo siguiente:
p (significancia) <o igual 0,05 = se acepta H1 - existen diferencias
estadísticamente significativas (esto si es el caso tienen que decirlo, son las palabras
fundamentales)
p (significancia) > 0,05= se acepta H0 no existen diferencias estadísticamente
significativas (esto si es el caso tienen que decirlo, son las palabras fundamentales)
Ahora sabiendo todo lo anterior podemos pasar a describir bien de que se trata cada prueba y si
tiene a la base un análisis univariado, bivariado o multivariado.
1) Objetivos descriptivos:
Análisis univariados (se usan para describir a la muestra, en general es estadística descriptiva,
describir la variable; por ejemplo el numero de participantes, lo que mas se repite, cual es la
media, moda, etc . Por ejemplo cuando queremos saber como les fue en la PSU a los niños del
establecimiento X, con este análisis podemos decir “el rendimiento de los alumnos del
establecimiento x fue bajo, o fue de 600 puntos”
2) Hipótesis bivariadas:
-T de Student: prueba paramétrica, permite la comparación de medias de 1 variable categórica
con dos grupos (hombre y mujer por ejemplo). Ve la relación entre las variables categóricas y
una numérica (nivel de estrés por ejemplo). Existen tres formas:
T de student para una muestra (caso especial): Prueba si las medias de la muestra de una
variable difiere significativamente de la media conocida de la población. Acá se tiene
una media poblacional conocida y se comparan con la media de una población
específica. Ejemplo de cuando podemos usar esta prueba:
90
T de student para muestras relacionadas: Mide diferencias de la media estimada de la
población en un mismo grupo, en distintos momentos. Por ejemplo, nivel de estrés en
psicólogos cuando están en baja y alta demanda.
Ejemplo de cuando podemos utilizar esta prueba:
T de student para muestras independientes (es una de las mas utilizadas): Mide si hay
diferencias entre las medias estimadas de la población en muestras que no se relacionan,
ve diferencias en grupos distintos, por ejemplo, medir estrés en hombres y mujeres
91
-Anova de un factor (análisis de la varianza): Prueba paramétrica. Se utiliza en aquellos casos
en que el investigador desea comparar el promedio de tres o más poblaciones, pero desconoce
dicha información. Para 1 variable categórica con 3 o mas grupos (a diferencia de T de
student; aca se puede poner como variable categórica el NSE en alto, medio y bajo; en T
de student tendría que ser solo alto y bajo). Permite evaluar diferencias entre una variable
dependiente (numérica ya sea de intervalo o razon) y una variable independiente o factor
(categórica ya sea nominal y ordinal).
92
NOTA: La variable dependiente es la ansiedad en una escala de tipo NUMERICO y la
variable independiente es los tratamientos divididos en CATEGORIAS y se tienen 4
grupos en este caso.
-Chi cuadrado de Pearson: Prueba no paramétrica para dos variables categóricas. Evalúa si
existe relación entre dos variables categóricas que se evalúa a partir de las frecuencias de las
variables. Ejemplo, relación entre asistencia a preuniversitario y si queda seleccionado en la
carrera a la que postula.
Ejemplo de cuando podemos utilizar esta prueba: **siguiendo el mismo ejemplo que para
la prueba t para muestras independientes.
El mismo investigador hipotetiza que en alumnos universitarios, el trast. Depresivo es mas
frecuente en mujeres que en hombres
Correlación: Mide la relación entre dos variables numéricas, se usa sólo cuando existe una
relación lineal. El valor de r va de 1 a -1, Signo positivo indica relación directa (si una aumenta
93
la otra aumenta) signo negativo indica relación inversa (si una aumenta la otra disminuye), el
valor numérico indica la intensidad de la relación, mientras más cercano a 1 o -1 mayor es la
relación. Se tiene una variable dependiente o y; y una variable independiente o x. (ambas
numéricas). Se ve a través de los gráficos de dispersión (diagrama de dispersión o Scatterplot).
Se mide con R de pearson; también existe el tau b de Kendall para cuando se quiere hacer
correlaciones con variables ordinales. Además existe el Rho de Spearman que también es un
coeficiente para hacer correlaciones; se emplea como alternativa al de Pearson cuando las
variables son categóricas generalmente ordinales o no se cumple el supuesto de normalidad.
IMPORTANTE:
r de 0 a 1= correlación directa (si una variable sube la otra también sube o si una
baja la otra también baja)
r de 0 a -1: correlación inversa (si una variable sube la otra baja o si una variable
baja la otra sube)
r entre 0 y 0.30= relación baja entre las variables
r entre 0,31 y 0,70= relación media entre las variables
r entre 0,71 y 1= relación alta entre las variables
-Regresión lineal simple: Se utiliza para predecir los valores de una variable dependiente o
criterio (y) a partir de una variable independiente o variable predictora (x), esto cuando hay
relación entre las variables. En general lo fundamental es que “cuanto un cambio en x impacta o
predice o explica un cambio en la variable y”. Se busca ver de que manera se relacionan las
variables, deque manera están relacionadas, el impacto. Se usan dos variables numéricas Por
ejemplo, predecir puntajes PSU a partir de las horas de estudio semanales. Se utiliza un grafico
de dispersión. También puede ser una relación directa o inversa. (sigue la misma dirección el
grafico que en las correlaciones cuando es directa
o inversa). Mayor porcentaje sobre el modelo
mayor predicción.La significancia tiene que ser
menor a 0,05 para que el modelo sea
estadísticamente significativo. Esto se ve en un
diagrama de dispersión o Scatterplot.
94
un investigador intenta predecir el rendimiento académico a través de las horas de estudio
y de las horas de sueño.
95
3) Hipótesis multivariadas:
ANOVA Factorial (también análisis de la varianza): Prueba paramétrica que evalúa
diferencias de medias entre dos o más variables categóricas o factores (niveles de factores (Ej.
Género (hombre y mujer) y nivel educacional (básica, media y superior) que actúan como
variables independientes (es decir esta prueba tiene 2 o mas variables independientes que son
categóricas) sobre una variable dependiente que es numérica a través del análisis de la varianza.
Acá cada variable categórica puede tener dos o más grupos y no necesariamente tres como en
Anova de un factor.
Ejemplo:
Factor 1: sexo: hombre y mujer
Factor 2: nivel de ansiedad: bajo, medio y alto.
96
En Anova factorial si se tiene un factor con 3 o mas grupos y este resulto:
ser un efecto principal o
ser parte del efecto de interacción
En ambos casos seria necesario realizar un ANALISIS POST HOC que se utiliza para ver
entre que grupos de ese factor están las diferencias; para esto es necesario realizar lo siguiente
(este análisis también se hace en Anova de un factor ya que si el resultado sale significativo
tenemos que ver entre cuales de los tres grupos se encuentran las diferencias):
1) Realizar la prueba de LEVENE
Cuando un investigador quiere evaluar si existe o no relación entre el sexo (variable categórica:
2 grupos mujer y hombre) y el estado civil (variable categorica: 3 grupos o categorias alto,
medio, bajo) en los niveles de depresión de estudiantes universitarios.
La estadística descriptiva: Conjunto de datos (población o muestra) a los que se les saca
resultados a través de métodos numéricos y tablas.
97
Se diferencia de la estadística inferencial, en que esta última entrega herramientas para
inferir a partir de los resultados que arrojó la muestra de lo que debería ocurrir en la
población.
Cuando el análisis presenta característica por característica, aisladamente, estaremos en
presencia de un análisis estadístico univariado. Ejemplo, cuando decimos que una persona
pesa 95 k. independientemente de cualquier otra característica estaremos en presencia de
análisis univariado.
Los estadísticos básicos que conocemos, como la media, la mediana, la moda, la varianza,
los porcentajes, entre otros, miden una variable. Es decir, fueron hechos univariados.
En esta tabla podemos ver las frecuencias; por ejemplo podemos identificar que la Moda es ser
soltero.
En esta tabla podemos identificar medias, mediana, moda, desviación estándar, etc.
En esta tabla podemos identificar por ejemplo que ningún pasajero tuvo retraso para una
aerolínea x.
98
b) HIPOTESIS BIVARIADAS:
La tabla anterior es una salida de SPSS donde podemos observar el valor de t en la segunda
columna y la significancia en la cuarta columna; en este caso la significancia es ,000
(generalmente antes de la coma no se pone un 0; decir ,000 es lo mismo que decir 0,000) lo
que significa que p es MENOR que 0,05 por lo tanto se aprobaría H1 (hipótesis de
investigación); si la significancia fuera MAYOR que ,05 significa que p es mayor a 0,05 por lo
tanto se rechazaría H1 y se aprueba H0 (que es la hipótesis nula).
NOTA: Existe otro caso que es cuando nos dan el valor de t (t observado; que siempre se
compara en VALOR ABSOLUTO) y no aparece la significancia; por lo tanto uno la tiene que
sacar; esto se hace asi:
1. Sacar los grados de libertad con la formula: G. l = n-1 (grados de libertad es igual al
numero de participantes menos 1)
2. Ver la tabla de valores críticos para t: dependiendo si se realizo contraste unilateral o
bilateral
99
A diferencia del contraste bilateral:
3. En la tabla vemos cuales son los grados de libertad y nos ubicamos en el grado de
significancia que estamos aceptando (generalmente es 0,05 lo que significa que aceptamos un
5% de error) para poder sacar el t critico; entonces por ejemplo si nuestra t tuviera grados de
libertad 2 con un contraste unilateral el t critico seria 2,920.
4. Comparamos nuestro t observado con el t critico y se ve lo siguiente:
Si t observado > t critico se asume que p es < que 0,05 por lo que se aprueba H1 y se
rechaza H0
Si t observado < t critico se asume que p es > que 0,05 por lo que se aprueba H0 y se
rechaza H1
DATO IMPORTANTE: lo anterior explicado también puede suceder en la prueba t para
muestras relacionadas; ya que los grados de libertad se sacan de la misma manera; en la
prueba t para muestras independientes también se puede utilizar esta tabla pero los
grados de libertad se sacan con la siguiente formula: G.l = na + nb -2 (grados de libertad
es igual al numero de participantes de la muestra 1 mas el numero de participantes de la
muestra 2 menos 2).
Ejemplo de un ejercicio y de conclusión:
100
Luego se aplica la formula para t de una muestra (no es necesario saber sacar la formula, solo
interpretar resultados porque lo mas probable es que van a poner la tabla del spss que se puso al
principio de empezar a explicar esta prueba) y el t es = -4,965 y la significancia o valor p= 0,001
Por lo que tenemos que comparar este valor p con el valor de significación especificado
que es el % de error que vamos a aguantar y generalmente es un 5% de error por lo que se
aguanta hasta que p < o igual a 0,05 para aceptar la hipótesis H1.
DATO FREAK E IMPORTANTE: en algunos estudios se acepta solo un 1% de error,
entonces la significación para aceptar h1 debería ser que p tiene que ser < o igual a 0,01 y
en otros estudios se acepta solo el 0,1 % de error y acá la significación para aceptar h1 es
que p tiene que ser < o igual a 0,001. (el investigador lo estipula, pero generalmente es
0,05)
Para someter a evaluación la hipótesis del estudio, se aplicó la prueba t de Student para una
muestra en base a un contraste unilateral. Al comprar la edad de inicio del habla entre los
niños del grupo experimental (M=10 meses; DE=2.34) y los niños de la población (M = 13
meses) se concluye que los primeros tienden a iniciar el habla a una edad significativamente
inferior a estos últimos (t(14)= -4.965; p < 0,001).
Prueba T de student para muestras relacionadas:
Se utiliza cuando queremos comparar dos aplicaciones de una prueba hechas a la misma
muestra en períodos sucesivos o cuando tenemos dos muestras pareadas en las cuales se ha
medido la misma variable numérica. En el primer caso, el objetivo es comparar si hubo cambios
en los puntajes de los sujetos de entre las pruebas, en cambio en el segundo caso, el objetivos es
saber si existen diferencias entre los puntajes de los sujetos pareados. Parear las muestras o
también llamado emparejamiento, consiste seleccionar una muestra y dividirla aleatoriamente
en dos grupos. Es decir, se seleccionan los casos que van a un grupo y al otro de manera
aleatoria.
101
La tabla anterior es una salida de SPSS donde podemos observar el valor de t en la sexta
columna y la significancia en la octava; en este caso la significancia es ,011 (generalmente no
se pone el 0 antes de la coma pero recuerden que va un 0; decir ,011 es lo mismo que decir
0,011) lo que significa que p es MENOR que 0,05 por lo tanto se aprobaría H1 (hipótesis de
investigación); si la significancia fuera MAYOR que ,05 significa que p es mayor a 0,05 por lo
tanto se rechazaría H1 y se aprueba H0 (que es la hipótesis nula).
Ejemplo de t para muestras relacionadas con conclusión:
Se lleva a cabo un estudio para determinar si el nacimiento del primer hijo aumenta la cohesión
en las parejas. Se selecciona una muestra de 10 personas sin hijos, a las que se les pide que
evalúen los niveles de cohesión con su pareja. Luego de un año del nacimiento del primer hijo,
se les vuelve a aplicar la misma escala. Los resultados aparecen a continuación:
102
Alfa es el 5% de error que estamos aceptando y para que sea asi p tiene que ser menor a 0,05.
Ejemplo de esta prueba con la interpretación de las tablas del spss y conclusión:
103
En la tabla anterior es necesario fijarse en 3 cosas:
a) En la columna donde dice prueba de levene para igualdad de varianza porque esta
dependiendo de que valor tenga la significancia nos va a decir si se asumen o no varianzas
iguales y cual de los dos valores de t que aparecen en la columna de al lado es el correcto
para este ejercicio.
La prueba de levene mide lo siguiente y se interpreta de la siguiente manera:
RESUMEN:
Prueba t para una muestra
104
Se utiliza cuando quiero comparar 2 promedios poblacionales, pero solo tengo uno de ellos. El
otro es muestral.
Valor p está dado de forma bilateral. Si tengo un ejercicio unilateral hay que dividirlo por 2.
Prueba t para muestras relacionadas
Se aplica para una misma prueba en el tiempo.
Prueba t para muestras independientes
Queremos comparar 2 poblaciones, pero no tenemos los datos de ninguna de las dos, por lo que
ocupamos los promedios poblacionales para los dos.
Se utiliza cuando tenemos dos muestras en las cuales se ha medido una misma variable
numérica y se desea determinar si dichas muestras provienen de una misma población o de
poblaciones con medias diferentes. Al momento de calcular t, se disponen de dos fórmulas
diferentes, dependiendo de si las varianzas de las dos muestras son iguales o diferentes.
Prueba levene: observo la significancia (p)… si p < 0,05 las varianzas son distintas o no iguales.
Si p ≥ 0,05 las varianzas son iguales o no son distintas.
En este caso observamos primero una tabla de contigencia donde se cruzan las dos
variables categóricas; en este caso el genero (femenino y masculino) y el estado civil
(casado, viudo, divorciado, unión libre, nunca casado).
Luego al lado esta el resultado de la prueba chi cuadrado; en este caso es 24,520 y se anota
= 24,520; y la significancia en este caso es ,000 por lo que p es < que 0,05; asi que se
aceptaría H1 y se rechaza H0.
Otro ejemplo: TABLA DE CONTINGENCIAS
Esta tabla, resulta del cruce de las filas correspondientes a las categorías de la primera variable
(Var1), con las columnas correspondientes a las categorías de la segunda variable (Var2).
105
Tabla de contingencia GENERO * NSE
NSE
bajo Medio alto Total
GENERO masculino 37 57 31 125
Femenino 37 60 19 116
Total 74 117 50 241
Cada celda de la tabla de contingencia contiene el valor correspondiente al número de casos que
presentan las características de la variable 1, categoría i y de la variable 2, categoría j (i y j
significa que puede ser cualquier categoría). Estos valores reciben el nombre de frecuencias
observadas y no incluye a los valores totales ubicados en el extremo derecho e inferior. La suma
de las frecuencias observadas correspondientes a cada categoría son presentadas en los totales y
se llaman totales marginales fila o totales marginales columna.
Ej.: Tabla de contingencia GENERO * NSE
NSE
bajo Medio alto Total Totales marginales filas.
GENERO masculino 37 57 31 125
Femenino 37 60 19 116
Total de casos de la
Total 74 117 50 241
muestra.
Totales marginales
Una vez dispuestos los datos en la tabla de contingencias, se procede a analizarlos a objeto de
determinar si las variables son independientes o por el contrario están relacionadas. El que las
variables sean independientes es equivalente a la H 0 y que estén relacionadas se corresponde con
la H1. Cuando la H0 es correcta (las variables son independientes), entonces se tiene que los
valores que toman las frecuencias observadas en una tabla de contingencias son iguales al
producto de sus respectivos totales marginales filas y columna dividido por el total de la
muestra. Estos números calculados así reciben el nombre de frecuencia esperada (Fe):
Fe= Total fila X Total Columna
Total de la muestra.
Tabla de contingencia GENERO * NSE
NSE
bajo Medio alto Total
GENERO masculino 37 57 31 125
Femenino 37 60 19 116
Total 74 117 50 241
106
por 241. Si así lo hiciéramos con cada una de las casillas obtendríamos otra tabla semejante,
pero que representa a las Fe:
Tabla de contingencia GENERO * NSE
NSE
Bajo medio alto Total
GENERO Masculino Frecuencia
38,4 60,7 25,9 125,0
esperada
Femenino Frecuencia
35,6 56,3 24,1 116,0
esperada
Total Frecuencia
74,0 117,0 50,0 241,0
esperada
Si las frecuencias esperadas (Fe) fueran muy distintas a las frecuencias observadas, esto
indicaría que las variables si se relacionan y, por tanto, H 0 es falsa.
Pero, ¿Cómo sabemos cuándo una diferencia entre las Fe y las Fo es significativa?
Justamente, el estadístico Chi 2 determina si hay diferencias significativas entre las frecuencias
observadas y las frecuencias esperadas según las tablas de contingencia desarrolladas. De esta
forma las hipótesis en este tipo de problemas siempre serán redactadas como:
H1: Fo ≠ Fe
H0: Fo = Fe
Donde Fo=frecuencia observada y Fe=frecuencias esperadas. Es decir, se comparan las Fo con
las Fe. Además, la hipótesis es siempre bilateral.
Mientras más diferencias hay entre ambas frecuencias (Fe y Fo) el valor de Chi 2 tenderá a ser
mayor que 0. De otra forma, si no existen diferencias entre las frecuencias, entonces Chi 2
tenderá a 0.
Una vez que hemos obtenido las Fe y Fo se calcula el valor de Chi 2 a través de la siguiente
fórmula:
Esta fórmula significa, elevar al cuadrado cada cuadrante de la Fo, dividir cada uno de ellos por
sus respectivas Fe, sumarlos todos y finalmente restarle el número total de la muestra.
Por tanto, no basta con saber que existen diferencias entre las frecuencias (Chi 2 ≠ 0), sino que es
necesario saber si estas diferencias son significativas. Para esto es importante revisar el valor p
asociado al valor Chi2 y sus respectivos grados de libertad.
Si p menor a 0,05, entonces hay diferencias significativas entre las frecuencias, lo cual significa
que las variables están relacionadas (se rechaza H0, se aprueba H1). Si p mayor a 0,05, entonces
no hay diferencias significativas entre las frecuencias por lo que las variables son
independientes.
107
En esta prueba, los valores p varían dependiendo de los grados de libertad que son calculados en
base a la siguiente fórmula: gl= (filas-1) x (columnas – 1)
- ANEXO: introducción a Anova de un factor o One way Anova
Supuestos (ambos):
- Distribución normal de la variable dependiente en cada uno de los grupos comparados.
- Homogeneidad de las varianzas entre los grupos comparados (Homocedasticidad).
- Que los datos sean independientes entre sí.
El estadístico utilizado en esta prueba se denomina por la letra F. Este estadístico sigue una
distribución de probabilidad denominada F de Shedecor – Fisher que posee una distribución
asimétrica positiva en el histograma.
Se utiliza en aquellos casos en que el investigador desea comparar el promedio de tres o más
poblaciones, pero desconoce dicha información. Se tiene una variable dependiente (numérica) y
una variable independiente o factor con 3 o mas grupos (categórica).
En términos de hipótesis de investigación, ésta plantea la existencia de diferencias en los
promedios de las distintas poblaciones comparadas.
Hipótesis estadísticas:
H0: μ1 = μ2= μ3
H1: no todos los μi son iguales
Dado que las poblaciones son muy numerosas, se debe proceder a trabajar con muestras de cada
una de ellas. Una vez obtenidas las muestras, se comparan sus promedios para determinar si
existen diferencias estadísticamente significativas.
Los resultados de la aplicación de la prueba ANOVA de un factor, dan origen a dos posibles
conclusiones:
108
- Si se observan diferencias significativas en los promedios de los grupos, se concluirá
que las variables se encuentran relacionadas.
- Por el contrario, si no se observan diferencias significativas en los promedios, se
concluirá que las dos variables son independientes.
Cuando los resultados del ANOVA indican que existen diferencias significativas en los
promedios de los grupos comparados, el paso siguiente será determinar qué grupos son distintos
entre sí.Esto sucede cuando p< o igual a 0,05 (en ambas anovas)
Para ver que grupos son distintos entre si es necesario (en ambas anovas):
1) Realizar la prueba de LEVENE
2) Realizar un análisis POST HOC (existen varios análisis post hoc y para decidir cual es
la prueba que vamos a usar necesitamos hacer la prueba de Levene antes) que me
permitirá ver entre que grupos se encuentran las diferencias
- Si el valor en la prueba de Levene es < o igual a 0,05 se utilizan las pruebas porque se
asume que las varianzas no son iguales o por lo tanto que son distintas:
T3 DUNETT
Games-howell
T2 de Tamhane
C de Dunett
- Si el valor en la prueba de Levene es p> a 0,05 se utilizan las pruebas porque se asume
que las varianzas son iguales o que no son distintas:
HSD TUKEY: Esta prueba determina el mínimo valor entre los promedios para que
la diferencia de los promedios sea significativa.
SIDAK
SHEFFE
BONFERRONI
DUNCAN
109
Acá podemos ver cuales son la media (promedio) y desviación estándar de cada uno de los
niveles de nuestro factor (en este caso el factor es tratamiento)
Acá podemos ver cual es la significancia (valor p) de la Prueba de Levene; en este caso es
0,557 por lo que p es > a 0,05 entonces se asume que las varianzas son iguales por lo que si
nuestro valor F (anova) tiene un valor significativo (p<o igual 0,05); debemos utilizar una
prueba post hoc como la HSD Tukey para ver en que grupos del factor están las
diferencias con relación a la variable dependiente.
110
Acá podemos ver el resultado de nuestra F (Anova) y la significancia; en este caso es 0,000
por lo que p< a 0,05; entonces existen resultados estadísticamente significativos y se
aprueba H1 y se rechaza H0.
En esta tabla y la anterior podemos observar entre que grupos del factor se encuentran las
diferencias; en este caso podemos ver que las personas que se sometieron al tratamiento
cognitivo conductual son las que presentan una mayor disminución de síntomas ansiosos
en comparación a los otros tratamientos.
111
B.4 COEFICIENTE DE CORRELACION PRODUCTO-MOMENTO R DE PEARSON
(correlaciones):
Se creó para analizar las relaciones lineales.
Relaciones lineales:
- Relación lineal directa: la nube de puntos asciende. Personas con bajos ptjes en una
variable tienen bajos puntajes en la segunda variable. Personas con altos puntajes en
una variable, tienen puntajes altos en la segunda variable.
- Relación lineal inversa: La nube de puntos baja. Personas con altos ptjes se asocian con
bajos ptjes en la segunda variable. Personas con bajos ptjes se asocian con altos ptjes en
la segunda variable.
Pd: Generalmente es entre dos variables numéricas (correlaciones bivariadas) pero existe
un tipo que se denomina correlaciones parciales que es la relación entre dos variables
numéricas pero controladas por una tercera que puede ser categórica o numérica ( por
ejemplo correlación entre horas de entrenamiento y rendimiento deportivo controlado
bajo el efecto de suplemento energético, drogas, etc)
Dos propiedades:
1. El tipo de relación (Directa o inversa). Forma de la relación (al mirar el nª del
coeficiente).
2. Permite describir la intensidad o la fuerza de la relación directa y muy fuerte inversa y
moderada inversa y débil.
EL coeficiente de relación producto momento puede variar de -1,0 a +1,0 (la matemática de la
fórmula impide salirse de ese intervalo).
El signo coeficiente R de pearson indica la forma de relación:
- Signo positivo-> Relación directa (altos con altos /bajos con bajos)
- Signo negativo->Relación inversa (bajos con altos/altos con bajos).
Valores de referencia:
r entre 0 y 0.30 o entre 0 y -0.30= relación baja entre las variables
r entre 0,31 y 0,70 o entre -0,31 y -0.70= relación media entre las variables
r entre 0,71 y 1 o entre -0,71 y -1= relación alta entre las variables
S1 S2
S1 Correlación de Pearson
1 ,052
(R)
Sig. (bilateral) ,325
N 356 356
S2 Correlación de Pearson ,052 1
Sig. (bilateral) ,325
N 356 356
112
Correlación entre s1 y s2= 0,052
b) Parcial
Variables de
control S1 S2
S3 S1 Correlación 1,000 ,039
Significación
. ,460
(bilateral)
gl 0 353
S2 Correlación ,039 1,000
Significación
,460 .
(bilateral)
gl 0
353
Suicidio y edad, no hay linealidad clara…se puede aplicar r de person pero puede salir
que las variables no se relacionan.
Suicidio y desesperación es directa. A mayor suicidio mayor desesperanza.
Suicidio y soledad hay curvatura, no se aplica pearson por no linealidad.
Suicidio y eficiencia, son de relación inversa.
113
70
60
Estrés post traumático en Niños
50
40
30
20
10 20 30 40 50 60 70 80
Estrés post traumático en Cuidadores
Este estadístico se emplea cuando se tiene una muestra en la que se han medido dos variables
numéricas distintas y lo que se desea es determinar si existe una relación lineal entre estas
variables.
El coeficiente producto-momento r de Pearson puede variar de –1,0 a +1,0.
Para interpretar el significado de un coeficiente de correlación de Pearson
114
H1: Las personas con mayor apoyo social presentan menor soledad
Paraevaluar la hipótesis de que las personas con mayor apoyo social presentan menor soledad, se
empleó el coeficiente de correlación producto-momento de Pearson en base a un contraste
unilateral.
Los resultados obtenidos permiten apoyar esta hipótesis, r(77) = −.52; p< .001, observándose una
relación lineal inversa, de intensidad fuerte, estadísticamente significativa entre ambas variables.
Dirección:
Puede ser: directa o positiva o lineal inversa o
negativa.
Intensidad (de un gráfico):
- Si se tienen los datos que calzan perfectamente con la línea recta, sería una correlación de 1
(una tendencia lineal perfecta). Si se dispersan un poco, el valor de R ya no será 1.
- Intensidad: intensa mayor a 0.50
- Moderada; mayor a 0,30
- Leve: mayor a 0.10
- Si la relación lineal que se observa es fidedigna en la población (esto entrega el p)
115
Etapas en un análisis de regresión Lineal: (ESTO NO CREO QUE LO PREGUNTEN; ES
PARA PRIFUNDIZAR Y ENTENDER A FONDO EL MODELO)
1) Obtener el modelo lineal.
2) Determinar la capacidad explicativa del modelo de regresión lineal.
3) Evaluar la significación estadística del modelo de regresión lineal.
4) Evaluar la significación estadística de cada uno de los parámetros del modelo de
regresión lineal.
5) Evaluar el cumplimiento de los supuestos de regresión lineal.
Ejemplo:
Queremos ver la relación que se da y como predice el salini (salario inicial) como variable
independiente o predictora el salario (salario actual) como variable dependiente.
116
Esta tabla muestra el modelo (paso 1); luego es necesario determinar la capacidad explicativa
del modelo de regresión lineal (cuan bien predice, paso 2) y esto se ve a través del valor del
coeficiente de correlación múltiple (R) y de su cuadrado (R2)
Este modelo tendría una alta capacidad explicativa (en la vida real) y seria directa alta; por lo
tanto el cambio en el salario actual estaría altamente explicado por el salario inicial “explica
cuanto un cambio en x (salario inicial) explica o predice un cambio en y (salario actual)” por lo
tanto podríamos decir que a mayor salario inicial de las personas esto va a predecir que la
persona tenga un mayor salario actual; o que mientras mas salario inicial tengan las personas
mas se explica que tengan un mas sueldo actual.
Luego tenemos que evaluar la significancia del modelo (tiene que ser significativo, paso 3);
para determinar si el modelo es significativo, se debe aceptar H1. Si se llegase a aceptar H0
quiere decir que los valores son 0, por lo que los valores del predictor no resultan útiles en la
predicción de la variable dependiente a nivel de población.
Para eso se observa la TABLA ANOVA: El valor del estadístico F, con su valor asociado: si p
<0,05 el modelo es significativo y existe regresión lineal entre predictores y variable
dependiente.
Después de esto es necesario evaluar la significación estadística de cada uno de los parámetros
del modelo de regresión lineal (paso 4) lo que se realiza mediante una tabla de coeficientes:
117
b0: Se observa en la fila constante y columna B, es decir, en este caso b0 = 1928,206 para el
modelo y b1: = 1,909. Estos son los valores que deben ser ingresados en la ecuación Y= b0 +
b1X1 + e si queremos predecir nuevos casos una vez estimado el modelo.
Por ultimo (paso 5) es necesario evaluar si se cumplen o no los supuestos de la regresión lineal
simple; estos son:
1. Ausencia de relación no lineal o linealidad: aquí analizamos el grafico de dispersión para
el cual esperamos que no sea curvo.
2. Presencia de Homocedasticidad: Implica que los valores predichos por el modelo deben
tener una variabilidad estable a lo largo de todos los valores que pueda tener la variable
independiente. Se evalúa a través del gráfico de dispersión anteriormente explicado en el
supuesto ausencia de relación no lineal. Si es curvo no sirve. Para cada valor de la variable
independiente la varianza de los residuos es constante. Se utiliza un análisis de los residuos y el
grafico de dispersión. Lo que importa es la distancia y dispersión, y no la posición, ya que
puede ser directa o inversa.
3. Normalidad o distribución normal de los residuos: para ello se observa el Histograma y
se espera que este tenga una distribución normal; Para cada valor de la VI (o la combinación de
éstas), los residuos se distribuyen normalmente con media 0.
4. Independencia u observaciones independientes: Los residuos son independientes entre
sí (no están correlacionados), el residuo de una persona no debería tener relación ni estar
influenciado con el residuo de otros sujetos. Por ejemplo, cuando se estudia a familias o un
curso completo hay dependencia de datos. El grado de dependencia puede medirse con el
coeficiente de correlación intraclase (ICC), si es sobre o igual a 0.10 hay dependencia
importante, por lo que no se cumpliría el supuesto. También puede medirse la dependencia de
los datos con el estadístico Durbin-Watson (DW), ésta prueba sólo se usa si se hizo una
investigación a grupos y se ingresaron los datos del grupo en orden. De esta forma se verá el
parecido. El valor debe estar entre 1 y 3 para que no exista dependencia (Hay autores que
proponen que sea entre 1,5 y 2,5 para asumir independencia). A grandes rasgos es que los
residuos (diferencia entre valores observados y pronosticados) son independientes entre sí.
118
Ejemplo: Se cumpliría el supuesto
porque el valor de Durbin – Watson es mayor que 1; es decir esta entre 1 y 3.
5. Ausencia de casos influyentes: Los casos influyentes son casos que afectan de forma
importante al valor de la ecuación de regresión, no tiene porque ser un problema en sí mismo,
pero hay que ver que no sean valores erróneos.
6. Cuando se obtiene un modelo de regresión lineal se espera que los valores de los
coeficientes del modelo reflejen el efecto de todos los casos analizados. Sin embargo, en
ocasiones alguno de los casos analizados presentan valores en las variables analizadas tan
inusuales respecto del resto de la muestra, que el modelo de regresión obtenido tiende a reflejar
la información de dicho caso atípico. Lo que implica que si se hubiera llevado a cabo el análisis
excluyendo el caso atípico, los valores de los coeficientes del modelo serían muy distintos a los
valores de los coeficientes que se obtuvieron cuando el caso atípico fue incluido en el análisis.
Para evaluar este supuesto se utiliza la Distancia de Cook para cada integrante de la muestra. El
caso sería influyente si la Distancia de Cook es mayor a 1. También se pueden observar los
valores de influencia, si es menor a 0.2 son poco problemáticos, entre 0.2 y 0.5 se consideran
arriesgados y si es mayor a 0.5 debería evitarse. Si hay casos influyentes, se podrían eliminarse
del análisis si entorpecen el juste del modelo (podrían ser casos atípicos que no representen a la
población). Ejemplo:
Ejemplo de conclusión:
Para evaluar el efecto de la variable predictora… sobre la variable criterio … se llevo a cabo un
análisis de regresión lineal simple.
El resultado obtenido corresponde a un coeficiente R 2 =_______(R2adj = _____). En cuanto a la
significación estadística del modelo, el resultado mostro un F(gl trat, gl error)=_______,
p______, lo cual permite sostener que existe una relación lineal estadísticamente significativa
entre el predictor y los puntajes de_______________.
119
El predictor … es estadísticamente significativo en su contribución a la explicación de
los puntajes de la variable ___________________… exhibiendo una relación directa con la
variable ______________(β = , sr2 = ).
c) HIPÓTESIS MULTIVARIADAS
c.1) ANÁLISIS ANOVA FACTORIAL
Es una extensión del ANOVA de un factor, por cuanto ahora se desea determinar si dos o más
factores se relacionan con una única variable numérica (y). Acá cada factor tiene dos o mas
niveles y siempre son categóricos
Y (numérica) X1 (CATEGORICA)
X 2 (CATEGORICA)
Una de las ventajas del ANOVA factorial sobre el de un factor, reside en que el primero permite
evaluar dos tipos de efectos de los factores sobre la variable dependiente.
a) El efecto principal de cada factor por separado.
b) El efecto de interacción entre los factores sobre la variable dependiente.
- Efecto principal. Involucra la comparación de los promedios de los distintos niveles de cada
factor. En un diseño factorial, cada factor tiene asociado su propio efecto principal.
- Efecto de interacción. Evalúa en qué medida las combinaciones provocan distintos resultados
o resultados iguales (si tienen o no tienen efecto). Refleja los efectos asociados con las diversas
combinaciones de los niveles de los factores.
A. Género: 1) Masculino.
2) femenino.
B. Depresión: 1) con depresión.
2) sin depresión.
120
50
40
Media SATISFAC
30
DEPRESIÓ
con
20 sin
MASCULINO FEMENINO
GENERO
Para facilitar la tarea de entender la forma del efecto principal o de interacción resulta útil
analizar el gráfico de los promedios de los grupos que se están comparando. El grafico anterior
muestra un efecto principal.
Reglas generales de interpretación del gráfico:
- Hay efecto de interacción si las líneas dejan de ser paralelas. Si las líneas son paralelas
no hay interacción.
- Hay efecto principal si las líneas se encuentran separadas notoriamente (solo para el
factor ubicado en las líneas.)
- Hay efecto principal si las líneas se encuentran notoriamente inclinadas en la misma
dirección. Este es solo para el factor ubicado en el eje X.
Ahora al analizar el gráfico de arriba podemos encontrar:
a) Efecto principal:
-género (eje X): Hay efecto principal del género puesto que las líneas van hacia una misma
dirección.
-depresión (Ubicado en las líneas): No hay efecto principal de la variable depresión, puesto que
las líneas están muy juntas.
b) Efecto de interacción:
-Género*depresión: No hay efecto de interacción porque las líneas son paralelas.
121
Alto 13,5455 3,84131 33
Total* 14,4343 3,28622 99
Total bajo 12,5294 3,15505 68
medio 12,0794 4,03733 63
Alto** 14,4154 3,20104 65
Total 13,0102 3,60340 196
122
OBSERVAR EFECTO PRINCIPALES (UN EFECTO PRINCIPAL ES DONDE DICE GENERO Y
OTRO EFECTO PRINCIPAL ES DONDE DICE ANSIEDAD) EN LA COLUMNA DE
SIGNIFICANCIA
si p < .05 hay efecto principal de la variable categórica que se está analizando.
Si p ≥ .05 no hay efecto principales.
Esta Tabla, te permite ver cuáles grupos de tu variable categórica (sólo de tres o más niveles)
muestras diferencia significativa (entre ellos) en su relación con la variable numérica.Si tu anova
factorial tiene una variable categórica de dos niveles (ej. género), esta no se observa en esta
tabla de tuckey.
123
Medias marginales estimadas de MATERIAL
16
Se debe buscar comprender la
lógica del efecto de
15 interacción. En este caso,
14
existe un aumento del
materialismo cuando se es
Medias marginales estimadas
OJO: Ahora si es que no hubiera efecto de interacción las conclusiones se redactan así:
124
125
50: Epistemología - Investigación I y II - Cuanti – CualiVentajas y desventajas del
enfoque cualitativo y cuantitativo
Enfoque cuantitativo:
Ventajas: conocimiento replicable, posibilidad de generalización
Desventajas: foco limitado, centrado en los aspectos cuantificables de los fenómenos
Enfoque Cualitativo:
Ventajas: conocimiento de fenómenos poco explorados, centrado en los aspectos subjetivos e
intersubjetivos de los fenómenos, generación de hipótesis emergentes (es decir, de carácter
inductivas)
Investigación Cuantitativa
Ventajas:
1) Uno de los principales objetivos de esta investigación es que se pretende generalizar los
datos de una muestra a una población, esto quiere decir de un grupo pequeño a uno
mayor.
2) Brinda una gran posibilidad de réplica y un enfoque sobre puntos específicos de tales
fenómenos, además de facilitar la comparación entre estudios similares.
Desventajas:
1) El investigador plantea un problema de estudio delimitado y concreto. Las preguntas de
investigación versan sobre cuestiones específicas. Es por esto que en este tipo de
investigación el fenómeno tiene que cumplir con ciertas características que permitan
que sea estudiado y analizado mediante procesos estadísticos. Solo así la investigación
será creíble y aceptada por otros investigadores.
2) Enfoque reduccionista y fragmentado de la realidad, desconocimiento de procesos
subyacentes, simplificación de la realidad.
Investigación Cualitativa.
Ventajas
1) La mayoría de sus estudios no se prueban hipótesis, éstas se generan durante el proceso
y van refinándose conforme se recaban más datos o son un resultado del estudio, por lo
que tiene mayor afinidad con investigaciones exploratorias, siendo factible para el
conocimiento de fenómenos que no han sido explorados totalmente o con una calidad
adecuada, como también permite el estudio de fenómenos particulares (experiencias
únicas).
2) Este tipo de investigación se fundamenta en un proceso inductivo, es decir explora,
describe y luego genera perspectivas teóricas. Parte de lo particular hasta llegar a lo
general. Procede caso por caso, dato por dato, hasta llegar a una perspectiva más
general, lo cual permite generar conclusiones o supuestos contextuados al tiempo y
espacio en el cual se llevó a cabo la investigación.
3) Se centra en variables subjetivas del fenómeno, las cuales varían en su forma y
contenido entre individuos, grupos y culturas, lo cual permite explorar las vivencias
personales y la subjetividad de las personas. Por ello el investigador cualitativo parte de
la premisa de que el mundo social es relativo y sólo puede ser entendido desde el punto
de vista de los actores estudiados.
4) Otra ventaja es la flexibilidad, ya que permite establecer los instrumentos de
recolección y análisis durante el transcurso de la investigación, con la finalidad de
comprender el fenómeno desde su contexto natural y de manera holista.
5) El carácter recursivo permite retroceder a otra frase dentro del proceso investigativo.
126
Desventajas
1. Las indagaciones cualitativas no pretenden generalizar (extrapolar) de manera
probabilística los resultados a poblaciones más amplias ni necesariamente obtener
muestras representativas, ya que está centrada en la profundidad y contextualización
del fenómeno más que en la amplitud.
Cuantitativo Cualitativo
Ofrece la oportunidad de generalizar los -Proporciona profundidad a los datos,
resultados, otorga control sobre los dispersión, riqueza interpretativa,
fenómenos, así como un punto de vista contextualización del ambiente o
de conteo y las magnitudes de éstos. entorno, detalles y experiencias
Brinda gran posibilidad de réplica y un únicas. También aporta un punto de
Ventajas enfoque sobre puntos específicos de vista “fresco, natural y holístico” de
tales fenómenos. Facilita la comparación los fenómenos, así como flexibilidad.
entre estudios similares.
Otros
Existe una visión encontrada entre los más acérrimos defensores de las perspectivas
cuantitativas y cualitativas, sin embargo esta disyuntiva se fundamenta en estereotipos del
enfoque contrario
Actitudes sobre la relación cuali – cuanti:
Supremacía: Una es mejor que la otra
Critica de los cuantitativos a los cualitativos
- incapacidad de generalizar y ampliar sus resultados a un grupo mayor de personas
- Carencia de requisitos mínimos de validez y fiabilidad metodológica.
Critica de los cualitativos a los cuantitativos
- visión positivista ingenua: creer que el conocimiento es reflejo de la realidad y que sus teorías
son universalmente válidas.
- generación de modelos sociales escuálidos, esquemáticos y lejanos a la realidad.
- los modelos estadísticos recientes explican variaciones mínimas de la realidad
- cuantofrenia (Sorokin): La obsesión por transformar cualquier experiencia social y humana en
términos numéricos es “una expresión caricaturizada de la ilusión de creer que la realidad puede
ser comprendida y dominada a condición de poder medirla”
Síntesis: maximización de las fortalezas y minimización de las debilidades a partir de la
combinación de ambos métodos. Bajo esta postura encontramos tres posibilidades:
127
Complementación
- en una misma investigación se utiliza ambos enfoques, pero por separado, para obtener dos
imágenes de diferentes facetas el objeto de estudio
- generar un informe con dos partes separadas, y en algunos casos, una síntesis interpretativa
Combinación
- se utiliza uno de los métodos para perfeccionar la implementación del segundo método.
- Permite compensar sus debilidades incrementando la validez de sus resultados
Triangulación
- se utilizan ambas perspectivas para el estudio de una única dimensión de la realidad,
enfocando el mismo objeto desde diversos enfoques.
- busca el solapamiento de los métodos para reforzar la validez de los mismos.
Contingencia: seleccionar la perspectiva de acuerdo al contexto
Dialéctica: construir nuevos modos de aprehensión de la realidad social a partir de las
diferencias y semejanzas de estos métodos.
Todo vale: Cualquier enfoque – por absurdo que sea - es capaz de generar conocimiento
(Feyerabend)
Microética:
-Consentimiento informado: dar a conocer los objetivos de la investigación, nuestros intereses,
quienes tienen acceso a las entrevistas, qué se va a registrar. Puede retirarse de la entrevista en
cualquier momento, es confidencial, los resultados se envían.
-Confidencialidad: Los datos confidenciales del entrevistado no pueden llegar a ser conocidos.
-Consecuencias: Considerar el beneficio o daño que puede causar la entrevista. Algunas pueden
gatillar algún evento traumático.
-Integridad de la entrevista: la experiencia del investigador determina qué información entrega y
qué no. La honestidad también es importante.
Macroética:
128
Tiene que ver con los resultados, ¿Para quiénes son útiles?¿A quienes les beneficia la
información?, es decir, cómo las entrevistas tienen repercusión en la sociedad, en algunos casos
pueden llegar a ocasionar efectos negativos. También puede dar que se rompan ciertas éticas con
el fin de dar beneficio a la sociedad.
Consentimiento informado:
La finalidad del consentimiento informado es asegurar que los individuos participen en la
investigación propuesta sólo cuando ésta sea compatible con sus valores, intereses y
preferencias; y que lo hacen por propia voluntad con el conocimiento suficiente para decidir con
responsabilidad sobre sí mismos. Los requisitos específicos del consentimiento informado
incluyen la provisión de información sobre la finalidad, los riesgos, los beneficios y las
alternativas a la investigación –y en la investigación–, la comprensión del sujeto de esta
información y de su propia situación, y la toma de una decisión libre, no forzada sobre si es
conveniente participar o no. El consentimiento informado se justifica por la necesidad del
respeto a las personas y a sus decisiones autónomas. Cada persona tiene un valor intrínseco
debido a su capacidad de elegir, modificar y proseguir su propio plan de vida. Es necesario
buscar alternativas confiables para garantizar que las personas aceptan la participación en la
investigación con todas las condiciones mencionadas. La presencia de testigos idóneos y el uso
de grabaciones son medidas que pueden complementar –o sustituir en ciertos casos– al
consentimiento firmado por escrito. La aceptación o no de estos recursos debe ser decidida por
los sujetos.
Derecho a la privacidad del entrevistador. Esto implica que si la persona no quiere hablar de
algo, no se debe insistir
Proteger de cualquier daño a los entrevistados
Si la entrevista va a ser abierta o no (grabadora de bolsillo)
Grado de involucramiento del entrevistador en este estudio
El consentimiento informado corresponde a la carta que el entrevistado debe firmar en donde
se explica todo lo relacionado a la investigación. No se trata únicamente de una invitación a
participar, sino una descripción de lo que sucederá durante el curso de la investigación. Esta
debe contener al menos:
- El propósito de la investigación.
- La identidad y la filiación del investigador.
- Lo que está haciendo el investigador.
- Cuánto tiempo durará la investigación.
- El derecho del sujeto a poder retirarse de la investigación en cualquier momento y
por cualquier razón, entre otros.
129
Consentimiento informado en el caso de niños
Cuando el niño es demasiado joven queda a juicio de los padres decidir si permitirán
participar a su hijo o no.
Al niño se le entrega un Asentimiento informado, donde también se le explica lo que
implica la investigación y cual es su papel en ella. De igual manera de le pide su
participación, en ningún caso se le obliga.
130
Confidencialidad
Con el fin de salvaguardar los derechos de los informantes y a veces la integridad de los
investigadores, es necesario en el proceso de registro de información utilizar seudónimos
“limpiar” la información de aquellos datos (nombre, lugares, fechas) que permitan la
identificación del informante o de personas a las que el se refiere y utilizar códigos que
permitan los cruces y análisis de la información. Igualmente, en algunos casos es recomendable
guardar la información por un tiempo prudencial hasta que se considere que su utilización no
vulnere la integridad física o moral de los participantes. Esta recomendación es especialmente
significativa en el caso de informantes estigmatizados y vulnerados, como menores en conflicto
con la ley, niños y adolescentes envueltos en explotación sexual, migrantes ilegales,
desplazados, retardados o débiles mentales, personas bajo el efecto de las drogas o el alcohol.
Confidencialidad: se refiere a mantener información de las personas que participan de la
investigación en privado. Solo el equipo de investigación debe tener acceso a los documentos de
investigación
El anonimato significa que los registros no pueden vincularse con nombres.
La confidencialidad se mantiene cuando cualquier cosa que se averigüé acerca del
participante se mantiene en estricto secreto, es por eso que los datos deben mantenerse en una
situación controlada.
La mejor manera de mantener la confidencialidad es minimizar el número de personas que ven
o manejan los datos
Mantenimiento de la intimidad
Ser anónimo dentro de un contexto de investigación implica que no hay manera de que
nadie, con excepción del investigador principal pueda vincular los resultados de un
experimento con el individuo asociado a tales resultados.
Coacción
Nunca, por ningún motivo debe obligarse a la gente a participar.
Compartir resultados
Es importante presentar los descubrimientos nuevos al público tan pronto como resulte
práctico y posible.
Una vez finalizada la investigación y redactado el informe final, se debe estar dispuesto
a compartir los hallazgos con otros. (personas que participaron en la inve.)
Comunicación
Cuando se ha engañado en la investigación, es obligación informar a los sujetos que se
les ha engañado hasta cierto punto para fines de la investigación.
131
2. Si el tratamiento es perjudicial, no se de por vencido. Trate de encontrar una población
que ya haya sido expuesta a los efectos dañinos de alguna variable.
3. Siempre obtener el consentimiento informado.
4. Publicar los informes usando datos de grupos, no individuos. Esto mantiene la
confidencialidad.
5. Si sospecha que el tratamiento podría tener efectos secundarios negativos, utilice una
muestra pequeña y buen informada hasta que pueda expandir el tamaño de la muestra.
6. Haga que colegas revisen la propuesta y procedimientos experimentales antes de
comenzar.
7. Usar la “junta de revisión institucional” es un comité donde el juicio de varios personas
decide si la investigación es inocua o no.
8. Papel de las organizaciones profesionales : APA.
132
Integridad del investigador
133
La rigurosidad científica es un importante ‘deber ser’ para un evaluador/investigador.
Esto quiere decir, que los investigadores deben procurar efectuar sus estudios con la seriedad y
sistematicidad que contribuye a asegurar su adecuado desarrollo y su pertinente respaldo ante
los resultados.
Podríamos decir que los principios para el evaluador/investigador son como los criterios de
rigor científico para el investigador, pero van un poco más allá de la rigurosidad en las
metodologías empleadas. En estos principios no solo se reconoce la debida solidez científica
que debe poseer un evaluador/investigador, sino que también se destacan valores tales como la
honestidad, integridad, respeto y responsabilidad frente al acto de evaluar.
Ninguno de estos principios tiene supremacía sobre el otro, por el contrario, su integración e
interrelación contribuyen a marcar el componente ético de la evaluación. En el siguiente cuadro
se representa la integración e interrelación de estos principios y luego se presenta su descripción
con más detalles.
En estos principios no solo se reconoce la debida solidez científica que debe poseer un
evaluador/investigador, sino que también se destacan valores tales como la honestidad, integridad,
respeto y responsabilidad frente al acto de evaluar.
134
a) Principio de sistematicidad en la investigación: este principio indica que el evaluador/
investigador debería adherir a los más exigentes estándares metodológicos en la conducción
de su estudio, sean estas metodologías de naturaleza cuantitativa o cualtitativa, con el fin de
incrementar la precisión y credibilidad de la información producida por la evaluación. En la
búsqueda de esta sistematicidad, el evaluador/investigador debería explorar con las personas
que requieren el estudio, cuáles son las fortalezas y debilidades de las interrogantes que se
pretenden resolver, de tal manera de orientar adecuadamente el estudio para responder a
dichas interrogantes.
b) Principio de las competencias para desempeñarse como evaluador/investigador: el
evaluador/investigador debería poseer las habilidades, destrezas y experiencia necesaria
para conducir las tareas propias de una evaluación. No es suficiente con conocer del tema,
se requiere experiencia y perfeccionamiento constante. Si por algún motivo el
evaluador/investigador reconoce que no posee alguna de las competencias requeridas para
el desarrollo del estudio, debe declinar su participación en favor de su prestigio y de la
credibilidad del estudio.
c) Principio de la integridad y honestidad a mantener frente a los estudios: el evaluador/
investigador debería ser honesto frente a las negociaciones que debe considerar respecto a
los costos del estudio, las limitaciones de la metodología a emplear y las restricciones de los
resultados para ser repetidos o aplicados a otros participantes distintos al contexto donde se
realizó el estudio. El evaluador/investigador también debería ser honesto frente a los
cambios que son necesarios realizar para refocalizar la investigación, cuando éste se da
cuenta que se ha perdido el rumbo.
d) Principio de respeto a las personas: este principio indica que el evaluador/investigador
debería respetar a las personas que participan de la investigación en su amplio sentido,
cautelando la confidencialidad de su participación, el debido consentimiento a participar y
evitando daños y perjuicios morales producto de esta participación.
De esta forma, el evaluador/investigador debería conducir su estudio y comunicar sus
resultados, respetando la dignidad y valor intrínseco que tienen las personas, más allá de
buscar obsesivamente un resultado que tienda a beneficiar sus personales intereses.
Lo anterior también implica respetar las naturales diferencias entre los participantes, tales
como la cultura, la religión, sexo, discapacidades, edad, entre otras cosas más.
135
e) Principio de responsabilidad ante el bienestar general y público: el
evaluador/investigador debería ser responsable frente a los potenciales efectos colaterales
que puede tener su estudio. Efectos que pueden dañar negativamente a ciudadanos que no
han participado directamente del estudio, pero que forman parte de una población que
cumple con ciertas características que los estigmatiza a la luz pública. Este principio invita a
los evaluadores e investigadores a manejarse con una amplia perspectiva valórica al
momento de comunicar los resultados del estudio. Por otra parte, la responsabilidad ante el
bien común se expresa dando a conocer resultados que pueden beneficiar a más de un
cliente o audiencia. Para ello, la comunicación de los resultados debe informarse en un
lenguaje simple, de tal manera que otras personas puedan verse beneficiadas con los
hallazgos del estudio, inclusive cuando no forman parte de grupos de especialistas
calificados para comprender estos estudios.
CUANTI:
CUALI:
IMPORTANTE: Ver el objetivo para definir que diseño esta a la base o que diseño es
mejor utilizar.
136
Una cosa es el diseño de investigación y otra es el alcance; por ejemplo en el caso de
Maternidad (señalado mas abajo) que es de Teoría Fundamentada el alcance es
relacional o comprensivo.
EJEMPLO TEORIA FUNDAMENTADA:
MATERNIDAD: “Este trabajo tuvo como finalidad elaborar una propuesta de lineamientos para
una psicoterapia dirigida a pacientes sujetas a tratamientos de reproducción asistida en
instituciones de salud pública, a partir de los datos emanados de una investigación realizada en
mujeres entre 25 a 40 años de edad que permitió detectar los factores psicosociales relevantes
que influyen en su deseo de maternidad, en el contexto social y cultural donde habitan. El
estudio se desarrolló con mujeres diagnosticadas de esterilidad primaria, que asisten al Servicio
de Reproducción Humana del Servicio de Ginecología del Centro Médico Nacional «20 de
Noviembre» para su tratamiento, a partir del análisis sistemático, comparativo y profundo de los
discursos de éstas. En el estudio se detectaron diversos factores que influyen en la decisión del
grupo seleccionado de someterse reiterada e insistentemente a tratamientos de reproducción
asistida. Entre ellos se encuentran, de manera central: el imaginario social de género, las fallas
en la estructura narcisista de la personalidad y el hijo imaginario. A partir de este estudio, de las
observaciones preliminares y el aporte de otros especialistas, los autores proponen lineamientos
conceptuales para llevar a cabo una psicoterapia focalizada en la paciente estéril que presenta
una insistencia a someterse a tratamientos de reproducción asistida.”
137
entre la esfera sagrada y la esfera profana, respecto de los cuales los rituales permitirían tanto
segregar estas dos esferas como posibilitar el pasaje entre una y otra”
Ejemplos:
1. Una encuesta poblacional en Santiago de Chile evaluó a 1.056 personas de toda edad respecto
de la frecuencia de enfermedades respiratorias. De cada hogar se tomó a todas las personas > de
15 años.
¿Cuál es la más probable Unidad de muestreo en este estudio? Respuesta: Hogares de
Santiago de Chile
1) La población (en contexto) son las mujeres que asisten a tratamientos de reproducción
asistida en la salud publica de Chile
2) La muestra (especifica, características de participante especifico) es las mujeres con
esterilidad primaria que asisten al centro xxxx a tratamiento de reproducción asistida
PD: lo anterior cambia dependiendo de cual es el problema de investigación, la finalidad del estudio
y los objetivos. Las unidades de análisis pueden corresponder a las siguientes categorías o
entidades: personas, grupos humanos, poblaciones completas, etc. Por ejemplo en investigación
cuando es la relación profesor-alumno lo que se quiere investigar esa relación seria la unidad de
análisis (seria la diada de la relación).
OJO (DATO FREAK): En estudios de caso y en estudios de población no hay muestreo; por
ejemplo “conocer como perciben el liderazgo los trabajadores de una consultora y sabemos que
son 30” o estudiar el Liderazgo en Hitler, liderazgo en Piñera (son estudios de caso, biográfico)
Por tanto no es que siempre un investigación sea de cierto alcance, depende de lo que cada
investigación se propone, pero en general las investigaciones etnográficas y fenomenológicas son de
alcance descriptivo, y las de teorías fundamentada tienen un alcance relacional o comprensivo
(lo que sería un ximili de investigación correlacional y explicativa respectivamente en investigación
cuantativa).
Metodología es otra cosa, refiere a la reflexión acerca de qué características debería tener el método
de una investigación para determinados problemas de investigación; y el método a la descripción de
138
distintos elementos que marcan la ruta de cómo se desarrollará la investigación, incluyen el diseño
de la investigación, el diseño muestra, las técnicas de recolección de datos, entre otras.
139