Академический Документы
Профессиональный Документы
Культура Документы
FACULTAD DE POSTGRADOS Y
RELACIONES INTERNACIONALES
MAESTRIA EN PEDAGOGÍA
2. Enunciar las características, los procesos y las técnicas que utilizan las diferentes
metodologías y métodos de investigación educativa.
TOTAL 34 64
HOJAS DE TRABAJO 1 y 2
1. Definición
2. Características
3. Ejemplos
4. Proceso de elaboración
5. Evaluación
6. Recomendaciones complementarias
7. Bibliografía
II. CONCEPCIONES DE METODOLOGÍA, MÉTODO Y LA DIVERSIDAD
METODOLÓGICA EN INVESTIGACIÓN EDUCATIVA1
Una dimensión importante del proceso de investigación es la metodología que hay que
utilizar, que consiste en la manera de llevar a cabo la investigación o modo de enfocar
los problemas y buscar las respuestas; en este sentido la metodología se interesa más por
el proceso que por los resultados.
1
Latorre, A., Del Rincón y D., Arnal, J. Bases Metodológicas de la investigación educativa. Ediciones
Experiencia. 2005
métodos, señalar sus límites y alcance, y sobre todo clarificar y valorar
críticamente sus principios, procedimientos y estrategias relativas a su
adecuación para la investigación (Asti Vera, 1972,22).
c) Como “proceso de investigación”. La metodología es considerada también como
un conjunto de operaciones conscientes, más o menos sistemáticas (fases o
etapas), que se inscriben en el tiempo y cuyo rol consiste en lograr los objetivos
fijados (Goyette, 1984).
El sentido que damos aquí al término metodología tiene un carácter general, se refiere a
la manera de realizar la investigación, y más concretamente a los supuestos y principios
que la rigen.
Para la mayoría de los autores tiene el sentido de procedimiento o camino para conseguir
un fin. Sirve de instrumento para alcanzar los fines de la investigación; su carácter
regular, explícito, repetible, racional, ordenado y objetivo para lograr algo, establece el
camino que la investigación ha de seguir para alcanzar su fin (Asti Vera, 1972; Bunge,
1980; Sierra Bravo, 1984).
Técnica. El término técnica deriva etimológicamente del griego tejné. Inicialmente tuvo
dos sentidos: como arte práctico y como forma de actuación que se contraponía a
episteme: la ciencia, en cuanto ésta es conocimiento o saber teórico y como tal no
inmediatamente práctico. En la actualidad, el sentido de técnica ha quedado reservado a
los procedimientos de actuación concretos y particulares, asociados a las distintas fases
del método científico (Sierra Bravo, 1983,26).
Ander-Egg (1980, 32) matiza que el método es el camino, y las técnicas el arte o modo
de recorrerlo. Los métodos tienen un carácter más global, abarcan varias técnicas, éstas
son de carácter más práctico y operativo. Se necesitan, pues, procedimientos que hagan
efectivos los métodos y esto lo hacen las técnicas. Su diferencia con el método es más de
extensión que de naturaleza.
La naturaleza del problema de investigación y las preguntas relacionadas con él son los
aspectos que condicionan la elección de la metodología. Existe acuerdo general en que
el pluralismo metodológico es, de hecho, de importancia vital para el estudio apropiado
de una cuestión de investigación. Ninguna metodología aportará por sí sola respuestas a
todas las preguntas que pueden hacerse en el contexto educativo. Si queremos saber el
número de palabras que leen los niños de primero de EP, nos será de utilidad la
metodología empírica; por el contrario, si queremos conocer qué significan los
currículos para los alumnos universitarios, sin duda recurriremos a la metodología
interpretativa.
Ha sido la perspectiva que ha predominado en las ciencias sociales hasta la década de los
setenta, dictando los principios y criterios por los que la investigación educativa se ha
regido; ha decidido y legitimado cuál es el conocimiento “verdadero”, ha establecido los
filtros a través de los que se legitiman los criterios de validez y fiabilidad de una
investigación.
La “evidencia empírica” supone que la investigación debe estar guiada por la evidencia
obtenida directa o indirectamente de la observación. Se constituye en el criterio de
contraste o falsación de hipótesis y enunciados científicos. La evidencia empírica
sustituye a las fuentes de autoridad, sentido común o razonamiento especulativo.
Los párrafos siguientes son un resumen de los principales rasgos que definirían la
naturaleza de la metodología estrictamente empírico-analítica.
Los investigadores que se inclinan por este enfoque perciben la esfera educativa mucho
más flexible y personal, creada por los propios sujetos. La realidad sólo puede estudiarse
recurriendo a los puntos de vista de los sujetos implicados en las situaciones educativas.
En contraposición al observador externo, objetivo e independiente, ahora, la realidad
educativa puede ser analizada con más propiedad por el investigador que comparte el
mismo marco de referencia que las personas investigadas. La comprensión y valoración
de las interpretaciones del individuo de la realidad y de las situaciones educativas en las
que se halla implicado han de venir del propio sujeto, no del exterior.
Para esta perspectiva, el proceso educativo tienen un carácter subjetivo y por ello es
necesaria la experiencia directa de las personas en contextos educativos específi cos. Las
personas se mueven por sus creencias e interpretaciones del medio (Jorgensen, 1989). Se
estudian aspectos de la educación como la motivación, intenciones, acciones y
significados, difícilmente observables y cuantificables.
Este enfoque se interesa por los significados e intenciones de las acciones humanas. Se
centra en las personas y analiza las interpretaciones que hace del mundo que le rodea y
de su relación con él (Denzin, 1989). Su objetivo es lograr imágenes multifacéticas del
fenómeno que hay que estudiar tal como se manifiesta en las distintas situaciones
educativas y contextos implicados. Desde esta perspectiva se contempla el mundo
subjetivo de la experiencia humana. El investigador intenta penetrar en el interior de la
persona y entenderla «desde dentro» (Marshall y Roosman, 1989).
En los párrafos siguientes se resumen los principales rasgos que definen la naturaleza de
la metodología interpretativa.
Suele descuidar la fiabilidad, haciendo más hincapié en la validez. Los datos suelen
carecer de consistencia por falta de técnicas de replicabilidad. La debilidad de los datos
es algo inherente a la metodología interpretativa.
II.3.1 INTRODUCCION
2
Campos Arenas Agustín. Métodos Mixtos de Investigación. Editorial magisterio. 2009
la investigación la que determina la necesidad de la combinación de los métodos, más
allá de posturas filosóficas. Conlleva una visión ecléctica y pragmática del mundo.
Definición
Una definición más formal señala que los estudios de método mixto son "aquellos que
combinan los enfoques cualitativo y cuantitativo en la metodología de un solo estudio o
en un estudio de multifaces" (Tashakkori y Teddlie, 2003, p. 352). La siguiente cita
precisa la naturaleza de la combinación para responder apropiadamente las preguntas de
la investigación: "Los métodos deben combinarse de tal manera que se complementen
las fortalezas de los dos métodos y no se sobrepongan sus debilidades" (Johnson y
Turner. En Tashakkori y Teddlie, 2003, p. 352).
A manera de resumen y tratando de juntar el sentido dado por diferentes autores y las
investigaciones prácticas realizadas, Creswell (2003) propone la siguiente definición:
"Un estudio de método mixto incluye la recolección y análisis de datos tanto cualitativos
como cuantitativos en un solo estudio en el cual los datos se recogen concurrente o
secuencialmente, se dan según cierta prioridad o dominancia, incluye, asimismo, la
integración de los datos en una o más etapas del proceso de investigación" (p. 212). De
esta manera, se obtiene una mejor comprensión del problema.
- Mejor comprensión.
Denominación
Este enfoque ha recibido, por parte de diferentes autores, diversos nombres a lo largo de
su desarrollo. Creswell y otros (2003) mencionan las siguientes denominaciones:
investigación multimétodo-multirasgo (Campbell y Fiske, 1959; Huntery Brewer, 2003;
Morse, 2003), métodos múltiples (Smith, 2008), análisis etnográfico residual (Fry,
Chantavanich y Chantavanich, 1981), integración de enfoques cualitativo y cuantitativo
(Glik, Parker, Muligande y Hategikamana, 1986-1987; Steckler, McLeroy, Goodman,
Bird y McCormick, 1992), interrelación de datos cualitativos y cuantitativos (Fielding y
Fieldiny, 1986), triangulación metodológica Morse, 1991), estudios triangulados
(Sandelowski, 2003), investigación multimetodologica (Hugentobler, Israel y
Schurman, 1992), diseños multimetodo y relación de datos cualitativos y cuantitativos
(Bryman, 1988; Creswell, 1994; Swanson-Kauffman, 1986), estudios de modelo mixto
(Datta, 1994), e investigación de método mixto (Caracelli y Greene, 1993; Greene y
otros, 1989; Rossman y Wilson, 1991). Johnson, Onwuegbuzie y Turner (2007)
mencionan otras denominaciones que se le asignan a este tipo de investigación:
investigación combinada (Thomas, 2003), investigación integrativa (Johnson y
Onwuegbuzie, 2004), investigación mixta (Johnson, 2006; Johnson y Christensen,
2004). Sostienen que estas dos últimas propuestas de denominación son amplias y no se
limitan a explicitar la combinación de métodos; sino que, deja la posibilidad de otras
combinaciones.
Se afirma que el nombre de Métodos Mixtos es el más apropiado, por cuanto implica la
idea central de combinar e integrar, relacionar diferentes métodos.
El término "método" tiene una acepción amplía. Según Greene (2006), el término es
entendido como "metodología", la que se aplica en diferentes instancias: métodos de
recolección de datos (cuestionarios, entrevistas, observaciones, pruebas estandarizadas,
etc.), métodos de investigación (experimentos, etnografías, descriptivos, etc.) y asuntos
filosóficos relacionados con la investigación (ontología, epistemología, axiología, etc.).
Trabajos pioneros son los de John Brewer, (1988), quien publicó en Estados Unidos la
obra M ul t i me t hod Re s e ar c h: a Sy nt he s i s of St y i e s , en Inglaterra el de Alan
Bryman, Quant i t y and Qual i t y i n Soc i al Re s e ar c h, en el mismo año y el de
Jennifer Greene (1989) con su artículo Re s e ar c h De s i gn: Qual i t at i v e y
Quant i t at i v e Appr oac he s .
Uno de los pioneros en este esfuerzo es, sin duda, John W. Creswell, profesor de la
Universidad de Nebraska. En 1994, publica Re s e ar c h De s i g n: Qual i t at i v e and
Quant i t at i v e Appr oac he s (Thousand Oaks, CA: Sage). En esta obra el autor
presenta los primeros intentos de conciliar y complementar los dos métodos, así como
los primeros intentos de terminología apropiada y tres posibles modelos:
El primero de estos tres diseños es el que más perdura y se considera que es más un
método que una metodología. Este libro genera expectativa y una apertura interesante en
la cual se puede intervenir y aportar.
Viabilidad.
Redacción de preguntas de investigación.
Datos cuantitativos y cualitativos.
Peso relativo de cada método.
Dos formas de recolección de datos.
Este capítulo en el Manual está redactado de la manera que lo hicieron Campbell y Stanley,
presenta fortalezas y debilidades de los diseños. El segundo, junto con Tashakkori, Jensen y
Shapley, redacta un capítulo titulado "Teaching mixed methods research: practices, dilemmas and
challenges", el cual está dedicado a la enseñanza de este método, y propone una suerte de sílabo
para un curso sobre este tipo de investigación.
En 2007, comienza a publicarse el Journal of Mixed Methods Research, siendo uno de los
medios más importantes de información y actualización sobre la investigación mixta.
Maxwell y Loomis manifiestan que los años 60 son el inicio del interés por los métodos mixtos;
en los 80 comienzan a recibir cierta atención y en los 90, a cobrar fuerza su estudio, análisis y
discusión. Estos últimos años son de desarrollo y difusión. Actualmente, se reconoce a Campbell
y Fiske (1959) como los pioneros en mostrar cómo usar diferentes métodos de investigación con
el propósito de validarlos.
Asimismo, se considera que el uso de la triangulación, por parte de los investigadores, trajo como
consecuencia la reducción de las tensiones de la '"guerra de los paradigmas" y el acercamiento a
método mixto.
Es indudable que otros autores han hecho importantes contribuciones, entre los que destacan V. J.
Caracelli, J. C. Greene, M. D. Fetters, V. L. Plano Clark, M. L. Gutmann, K. D. Jensen, K. L.
Shapley, T. D. Jick, D. Morgan, J. M. Morse, M. Q. Patton, I. Newman y C. R. Benz, C. S.
Reichardt y S. F. Rallis, D. M. Mertens, A. J. Onwueghbuzie, etc. Sin embargo, el trabajo de
editores y autores del manual de A. Tashakkori y C. Teddlie resaltan de manera significativa.
Un interesante glosario de términos sobre los diferentes aspectos o temas del método mixto de
investigación aparece en el Anexo B.
Estos 10-12 años de trabajo intenso y fructífero generaron posibilidades para un nuevo paradigma
pragmático de investigación: los métodos mixtos de investigación. Los próximos años,
seguramente, permitirán su posicionamiento y credibilidad en el mundo académico y en el
práctico. Los aportes bibliográficos de Creswell, así como los de Tashakkari y Teddíie y de
Onwueghbuzie entre otros, han generado un mayor interés en este tipo de investigación y se
observa la aparición de nuevos autores, publicaciones (libros, artículos, revistas) y ponencias en
eventos académicos, etc.
Este promisorio futuro del método mixto lo confirman Tashakkori y Teddlie al afirmar que "los
diseños de los métodos mixtos serán el enfoque dominante en el siglo XX!". El método mixto,
aún en desarrollo, está probando su estatus de enfoque válido de investigación y generando sus
propios diseños, procedimientos y terminología.
II.3.3. CARACTERÍSTICAS
Desde la década de 1980 algunos autores (Bryman, 1988; Eskeberg y Hili, 1980; Kammerly,
1992; Howe, 1988, McNamara, 1979; Reichardt y Cook, 1979) han argumentado que, a pesar de
sus diferencias, los métodos cuantitativo y cualitativo no son mutuamente excluyentes y que el
concepto de "paradigma" en la investigación educacional no es apropiado. Como argumentos a su
posición (Niglas, 2004) mencionan que:
Las diferencias entre los métodos, presentados como opuestos diametralmente, no son
correctas. En realidad son puntos de una escala continua.
Existen investigadores cualitativos que mantienen una visión realista, así como
investigadores cuantitativos con una visión cercana al idealismo y relativismo.
Asimismo, se menciona, actualmente, otro argumento de soporte para el uso de este nuevo
enfoque:
Su uso se hace necesario por la complejidad de los problemas a investigar, las limitaciones de los
métodos individuales, el logro de una mayor conciliación entre la teoría y la práctica y la
reducción de las contradicciones, entre otros.
Con relación al paradigma que sustente este método hay diferentes propuestas o
fundamentos para el método mixto de investigación, como una alternativa a los
paradigmas asociados a los métodos cuantitativos y cualitativos. Uno de ellos es el
paradigma Transformativo-Emancipatorio propuesto por D. M. Mertens, quien
considera que el fin último de la investigación es la creación de una sociedad más justa
y democrática. Por ello, la investigación debe llevar a la promoción de la igualdad social
y la justicia de aquellos individuos que sufren discriminación y opresión, y situar el
estudio en la realidad con sus múltiples contextos (cultural, económico, histórico, etc.),
de esta manera, se responde a los diferentes grupos de una forma apropiada. Asimismo,
la relación del investigador con los participantes debe realizarse dentro de un marco de
comprensión y confianza.
Otros autores, en cambio, plantean otro paradigma como base de los métodos mixtos.
Greene y Caracelli y otros (Maxwell y Loomis, etc.) proponen la tesis dialéctica.
Rechazan la "guerra de los paradigmas" y más bien consideran positivo el uso de
diferentes perspectivas para explicar mejor la complejidad cada vez mayor en una
sociedad plural. Para ello, es necesario e) pensamiento dialéctico, el cual toma en
consideración puntos de vista contrarios y las "tensiones" que puede causar su com-
binación. Afirma que los diálogos entre paradigmas están dados más por los fenómenos
bajo estudio que por premisas filosóficas y que las confrontaciones no son relevantes en
una indagación dialéctica. Que las dicotomías de importancia resultan ser valoración-
neutralidad, valoración-compromiso, visión interna-visión externa de un fenómeno,
particularidad-generalidad, construcción social-evidencias físicas, etc.
Creswell y otros autores piensan que paradigmas múltiples, pueden ser usados en los
diversos diseños de métodos mixtos. A manera de ejemplo, que el post-positivismo puede ser el
mejor paradigma para un diseño secuencial-explicativo que hace uso de métodos cuantitativos,
que el paradigma interpretativo puede servir para un diseño secuencial-explicativo que hace uso
de métodos cualitativos y que una combinación de paradigmas puede usarse para un diseño de
triangulación.
También se señala como posibles paradigmas en un enfoque cualitativo los siguientes: positivista-
postpositivista, constructivista-interpretativo, crítico y feminista-postestructural (Denzin y Lincoln,
2000). Schwandt (2000), en cambio, menciona como paradigmas en el campo cualitativo: el
interpretativo, el hermenéutico y el social re construccionismo.
Desde otra óptica, el pragmatismo ha sido propuesto como el paradigma que ha sustentado la
investigación con métodos mixtos. Tashakkori y Teddlie, se encuentran entre los varios autores
que defienden esta propuesta. Según ellos, el pragmatismo rechaza la hipótesis de la
incompatibilidad de paradigmas y, por lo tanto, permite el uso de métodos cuantitativos y
cualitativos en un mismo estudio. Consideran que la fuente principal de la investigación son las
preguntas y no los paradigmas excluyentes.
Con el pragmatismo se supera la dicotomía de los enfoques contrapuestos, más aún, la decisión
del uso de uno o más enfoques se da en el momento en que la investigación lo exige y no antes,
evita discusiones, confrontaciones inútiles e improductivas (al respecto, Guba y Lincoln, 1994 y
2005, están de acuerdo que los dos métodos pueden usarse con cualquier paradigma y que una
estrategia de métodos mixtos tiene sentido. Citado por Johnson y otros, 2007). Además, el
pragmatismo representa una filosofía de investigación práctica y aplicable.
El trabajo de Tashakkori y Teddlie (2003) presenta un desarrollo más amplio sobre los
paradigmas. Igualmente, vale la pena revisar el artículo de David L. Morgan (2007) "Paradigms
Lost and Pragmatism Regained: Methodoligical Implication of Combining Qualitative and
Quantitative Methods" (Journal of Mixed Methods Research, 2007, Vol. 1.1 48-76) y el
de Noella Mackenzie y Sally Knipe (2006) "Research Dilemmas: Paradigms, Methods and
Methodology" (Issues in Educational Research, 2006, Vol. 16. On line:
http:www.ier.org.au/iier16/mackienze.html. Recuperado el 13/4/2008).
Entre los propósitos para usar el método mixto> según Bazeíey, se encuentran:
De acuerdo con Greene (1989), un estudio de este tipo puede tener uno
o más de estos propósitos.
Janice Morse (2003) recomienda que cuando se puede usar el método mixto deben
tenerse presentes los principios siguientes:
Shovelier (2006) propone seis reglas que deben tenerse en cuenta, cuando se investiga
con el método mixto:
3
Latorre Antonio, del Rincón Delio y Arnal Justo. Bases metodológicas de la Investigación Educativa.
Ediciones experiencia. 1996
investigación orientada a la práctica educativa no es tanto acumular conocimientos
sobre el proceso educativo y explicar y/o comprender la realidad educativa, como
aportar información que guíe la toma de decisiones y los procesos de cambio para
mejorar la práctica educativa.
Dado el contexto aplicado de esta perspectiva, la investigación orientada a la práctica
educativa no posee una metodología con entidad propia y, en consecuencia, utiliza las
dos grandes vías metodológicas que predominan, respectivamente, en las orientaciones
empírico-analítica y constructivista (De Miguel, 1988 y Nisbet, 1988).
Dentro de esta orientación destacan la investigación evaluativa, decisiva para la toma de
decisiones y orientada a determinar la eficacia de organizaciones y programas
educativos, y la investigación-acción, más orientada a promover e implantar el cambio,
a mejorar la capacidad autorreflexiva, a guiar la elaboración del curriculum y a
potenciar la formación del propio educador, de los estudiantes y, en general, de la
comunidad educativa.
La investigación evaluativa constituye una síntesis, al mismo tiempo que una extensión
de una amplia gama de métodos de investigación que aportan información sobre
cuestiones planteadas en torno a los programas educativos, con el fin de facilitar la toma
de decisiones sobre los mismos.
Bajo la denominación de paradigma hemos englobado metodologías compartidas por
investigadores y educadores que adoptan una determinada concepción del proceso
educativo (Escudero, 1987, y De Miguel, 1988). Cada paradigma se caracterizaba por
una forma común de investigar en el seno de una comunidad científica y hemos
considerado las perspectivas empírico-analítica y humanístico-interpretativa. Somos
conscientes de que la teoría crítica ha originado un paradigma recientemente utilizado
en la investigación educativa; sin embargo, desde la óptica metodológica que nos ocupa,
y según De Miguel (1988) y Keeves (1988), el paradigma crítico participa de los
postulados que caracterizan al paradigma interpretativo, añadiendo un componente
ideológico.
a) ORÍGENES DE LA INVESTIGACIÓN-ACCIÓN
La investigación-acción fue absorbida por la educación casi tan pronto como surgió. El
mismo Lewin colaboró en algunos proyectos de desarrollo curricular. Sin embargo, sería
Corey (1949), decano del Teachers College de la Universidad de Columbia, quien llevó
las ideas de Lewin al campo de la educación y se convirtió en su principal defensor. A
través del Instituto Horace Mann-Lincoln realizó varios proyectos de investigación,
generó gran número de informes y publicó obras tan significativas como Action
Research to Improve School Practices y Curriculum Development through Action
Research. Junto a la obra de Corey es justo señalar los trabajos de Taba y Noel (1957) y
de Shumsky (1958) como pioneros en el área de investigación-acción educativa.
b) DECLIVE DE LA INVESTIGACIÓN-ACCIÓN
Para señalar los rasgos que configuran la investigación-acción podemos hacerlo a través
de cómo considera algunos aspectos tales como:
Toda investigación completada ha de ser sometida a algún tipo de control que exprese,
de una forma u otra, hasta qué punto ha logrado sus objetivos iniciales. Este equivale a
un control de calidad al que el investigador somete su propia producción.
Para A. Sidman, por ejemplo, “Se supone que la ciencia es un proceso lógico y
ordenado, que no se encuentra sujeto a la arbitrariedad de los prejuicios y otras
flaquezas humanas de quienes la practican. Si la ciencia ha de usar la importancia de los
datos como criterio para aceptar o rechazar un experimento, es presumible que debe
disponer de un conjunto imparcial de reglas y normas bajo las cuales el científico pueda
operar al hacer sus evaluaciones. Algunos científicos, o bien nunca se dan cuenta de que
se hallan sobre arenas movedizas, o bien rechazan esta idea y pretenden que sus pies se
hallan sobre tierra firme” (M. Sidman, 1978, pp. 49- 51). E. Gummerson (1991) se hace
eco de esta opinión que ve en la presunción de validez poco menos que una quimera
científica.
4
Ruiz Olabuénaga J.I. Técnicas de Triangulación y Control de Calidad en la Investigación Socioeducativa.
Villa Aurelio y Álvarez Manuel (Coord.) Proyecto de Calidad Integrado. Ediciones Mensajero S.A. 2003
- Como el grado en el que se aceptan y cumplen las especificaciones establecidas
en el diseño de investigación (en cuyo caso calidad equivale a “cumplir con tales
normas”. Este modo supone que existe de antemano tales especificaciones con
suficiente claridad y precisión para su posible aplicación. La ciencia ha intentado
establecer algunos de estos criterios universales siguiendo la escuela positivista,
pero su aplicación resulta poco menos que imposible, como se demuestra en la
arrogancia y presunción con la que los científicos camuflan sus prejuicios y
simpatías a la hora de emitir sus juicios de valor. No se puede aceptar como
definición de calidad la adecuación a determinadas normas si tales normas no
están meridianamente claras.
5
Antes de seguir adelante es preciso reconocer que existe toda una jerga termi nológica en torno a las ideas de validez y la
fiabilidad que, con frecuencia, conduce más a la confusión que a la claridad de ideas. Así, por ejemplo, es fácil encontrar
expresiones tales como fiabilidad temporal (Test-Retest), de acuerdo entre observadores, de consistencia interna, de equivalencia
(tests equivalentes), de Procedimientos de dos mitades, de fórmulas de Kuder-Richardson de múltiple partición. Del mismo modo,
a propósito de la validez es fácil ver referencias a la validez práctica, concurrente, predictiva, de construct, de contenido , etc.
(Baggaley, A., 1964). Todas ellas se refieren a algún punto o aspecto del proceso investigador y, por consiguiente, insisten en
alguna dimensión que debe ser teni da en cuenta. Muchas de ellas igualmente se deben a que los autores, al intentar tratar el tema
La ciencia positiva ha establecido que una investigación, para que pueda ser aceptada
como completa, debe satisfacer, al menos, cinco criterios de excelencia. Estos criterios
son la validez, la fiabilidad, la consistencia interna, la parsimonia y la precisión. Las tres
primeras constituyen la llamada trinidad del control de calidad.
de la calidad de los métodos cualitativos, aplican a éstos los criterios de la metodología cuantitativa (Bringberg, D. & McGrath, LE.
Ob. cit.).
Si una conclusión puede garantizarse con cinco variables, la parsimonia exige que se
utilicen cinco y no diez variables. Finalmente, si un estudio puede ser costeado con un
millón de pesetas, la parsimonia exige que no se gasten cinco o más millones.
Toda investigación completada ha de ser sometida a algún tipo control que exprese, de
una forma u otra, hasta qué punto ha logrado sus objetivos iniciales. Éste equivale a un
control de calidad al que el investigador somete su propia producción.
Éste es el ideal de todo investigador serio, pero ¿cómo lograrlo? La respuesta no reside
en el aprendizaje y la aplicación mecánica de unas cuantas reglas o técnicas, ni en la
selección caprichosa de criterios puramente personales. La objetividad de la ciencia
consiste, no tanto en un conjunto de normas de procedimiento como en la naturaleza
auto correctiva del proceso científico.
Suelen reducirse, como hemos apuntado a cinco los criterios de excelencia de un trabajo
científico. Estos cinco criterios son considerados los de mayor relevancia y dejan al
margen otros de orden secundario. Estas cinco condiciones están en muchos aspectos,
entrelazadas y una reclama a la otra. Así, si no hay validez no es posible la fiabilidad, y
la fiabilidad carece de sentido si carece de precisión, al paso que ésta carece de sentido
si surgen inconsistencias internas.
Los tres primeros criterios -fiabilidad, validez y consistencia- dependen más del rigor
científico que de la decisión de invertir recursos; por eso están sometidos a una serie de
reglas y de normas de comportamiento que es necesario seguir si se quiere garantizar la
calidad de una investigación.
Es imperativo reconocer, apuntábamos antes, que existe toda una jerga en torno a las
ideas de validez y la fiabilidad que, con frecuencia, conduce más a la confusión que a la
claridad de ideas.
A fin de ordenar todas estas ideas, daremos una visión general de los elementos en los
que el investigador tiene que fijar su atención para conseguir aplicar un control de
calidad a su investigación. Esto obliga a una simplificación forzosa, aunque ello no
puede impedir que se tenga una visión general de todo el proceso de investigación y que
se recuerden los momentos críticos de toda investigación para, a continuación, dar más
importancia a aquellos puntos más centrales y decisivos.
El control de calidad no puede efectuarse del mismo modo en los estudios cuantitativos
que en los cualitativos. Su presentación exige un tratamiento diferenciado para cada uno
de los cinco criterios que hemos apuntado. Por este motivo nosotros también trataremos
por separado ambos tipos de investigación, sin que ello sirva de excusa para deducir
otras consideraciones relacionadas con la oportunidad mayor o menor de utilizar cada
una de ellas en un estudio concreto.
Bringberg, D. & McGrath, J. E. señalan acertadamente que esta simplificación debe ser
superada y que deben tenerse presentes, al menos, tres momentos del proceso de
investigación: los preliminares de planificación de la investigación, los concomitantes al
desarrollo de la misma y los consiguientes una vez concluida ésta (Bringberg, D. &
McGrath, J. E.).
PREESTUDIO
Qué conceptos son correctos y cuáles no, cuáles son útiles y cuáles no lo son.
Qué hechos son importantes y cuáles no lo son, cuáles merece la pena
investigar y cuáles no.
Qué métodos son aceptados como válidos por la ciencia actual (entrevista,
survey) y cuáles no.
Sólo en muy contadas ocasiones un investigador puede permitirse retar estos paradigmas
e intentar imponer otros nuevos, como cuando Freud introduce el subconsciente (hecho),
el complejo de Edipo (concepto) y el psicoanálisis (método), no reconocidos todavía por
la ciencia. En una investigación normal el investigador deberá acomodarse a los
patrones y paradigmas científicos de su comunidad científica.
Una vez aceptada la calidad de los conceptos, los hechos y los métodos, el investigador
se pone manos a la obra. Es el momento en el que se desarrolla la investigación y
comprende, a su vez, dos fases bien diferenciadas:
Tanto los unos (diseño, teoría, datos) como los otros (implementación, verificación,
explanación) pueden y deben ser sometidos a un control de calidad, lo que constituye
un tipo genérico de validez que se denomina 'validez de correspondencia', ya que es la
que establece si existe una lógica correcta entre los elementos utilizados y si éstos están
bien integrados entre sí. De los que Bringberg, D. & McGrath, J. E. detallan hasta doce
tipos.
Hemos descrito sin entrar a detallarlos, su aplicación, los criterios de control de validez.
POSTESTUDIO
Su diseño, aplicado a unos hechos concretos, es válido y extensible para otros hechos.
Su teoría, verificada con unos métodos concretos, podría quedar igual o mejor
verificada con otros métodos.
Su base de datos, explicada con unos conceptos, podría ser mejor comprendida e
interpretada con otros conceptos.
Estas tres preguntas o dudas constituyen el campo de validez de robustez, es decir, de
garantía de que el diseño, la teoría y los datos resisten el cotejo con otros hechos,
métodos o conceptos.
Esta validez que se califica de externa porque se refiere a la contribución que el estudi o
aporta (o puede aportar) a otros ámbitos de investigación, es triple, como queda dicho,
porque son tres sus campos de aplicación:
Es patente, tras esta breve presentación, que hay muchos significados asociados al
término “validez” en función del elemento al que se aplican y del momento o fase en el
que se utilizan.
Uno de los elementos centrales para acertar con los criterios de validez de esta
metodología viene formado por la aplicación de un conjunto de principios guía que
pueden resumirse en el elenco siguiente:
Empezamos a reconocer que los sistemas no son meras sumas de unidades simples, sino
entes separados con propiedades únicas, dinámicas e idiosincráticas. Se ha pasado de
ver el mundo ordenado jerárquicamente a verlo regido por la heterarquía, de imaginarlo
como un universo mecánico a otro holográfico, en el que todas las partes contienen
información sobre todas las demás, señalando la existencia de una vasta red de
interconexiones sistemáticas que lo hacen más complejo e interdependiente de lo que
sugiere la imaginería mecánica. Para la nueva concepción no vale ya la imagen de un
mundo determinado sino la de otro indeterminado, ni predecible ni controlable, aun con
el más sofisticado de los modelos matemáticos multiecuacionales.
El tipo de análisis que habremos de realizar depende de los datos que hayamos
recolectado, lo cual depende del enfoque y el o los instrumentos seleccionados, vale
decir, que debe existir una coherencia lógica entre estos ítems en una investigación.
6
Gómez, Marcelo M. (2006). Introducción a la Metodología de la Investigación Científica. 1a ed.
Córdoba-Argentina: Brujas. 2006.
proporcional). Si elegimos un enfoque cualitativo, no necesariamente hemos realizado
conteos ni asignado símbolos numéricos a nuestra información. Seguramente
disponemos de descripciones precisas y detalladas del fenómeno estudiado. Si el
enfoque fuera mixto, tendremos ambos tipos de información.
Las frecuencias relativas si se multiplican por 100 indicarán los porcentajes de casos en
cada categoría de una variable (la suma de todas las frecuencias relativas debe dar
100%) y las frecuencias acumuladas indicarán los porcentajes que se van acumulando
(se van sumando) en las categorías, desde la más baja hasta la más alta (la última suma
de porcentajes debe i dar 100%)
Otra forma gráfica de representar frecuencias son los polígonos de frecuencias. Estos
relacionan las puntuaciones obtenidas por cada categoría, con sus respectivas
frecuencias. En el eje horizontal (X), se colocan las categorías o los intervalos. En el eje
vertical (Y), se colocan las frecuencias, dependiendo de cuál es el mayor número posible
de frecuencia obtenido en la recolección y tabulación.
Pero además del polígono de frecuencias, deben calcularse las medidas de tendencia
central y de variabilidad o dispersión.
Las medidas de tendencia central son puntajes específicos de una distribución, y nos
ayudan a ubicarnos dentro de la escala de medición. Las principales medidas de
tendencia central son tres: moda, mediana y media. El nivel de medición de la variable
determina cuál es la medida de tendencia central apropiada.
Medidas de la variabilidad
Las medidas de la variabilidad indican la dispersión de los datos en la escala de
medición y responden a la pregunta: ¿Cómo están diseminadas las puntuaciones o los
valores obtenidos? Las medidas de tendencia central son valores y las medidas de La
variabilidad son intervalos, designan distancias o un número de unidades en la escala de
medición. Las medidas de la variabilidad más utilizadas son rango, desviación estándar
y varianza.
Cuanto más grande sea el rango, mayor será la dispersión de los datos de una
distribución.
Probar hipótesis.
Estimar parámetros.
Prueba de hipótesis
En investigación, hemos dejado claro que una hipótesis es una conjetura que debe tener
la posibilidad de ser probada. Sin embargo es pretencioso decir que una afirmación es
verdadera o falsa. En su lugar decimos que ha sido "apoyada" o "refutada" por la prueba
empírica.
a) Análisis paramétricos
Para realizar análisis paramétricos debe cuidarse que se cumplan las siguientes
condiciones:
Definición: Es una prueba estadística para analizar la relación entre dos variables
medidas en un nivel por intervalos o de razón.
Se simboliza: r
Hipótesis a probar: Correlacional, del tipo de "A mayor X, mayor Y", "A mayor X,
menor Y", "Altos valores en X están asociados con altos valores en Y", "Altos valores
en X se asocian con bajos valores de Y".
Variables. Dos. Se calcula a partir de las puntuaciones obtenidas en una muestra para
dos variables. Se relacionan las puntuaciones obtenidas de una variable con las
puntuaciones obtenidas de otra variable, en los mismos sujetos.
-1.00 = correlación negativa perfecta. ("A mayor Y., menor Y", de manera proporcional.
También se aplica “a menor X, mayor Y').
+1.00 = correlación positiva perfecta. (“A mayor X, mayor Y" o “A menor X, menor Y',
de manera proporcional.)
r = 0.80
r2= 0.64
La "asistencia a la escuela" explica el 64% del "promedio general". Es decir, habrá otras
variables que explicarán el 36% restante.
Regresión lineal
Definición: Es un modelo matemático para estimar el efecto de una variable sobre otra.
Está asociado con el coeficiente r de Pearson.
Variables: Dos.
Definición: Es una prueba estadística para evaluar si dos grupos difieren entre sí de
manera significativa respeto a sus medias.
Se simboliza: t
Hipótesis: De diferencia entre dos grupos. La hipótesis de investigación propone que los
grupos difieren significativamente entre sí y la hipótesis nula propone que los grupos no
difieren significativamente.
Variable: La comparación se realiza sobre una misma variable, en dos grupos diferentes.
Si hay diferentes variables, se efectuarán varias pruebas t (una para cada variable). Por
ejemplo, un experimento con dos grupos, donde a uno se le aplica el estímulo
experimental y el otro grupo es de control.
b) Análisis no paramétricos
La ji cuadrado o X2
Definición: Es una prueba estadística para evaluar hipótesis acerca de la relación entre
dos variables categóricas.
Se simboliza: X2
Todos los estudios cualitativos contienen datos descriptivos ricos: las propias palabras
pronunciadas o escritas de la gente y las actividades observables. En los estudios
mediante observación participante, los investigadores tratan de transmitir una sensación
de que se “está allí” y se experimentan directamente los escenarios. Analógicamente, en
los estudios basados en entrevistas en profundidad tratan de que los lectores tengan la
sensación de que “están en la piel” de los informantes y ven las cosas desde el punto de
vista de ellos. De modo que la investigación cualitativa proporcionaría una “descripción
íntima” de la vida social (Geertz, 1983). Como escribe Emerson (1983, pág. 24), “Las
descripciones íntimas presentan detalladamente el contexto y los significados de los
acontecimientos y escenas importantes para los involucrados”.
Las historias de vida, tal como los produjeron los miembros de la Escuela de Chicago y
otros investigadores, representan la forma más pura de los estudios descriptivos. En
ellas, el protagonista narra su historia con sus propias palabras. “El rasgo singular de
esos documentos reside en que se registran en primera persona, con las propias palabras
del muchacho, sin traducirlas al lenguaje de la persona que investiga el caso (Shaw,
1966, pág. 1).
Sera engañoso sostener que los estudios descriptivos se escriben solos. En todos los
estudios de investigadores presentan y ordenan los datos de acuerdo con lo que ellos
piensan que es importante. Por ejemplo, en las historias de vida deciden que incluir y
que excluir, compilan los datos en bruto, añaden fragmentos de conexión entre
observaciones, y disponen el relato según algún tipo de secuencia. Además. Al realizar
sus estudios los investigadores toman decisiones sobre lo que deben observar, preguntar
y registrar, decisiones que determinan lo que pueden describir y el modo en que lo
describen.
Glaser y Strauss (1967) distinguen dos tipos de teorías: las sustanciales y las formales.
Las primeras se relacionan con un área sustancial o concreta de indagación; por ejemplo,
con escuelas, prisiones, con la delincuencia juvenil y el cuidado de pacientes. Las teorías
formales se refieren a áreas conceptuales de indagación, tales como los estigmas, las
organizaciones formales, la socialización y la desviación. En la investigación cualitativa
la mayor parte de los estudios se han centrado en áreas sustanciales simples.
Desde la publicación del influyente libro de Glaser y Strauss (1967) titulado The
Discovery of Grounded Theory, los investigadores cualitativos han debatido si el
propósito de los estudios teóricos debe ser desarrollar o verificar la teoría social, o
ambas cosas (véase por ejemplo Charmaz, 1983; Emerson, 1983; Katz, 1983). Glaser y
Strauss son probablemente los más firmes sostenedores de la opinión de que los
sociólogos cualitativos (y otros) deben dirigir su atención al desarrollo o generación de
teorías y conceptos sociales (véase también Glaser, 1978). Su enfoque de la teoría
fundamentada tiene la finalidad de permitir que los investigadores lo hagan. Para otros
autores, la investigación cualitativa, lo mismo que los estudios cuantitativos, puede y
debe ser utilizada con el fin de desarrollar y verificar o poner a prueba proposiciones
sobre la naturaleza de la vida social. El procedimiento de la inducción analítica ha sido
el medio principal empleado con tal objeto (Cressey, 1953; Kata, 1983, Lindesmith,
1947; Robinson, 1951; Turner, 1953; Znaniecki, 1934). Aunque la mayor parte de los
investigadores adoptan en sus estudios elementos de ambos enfoques, al considerar el
análisis de los datos cualitativos resulta útil diferenciar la generación de la teoría, por
una parte, de la verificación de la teoría, por la otra, con los respectivos recursos de la
teoría fundamentada y la inducción analítica.
Al generar teoría fundamentada, los investigadores no tratan de probar sus ideas, sino de
demostrar que son plausibles. Glaser y Strauss aducen que el criterio clave para evaluar
las teorías consiste en examinar si se “ajustan” y “funcionan”.
Por “ajuste” entendemos que las categorías deben ser fácilmente aplicables (sin
forzarlas) a los datos que se estudian y surgir de ellos; el “funcionamiento” supone que
deben ser significativamente apropiadas y capaces de explicar la conducta en estudio.
En última instancia, para Glaser y Strauss, los lectores deben juzgar la credibilidad de
los estudios cualitativos.
Los pasos que incluye la inducción analítica son relativamente simples y directos (véase
Cressey, 1950; Denzin, 1978; Katz, 1983):
Formular una hipótesis para explicar dicho fenómeno (ésta puede basarse en los datos,
en otra investigación o en la comprensión e intuición del investigador).
Empleando este enfoque, Cressey (1953, pág. 30) llegó a la siguiente explicación de los
abusadores de confianza (formulación revisada de los desfalcadores):
La inducción analítica ha sido criticada por no estar a la altura de las pretensiones de sus
primeros proponentes, quienes la veían como un método para establecer leyes causales y
universales (Robinson, 1951; Turner, 1953). Turner (1953) sostiene que la inducción
analítica es fundamentalmente un método para producir definiciones de los fenómenos
sociales; por lo tanto, las explicaciones basadas en ella pueden ser de carácter circular.
No obstante, la lógica básica subyacente en este método es útil en el análisis de los datos
cualitativos. Al dirigir la atención hacia los casos negativos, la inducción analítica obliga
al investigador a refinar y matizar las teorías y proposiciones. Katz (1983, pág. 133)
sostiene que:
ANALISIS EN PROGRESO
Quizás sea engañoso dedicar un capítulo separado al trabajo con los datos, puesto que el
análisis de los datos es un proceso en continuo progreso en la investigación cualitativa.
La recolección y el análisis de los datos van de la mano. A lo largo de la observación
participante, las entrevistas en profundidad y otras investigaciones cualitativas, los
investigadores siguen la pista de los temas emergentes, leen sus notas de campo o
transcripciones y desarrollan conceptos y proposiciones para comenzar a dar sentido a
sus datos. A medida que su estudio avanza, comienzan a enfocar los intereses de su
investigación, formular preguntas directivas, controlar las historias de los informantes y
a seguir los filones e intuiciones. En muchos estudios los investigadores se abstienen de
seleccionar escenarios, personas o documentos adicionales para su estudio hasta que han
realizado algún análisis inicial de los datos. Esto es necesario tanto en la estrategia del
muestreo teórico de la teoría fundamentada, como en la búsqueda de casos negativos de
la inducción analítica.
Todos los investigadores desarrollan sus propios modos de analizar los datos
cualitativos. En esta sección describimos el enfoque básico que utilizamos para dar
sentido a los datos descriptivos recogidos mediante métodos de investigación
cualitativos.
El análisis de los datos, como vemos, implica ciertas etapas diferenciadas. La primera es
una fase de descubrimiento en progreso: identificar temas y desarrollar conceptos y
proposiciones. La segunda fase, que típicamente se produce cuando los datos ya han sido
recogidos, incluye la codificación de los datos y el refinamiento de la comprensión del
tema de estudio. En la fase final, el investigador trata de relativizar sus descubrimientos
(Deutscher, 1973), es decir, de comprender los datos en el contexto en que fueron
recogidos.
Descubrimiento
1. Lea repetidamente sus datos. Reúna todas las notas de campo, las
transcripciones, documentos y otros materiales y léalos cuidadosamente. A
continuación vuelva a leerlos. En el momento en que esté listo para iniciar el
análisis intensivo, debe conocer sus datos al dedillo.
2. Siga la pista de temas, intuiciones, interpretaciones e ideas. Se debe registrar
toda idea importante que se tenga durante la lectura y reflexión sobre los datos.
En la observación participante, los investigadores a veces emplean los
“comentarios de observador” para anotar temas y registrar interpretaciones,
mientras que en las entrevistas en profundidad se puede usar con el mismo
propósito el diario del entrevistador.
3. Busque los temas emergentes. Es preciso buscar en los datos los temas o pautas
emergentes: temas de conversación, vocabulario, actividades recurrentes,
significados, sentimientos, dichos y proverbios populares (Spradley, 1980). No
vacile en confeccionar listas tentativas de temas en esta etapa del proceso. Pero
no apueste a ninguna idea en particular hasta haber tenido la oportunidad de
experimentarla y controlarla.
4. Elabore tipologías. Las tipologías, o esquemas de clasificación, pueden ser
ayudas útiles para identificar temas y desarrollar conceptos y teorías. Una clase
de tipología se relaciona con el modo en que las personas clasifican a los otros y
con los objetos de sus vidas.
5. Desarrolle conceptos y proposiciones teóricas. El investigador pasa de la
descripción a la interpretación y la teoría a través de conceptos y proposiciones.
Los conceptos son ideas abstractas generalizadas a partir de hechos empíricos.
En la investigación cualitativa los conceptos son instrumentos sensibilizantes
(Blumer, 1969; Bruyn, 1966). Los conceptos sensibilizadores, según Blumer
(1969, pág. 148) proporcionan un “sentido de referencia general” y sugieren
“direcciones para la observación”. Blumer continúa explicando que los
conceptos sensibilizadores son comunicados por “la exposición que produce una
imagen significativa, inducida por las ilustraciones aptas que permitan
aprehender la referencia en los términos de la experiencia propia”. Los conceptos
se utilizan para iluminar los procesos y fenómenos sociales que no son
fácilmente perceptibles en las descripciones de casos específicos.
Hay que tener el cuidado de no forzar nuestros datos para que encajen en el
marco de algún otro. Si los conceptos del colega se ajustan a sus datos, no tema
emplearlos. Si éste no es el caso, olvídelos.
El modo en que uno interpreta sus datos depende de los supuestos teóricos que ha
asumido. Es importante conocer marcos teóricos durante la etapa de análisis
intensivo de la investigación. Nuestro propio marco teórico, el interaccionismo
simbólico, nos lleva a buscar ciertas perspectivas, significados y definiciones
sociales. El interaccionismo simbólico está interesado en preguntas como las
siguientes:
¿Cómo tratan las personas con las discrepancias entre sus perspectivas y
actividades?
7. Desarrolle una guía de la historia. A veces es útil desarrollar una línea guía de la
historia para orientar el análisis. La guía de la historia es la hebra analítica que
une e integra a los principales temas de los datos. Es la respuesta a la pregunta
“¿sobre qué trata este estudio?”
Quizás el mejor modo de desarrollar una guía de la historia consista en idear una
sentencia o frase que describa el trabajo en términos generales. Esto es algo que a
veces hacen los títulos y subtítulos de los estudios cualitativos.
Codificación
2. Codifique todos los datos. Codifique todas las notas de campo, las
transcripciones, los documentos y otros materiales, escribiendo en el margen el
número asignado o la letra correspondiente a cada categoría. Se deben codificar
tanto los incidentes negativos como los positivos relacionados con la categoría
de que se trate. Al analizar la proposición de que el personal cuestiona el
cociente intelectual como indicador de inteligencia, el investigador codifica tanto
los enunciados que la apoyan (“No se puede confiar en el cociente intelectual”),
como los que la refutan (“No se le puede enseñar mucho porque su cociente
intelectual es muy bajo”).
A medida que se codifican los datos, hay que refinar el esquema de la codificación:
añadir, suprimir, expandir y redefinir las categorías. La regla cardinal de la
codificación en el análisis cualitativo consiste en hacer que los códigos se ajusten a
los datos y no a la inversa. Registre cada cambio en su lista maestra de categorías.
Se podrá advertir que algunos fragmentos de datos entran en dos o más categorías; se
les deben asignar los códigos de todas ellas.
4. Vea qué datos han sobrado. Después de haber codificado y separado todos los
datos, repase el remanente de datos que no han ingresado en el análisis. Algunos
de esos datos probablemente se ajusten a las categorías de codificación
existentes. También se pueden plantear nuevas categorías que se relacionen con
las desarrolladas previamente y con la guía de la historia subyacente. Pero debe
observarse que ningún estudio utiliza todos los datos recogidos. Si no se ajustan,
no trate de forzar el ingreso de todos los datos en su esquema analítico.
La fase final del análisis cualitativo consiste en lo que Deutscher y Mills (1940)
denominan relativización de los datos: se trata de interpretarlos en el contexto en que
fueron recogidos. Tal como Deutscher lo señala (1973, pág. 5), todos los datos son po-
tencialmente valiosos si sabemos evaluar su credibilidad.
En este sentido, todos los datos deben relativizarse. Para entenderlos, hay que detenerse
en el modo en que fueron recogidos. No se descarta nada. Sólo varía la interpretación, de
acuerdo con el contexto. Hay al respecto un cierto número de consideraciones.
3. ¿Quién estaba allí? Así como el observador puede influir sobre lo que un
informante diga o haga, lo mismo vale para muchas otras personas del escenario.
Por ejemplo, los empleados de atención actúan de manera distinta con los
supervisores que entre ellos mismos; los maestros quizás hablen entre sí de cosas
que no le dirían a su director.
Por esta razón, se debe prestar atención a las fuentes de los datos en los que se
basan las interpretaciones. Está bien recurrir a informantes claves para lograr
comprensiones esenciales, pero conviene saber distinguir entre las perspectivas
de una sola persona y las de un grupo más amplio. Esta es la razón de que por lo
general tratemos de dar a los lectores una idea de quien dijo e hizo cada cosa (un
informante, algunas personas, la mayoría de los informantes, etc.) cuando
comunicamos por escrito nuestros descubrimientos.
6. Nuestros propios supuestos. En los métodos cualitativos, tal como lo hemos
descripto, el investigador comienza el estudio con un mínimo de supuestos. No
obstante, nuestros propios compromisos y preconceptos son imposibles de evitar.
Los datos nunca se explican así mismos. Todos los investigadores se abrevan en
sus propios supuestos teóricos y en sus conocimientos culturales para extraer el
sentido de sus datos.
Los colegas e incluso los informantes que estén dispuestos a leer los borradores
pueden evaluar la validez y credibilidad de nuestro análisis.
V. BIBLIOGRAFIA
Atkinson, D.L. & Johnson, J.M. (1994). “Criteria for Assesing Interpretive Validity in
Cualitative Research” en Denzin, N.K. & Lincol, Y.S. (eds): Handbook of
Qualitative Research, Sage, Thousand Oaks, California.
Del Rincón, D., Arnal, J., Latorre, A. y Sans, A. (1995). Técnicas de investigación en
ciencias sociales. Madrid: Dykinson.
Erlandson, D.A., Harris, E.L., Skipper, B.L. y Alien, S.D. (1993). Doing naturalistic
inquiry. A guide to methods. Newbury Park, CA: Sage.
Glaser, B.G. y Strauss, L. (1968). The Discovery ofgrounded theory: Strategies for
cualitative research. Londres: Weidenfels & Nicolson.
Glesne, C.E. y Peshkin, A. (1992). Becoming qualitative researcher. An introduction.
Nueva York: Longman.
Goetz, J.P. y LeCompte, M.D. (1988). Etnografía y diseño cualitativo en investigación
educativa. Madrid: Morata.
Guba, E.G. y Lincoln, Y.S. (1989). Fourth generation evaluation. Newbury Park, CA:
Sage.
Gummerson, E.(1991): Qualitative Methods in Management Research, Sage, Newbury
Park, California.
Janesick, VJ. (1994). The dance of qualitative research design: metaphor, methodolatry,
and meaning. En N. Denzin y Y. Lincoln (Eds.), Handbook of qualitative research
(pp. 209-219). Londres: Sage.
Levin, K. (1946). Action research and minority problems. Journal of Social Issues , 2,
34-36.
Lincoln, Y.S. y Guba, EG. (1985). Naturalistic Inquiry. Beverly Hills, CA.: Sage.
Malinowski, B. (1973 [1922]). Los argonautas del Pacífico Occidental. Barcelona:
Península (1973).
Patton, M.Q. (1980,1990). Qualitative evaluation methods. Beverly Hills, CA: Sage.