Вы находитесь на странице: 1из 107

METODOLOGÍA II – 1ER PARCIAL

Comentario: ``Ayer rendí el final, me tomaron entrevista, preguntas (todo lo que sea referido a
esto), escalas (likert más que nada) y la función de los jueves en las mismas, y por ultimo
diferencias en los requisitos para medir la confiabilidad de las investigaciones cuali y cuanti´´
Primer parcial
2010 Parcial A

1. Dentro de la estrategia cualitativa, ¿qué formas conoce para seleccionar


los casos con los que trabajar? Explíquelos brevemente.
2. Desarrolle el Estudio de caso. Cómo se clasifica?
3. ¿Qué significa medir dentro de la estrategia cuantitativa y cualitativa?
Texto cohen 2011
¿Cómo se considera la validez dentro de la cuantitativa?

2010 Parcial B

1) Cuales la utilidad de los casos negativos a la hora de tratar de seleccionar


casos con los cuales trabajar en una estrategia cualitativa. U1 pag78
2) En que cosas se establece la realización de las entrevistas grupales?
¿Cuáles son sus ventajas?
3) Compare la idea de presentatividad en las estrategias cualitativas y las
cuantitativas
4) ¿qué es la observación? ¿Qué características la diferencian de la
observación común? ¿Qué tipo de notas de campo puede mencionar?
Caracterice algunos de esos tipos. Texto olabuénaga

2009 Parcial b

1. Que son los datos secundarios? Ventajas y desventajas


2. Compare la investigación cuali y cuanti. Rol del investigador. Muestra.
Método.
3. Qué es una entrevista? Describa brevemente Texto olabuénaga
4. Qué es el muestreo teórico? Qué relación tiene con la entrevista?
Texto muestreo
2009 Parcial A
1) Que es un tipo construido? Texto mcKinney
2) Cuales son las etapas del análisis cualitativo? Describir cada una de ellas
con sus subetapas TEXTO RODRIGUEZ GÓMEZ
3) Cuales son las relaciones que se establecen entre el grado de implicación
del observado y los niveles de ocultamiento/ revelación de la actividad de
observación?

1 de 107
Unidad 1 Medición y Obtención de Información
La metodología es una reflexión acerca de los métodos y la utilización de las técnicas.
Los objetivos que el investigador se plantea lo llevan a tal o cual método o técnica. Hay que
analizar críticamente las posibilidades de cada método y técnica para avanzar hacia los objetivos de
manera correcta (clave de la metodología).
Método (Camino) ≠ Metodología (reflexión) ≠ Técnicas (que se utilizan).
La investigación científica es un tipo de investigación o forma de conocimiento que es sistemática y
controlada; es una actividad constante y planificada la cual implica una serie de etapas articuladas (etapas
del proceso de investigación)
Se caracteriza por la construcción de evidencia/referencia empírica (el dato se construye en el
proceso de inv). La construcción de ésta responde/ está subordinada a los objetivos de la investigación.
Por otro lado, esta construcción está elaborada a partir de teoría y, además, aplica reglas (métodos y
técnicas) y procedimientos que explicitan (pasos/ etapas de la inv).
En las estrategias cuantitativas, la manera en la que captamos o construimos el referente empírico
responde al problema de la medición.

Proceso de investigación  Tres grandes meta etapas.


1) Interrogante Construcción de evidencia empírica.
 Problema. Medición
 Métodología ¿Qué técnicas e instrumentos de recolección
 Preguntas vamos a usar? (cómo vamos a ir a construir los
 Objetivos. datos).
Fiabilidad y validez (solidez de la evidencia
 Hipótesis.
empírica).
 Diseño (tipo de inv)
Elaboración de los datos.

Respuesta al problema / interrogante.


Análisis de los datos/ de la información (datos organizados y articulados con algún
sentido). Este análisis nos permite:
Sacar conclusiones que nos permiten dar respuestas. Así, llegamos a los objetivos.

Matriz de datos = Base de datos.


Una matriz de datos es una herramienta que organiza los datos. Dado que los datos poseen
una estructura tripartita (unidad de análisis, variables y categorías), en la matriz aparecen estos
tres elementos.
Variables
Unidad de análisis Sexo Nivel de instrucción …
X V PC
Y M SI
W M UC
Z V PI
… … …

VALOR (los cuento y los vuelco en un cuadro).

Nivel de instrucción
PI P S T
C Dónde 1= a la cantidad
V 1 1 2 de unidades de análisis
que corresponden a la
intersección entre ambas
2 de 107
variables.
Sexo M
T

La recolección de datos y la medición en sociología


Los objetivos que se plantea el investigador son los que marcan cuál estrategia se va a utilizar. Las
estrategia puede ser cuantitativa, cualitativa o mixta (triangulación). Una vez que el investigador ha
seleccionado/ tomado todas las decisiones correspondientes a la primer etapa del proceso de investigación,
procede a la segunda etapa que tiene que ver con la recolección de los datos. Recolectar datos implica
tres actividades:
1. Seleccionar un instrumento o método de recolección de los datos o desarrollar uno. Este
instrumento debe ser válido y confiable.
2. Aplicar ese instrumento o método para recolectar datos. Es decir, obtener observaciones, registros
o mediciones de variables, sucesos, contextos, categorías u objetos que son de interés para el estudio.
3. Preparar observaciones, registros y mediciones obtenidas para que se analicen correctamente.
En la estrategia cuantitativa, recolectar los datos equivale a “medir”. Entonces ¿Qué significa medir
en sociología? Se define a la medición como el proceso de vincular conceptos abstractos con indicadores
empíricos. Este proceso se realiza mediante un plan explícito y organizado para clasificar los datos
disponibles, en términos del concepto que el investigador tiene en mente. En este proceso, el instrumento
de medición o de recolección de datos juega un papel central puesto que sin él no hay observaciones
clasificadas. Los registros del instrumento de medición representan valores observables de conceptos
abstractos. Un instrumento de medición adecuado es aquel que registra datos observables que representan
verdaderamente los conceptos o variables que el investigador tiene en mente.
La medición entonces es el momento en el que estamos construyendo el dato; siendo el registro el
acto concreto de medición. Medir tiene que ver con ubicar las unidades de análisis en las categorías de la
variables; se relaciona con la vinculación de los conceptual abstracto con referentes empíricos. En toda
medición aparecen 3 elementos: el observador, el observado y el instrumento.
Ahora bien, esto es válido para la estrategia cuantitativa. ¿Qué sucede en la estrategia cualitativa?
Hay 3 posturas diferentes en torno a la problemática sobre Medición, a saber:
1. Rechazo de la posibilidad de cuantificar los fenómenos sociales.
2. Todo fenómeno social puede ir recortándose en variables. La vida social aparece como una
yuxtaposición de variables. En este caso, no se plantea ninguna dificultad en torno a la medición de los
problemas sociales.
3. Hay que comprender la relatividad de la medida (a ésta adhiere la cátedra).

En la estrategia cuantitativa tenemos:


 Operacionalización
 Técnica de elaboración de datos Encuesta.
 Método de recolección de datos  Cuestionario (rígido).
 Selección de datos  muestreo estadístico.
 Organización del trabajo de campo  procesamiento de los datos (organizar la info en
cuadros) Análisis.
En la estrategia cualitativa, tenemos:
 Para la cátedra, en lo cuali se busca una mirada más holística (no fragmentaria). Se habla de una
posición situacional de las personas. Se mira como conjunto o constelación de variables. En esta
investigación aparecen entonces:
 Técnica de elaboración de datos Observación.
 Entrevista.
 Método de recolección de datos  Guía de observación (carácter reflexivo. Uno puede observar
algo significativo y tomarlo para la segunda observación).
 Guía de la entrevista (puedo tener preguntas orientadoras
o mención de áreas temáticas. Busco construir un relato).
 Selección de datos orientada teóricamente (en relación a los objetivos. Hay una selección
intencionada). La selección está fundamentada.

3 de 107
 Muestreo teórico conjunto de casos luego de la saturación teórica.
Acá, el tamaño de la muestra no es a priori como en lo cuanti. Decido que una categoría está saturada
cuando de la lectura analítica veo que ya no hay más propiedades.
 Análisis  a partir de lo anterior, podemos decir que recolección y análisis están
muy ligados. Cuando decido que la categoría está saturada, vuelvo a leer las entrevistas y continúo con el
análisis.

La calidad del proceso de investigación depende  Diseño.


 Calidad de los procedimientos de medición.
El investigador debe saber ¿Cuál el es alcance conceptual de la variable a medir?
 ¿Cuándo y dónde realizamos la medición?

Requisitos que debe de reunir la medición en la investigación cuantitativa.


Toda medición o instrumento de recolección de datos debe reunir dos requisitos: la validez y la
confiabilidad. El instrumento de medición es el recurso que utiliza el investigador para registrar
información o datos sobre las variables que tiene en mente.
La confiabilidad del instrumento se refiere al grado en que su aplicación repetida al mismo sujeto
u objeto produce resultados iguales. La validez se refiere al grado en que un instrumento realmente mide
la variable que pretende medir.
Validez
Hay diferentes maneras de mirar la validez. Wainerman realiza una distinción entre “Validez de las
mediciones” y “Validez de los resultados”. La primera alude al grado de coincidencia entre los que se
quiere medir y lo que efectivamente se ha medido; es decir, alude a la relación entre conceptos e
indicadores. Esta es el tipo de validez que ya hemos mencionado más arriba. Por validez de los resultados,
se alude a cuán espurias son las inferencias hechas a partir de los datos (las mediciones).
Campbell y Stanley, considerando la segunda acepción de la validez (de los resultados) distinguen entre
validez interna y validez externa.
La validez interna refiere a la coherencia o consistencia dentro de la propia investigación. Tiene que ver
con lo conceptual o, mejor dicho, con la coherencia conceptual; desde la negativa, no hay que tener
contradicciones conceptuales.
La validez externa refiere a la posibilidad de generalizar los resultados que hemos obtenido en la
investigación. Tiene que ver con la representatividad o la posibilidad de generalizar los resultados a otras
poblaciones.
Ahora bien, en cuanto a la “Validez de las mediciones” podemos distinguir entre: validez de contenido,
validez de criterio, validez de constructo y validez predictiva.
La validez de contenido se refiere al grado en que un instrumento refleja un dominio específico de
contenido de lo que se mide. Es el grado en el que la medición representa al concepto medido. En otras
palabras, hace referencia a que la totalidad o dominio de aspectos o
facetas que tiene la propiedad de la variable estén especificados y contemplados en la medición. Ej.
Desarrollo humano Definición conceptual
Longevidad / Educación / Ingresos.
Conj de indicadores para medir
xxx xxx xxx
los tres aspectos. Si no los mido
 no hay validez.
La validez de criterio establece la validez de un instrumento de medición comparándola con algún
criterio externo. Este es un estándar con el que se juzga la validez del instrumento. Cuanto más se
relacionen los resultados del instrumento de medición con el criterio, la validez de criterio será mayor.
Entonces, esta validez tiene que ver con comparar los datos (la medición hecha) con algún criterio
u otra medida que ha sido considerada, en general, válida, a esta última medición la tomo como referente
válido. Ej. ¿Cómo valido una encuesta pre electoral? Tomo como referencia la elección misma. Ergo,
contrasto mi medición con otra que tomo como referente válido que estén próximos en el tiempo!
La validez de constructo se refiere al grado en el que una medición se relaciona de manera consistente
con otras mediciones, de acuerdo con hipótesis derivadas teóricamente y que conciernen a los conceptos o
constructo que se están midiendo. Un constructo es una variable medida y que tiene lugar dentro de una
teoría o esquema teórico. Incluye tres etapas: 1) Se establece y especifica la relación teórica entre los
conceptos (sobre la base del marco teórico); 2) se correlacionan ambos conceptos y se analiza

4 de 107
cuidadosamente la correlación) y 3) se interpreta la evidencia empírica de acuerdo con el nivel en el que
clarifica la validez de constructo d una medición en particular.
El proceso de validación de un constructo está vinculado con la teoría (o, investigaciones que hayan
demostrado que los conceptos se relacionan). Cuanto más elaborado y comprobado se encuentre el MT
que apoya la hipótesis, la validación de este tipo arrojará mayor luz sobre la validez de un instrumento de
medición.

Confiabilidad.
Tiene que ver con que la aplicación de un mismo instrumento arroje los mismos resultados (o
similares) cuando es aplicado en dos mediciones diferentes bajo la misma situación.
El concepto de confiabilidad implica “estabilidad” (comparación de los resultados a lo largo del
tiempo) y “equivalencia” (diferentes investigaciones, en las que se aplica e mismo instrumento, referidas
al mismo problema, en un mismo tiempo, deben arrojar iguales resultados).

Requisitos que debe de reunir la medición en la investigación cualitativa.


Hammersley distingue tres posiciones frente a la posibilidad de evaluar la robustez de las
mediciones en la investigación cualitativa: (texto Valles)
1. La postura de los que aplican a la investigación cualitativa los mismos criterios que se emplean en
la investigación cuantitativa.
2. La postura de quienes argumentan que los criterios usados por los investigadores cuantitivistas
deben redefinirse y, a ser posibles, sustituirse por unos adecuados a la investigación cualitativa. Podemos
evaluar un trabajo cualitativo según su grado de: Producción de teoría formal, Consistencia con las
observaciones empíricas, Credibilidad científica, Producción de hallazgos generalizables o transferibles a
otros contextos, Reflexividad o autoconciencia de los efectos que el investigador y la estrategia de
investigación provoca en los resultados obtenidos, Cantidad de información sobre el proceso de
investigación que se proporciona a los lectores.
3. La postura de los que rechazan cualquier clase de criterios, debido a la naturaleza de la
investigación cualitativa (no persigue conocimiento verdadero o absoluto) y a que descreen que los
criterios evaluativos produzcan verdades despejadas de toda duda.
Valles también menciona los Criterios de Calidad propuestos por Erlandson y otros.
Estos son: Criterios de confiabilidad; Criterios de autenticidad; y, Criterios éticos. En el primer grupo de
criterios encontramos los criterios de validez y confiabilidad de la metodol cuanti. Respecto a éstos, se han
propuesto algunos criterios buscando la adecuación con la inv cuali.
“Criterios de Confiabilidad”
Cuantitativos Criterio de referencia Cualitativos
Validez interna VERACIDAD Credibilidad
Validez externa GENERALIZACION Transferibilidad
Fiabilidad CONSISTENCIA Dependibilidad

La credibilidad se relaciona con el uso que se haya hecho de un conjunto de recursos técnicos (como ser
el tiempo y la intensidad de las observaciones, la revisión de la información, etc.). La transferibilidad se
logra, sobre todo, a través de los diversos procedimientos de muestreo cualitativo. La dependibilidad se
hace operativa mediante una suerte de auditoria externa. Para ello el inv cuali debería facilitar la
documentación que haga posible tal inspección: guiones de entrevista, transcripciones y todo tipo de
documentos en los que se pueda seguir el rastro de su trabajo intelectual.
El profe mencionó:
Legitimidad de los hallazgos: de la cual se da cuenta mediante la selección del escenario objeto de
observación y los criterios de selección del conjunto de entrevistados.
 Relato natural de la investigación: el investigador debe poder dar cuenta de cómo fue construyendo
su investigación; por Ej. debe explicitar porqué fueron seleccionadas determinadas personas y con qué
criterios se las seleccionó, cuáles son sus características, etc. (se rel. con la dependibilidad).

Factores que afectan la confiabilidad y validez.


Hay diversos factores que llegan a afectar la confiabilidad y la validez de los instrumentos de medición:
1. Improvisación hay que conocer muy bien la variable a medir y la teoría que la sustenta puesto
que la improvisación genera casi siempre instrumentos poco válidos o confiables.

5 de 107
2. A veces se utilizan instrumentos desarrollados en el extranjero que no han sido validados para
nuestro contexto: cultura y tiempo. Las culturas, los grupos y las personas cambian y esto debemos
tomarlo en cuenta al elegir o desarrollas un instrumento de medición.
3. Constituido por las condiciones en las que se aplica el instrumento de medición. Por Ej. frío,
ruido, aspectos mecánicos (que no se lea bien, que falten hojas, etc.), etc.
Hernández Sampieri – Metodología de la Investigación.

¿Qué implica la etapa de recolección de datos?


Recolectar datos implica tres actividades vinculadas.
a) Seleccionar un instrumento o método de recolección de los datos. Debe ser valido y confiable.
b) Aplicar ese instrumento para recolectar datos. Obtener observaciones, registros, etc.
c) Preparar observaciones, registros y mediciones obtenidas.
En el enfoque cualitativo, los datos se recolectan en dos etapas: durante la inmersión inicial en el campo
o contexto del estudio y en la recolección definitiva de los datos.
En los estudios cualitativos, el procedimiento usual es aplicar un instrumento o método de recolección
de datos, cuya esencia sea también cualitativa, pero se podría tener algún elemento cuantitativo. En un
estudio cuantitativo casi siempre se utiliza un instrumento que mida las variables de interés, aunque
también podría contener algún elemento cuantitativo.
Bajo la perspectiva cuantitativa, recolectar los datos es equivalente a “medir”
¿Qué significa medir?
Es el proceso de vincular conceptos abstractos con indicadores empíricos, el cual se realiza mediante un
plan explicito y organizado para clasificar los datos disponibles, en términos del concepto que el
investigador tiene en mente. En este proceso, el instrumento de medición o de recolección de datos juega
un papel central. Sin el, no hay observaciones clasificadas.
Los registros del instrumento de medición representan valores observables de conceptos abstractos. “…
Un instrumento de medición adecuado es aquel que registra datos observables que representan
verdaderamente los conceptos o las variables que el investigador tiene en mente…”
No hay medición perfecta, pero es un hecho que debemos acercarnos lo mas posible a la representación
fiel de las variables a observar, mediante el instrumento de medición que desarrollemos.
¿Qué requisitos debe cumplir un instrumento de medición?
Todo instrumento de medición debe reunir dos requisitos esenciales: confiabilidad y validez.
La confiabilidad de un instrumento se refiere al grado en que su aplicación repetida al mismo sujeto u
objeto produce resultados iguales. Se determina mediante diversas técnicas.
La validez, se refiere al grado en que un instrumento realmente mide la variable que pretende medir. La
validez es un concepto del cual pueden tenerse diferentes tipos de evidencia:
1) Evidencia relacionada con el contenido: La validez de contenido se refiere al grado en que un
instrumento refleja un dominio específico de contenido de lo que se mide.
2) Evidencia relacionada con el criterio: La validez de criterio establece la validez de un instrumento de
medición comparándola con algún criterio externo.
3) Evidencia relacionada con el constructo: Es la más importante, y se refiere al grado en el que una
medición se relaciona de manera consistente con otras mediciones, de acuerdo con hipótesis demarcadas
teóricamente y que conciernen a los conceptos que se están midiendo.
El proceso de validación de un constructor esta vinculado con la teoría. No es posible llevar a cabo la
validación de constructor, a menos que exista un marco teórico que soporte la variable en relación con
otras variables. No es necesaria una teoría muy desarrollada, pero si investigaciones que haya demostrado
que los conceptos se relacionan.
La validez de un instrumento de medición se evalúa sobre la base de estos tres tipos de evidencia. Un
instrumento puede ser confiable pero no necesariamente valido.
Factores que pueden afectar la confiabilidad y validez: El primero de ellos es la improvisación. Algunas
personas creen que elegir un instrumento de medición o desarrollar uno es algo que puede tomarse a la
ligera. Esto genera casi siempre instrumentos poco validos o confiables, y no debe existir en la
investigación.
Otro factor es conocido como la traducción de un instrumento. A veces se utilizan instrumentos
desarrollados en el extranjero que no han sido validados para nuestro contexto: Cultura y tiempo.
Otro factor es que en ocasiones el instrumento resulta inadecuado para las personas a quienes se les
aplica: no es empático. Utilizar un lenguaje muy elevado, no tomar diferencias en cuanto al sexo, edad,
etc. son errores que llegan a afectar la validez y confiabilidad del instrumento de medición.

6 de 107
El ultimo factor que puede influir esta constituido por las condiciones en las que se aplica un
instrumento de medición. Condiciones climáticas, un instrumento de medición demasiado largo o tedioso,
son cuestiones que afectan negativamente a la confiabilidad y validez.
¿Cómo se sabe si un instrumento de medición es confiable y valido?
En la práctica es casi imposible que una medición sea perfecta. Generalmente se tiene un grado de error.
¿Cómo sabemos el grado de error que tenemos en una medición?
Los procedimientos mas utilizados para determinar la confiabilidad mediante un coeficiente (que oscila
entre 0 y 1) son:
1 – Medida de estabilidad. Un mismo instrumento de medición se aplica dos o más veces a un mismo
grupo de personas, después de cierto periodo. Si la correlación entre los resultados de las diferentes
aplicaciones es altamente positiva, el instrumento se considera confiable.
2 – método de formas alternativas o paralelas. En este procedimiento no se administra el mismo
instrumento de medición, sino dos o mas versiones equivalentes de este. El instrumento es confiable si la
correlación entre los resultados de ambas administraciones es positiva de manera significativa.
3 – método de mitades partidas. El conjunto total se divide en dos mitades y se comparan las
puntuaciones. Si el instrumento es confiable, las puntuaciones de ambas mitades deben estar muy
correlacionadas.
4 – Coeficiente de alfa de Cronbach. Este coeficiente requiere una sola administración del instrumento
de medición y produce valores que oscilan entre 0 y 1.

Calculo de validez. Resulta complejo obtener la validez de contenido. Primero, es necesario revisar
como ha sido medida la variable por otros investigadores. Y con base en dicha revisión, elaborar un
universo de ítems posibles para medir la variable y sus dimensiones. Se seleccionan los ítems bajo una
cuidadosa evaluación.

Miguel Valles – Reflexión metodológica y practica profesional

Hasta en los estudios cualitativos se suele diferenciar una fase de recogida (y análisis preeliminar) de la
fase de análisis intenso. La relación mas estrecha (interactiva o concurrente) entre la recogida y el análisis
suele darse en los estudios cualitativos que practican el procedimiento del muestre teórico.
Debe insistirse en que no todos los investigadores “cualitativos” buscan criterios alternativos con los que
evaluar su trabajo. Esta es, sin duda, una de las cuestiones mas disputadas y que permite apreciar mejor el
continuo de posturas.
Hammersley identifica tres posiciones básicas entre los etnógrafos.
A) La postura de los que aplican a la investigación cualitativa, los mismos criterios que se emplean en la
investigación cuantitativa. A saber: Los conceptos de validez interna y externa, que toman como modelo
de investigación a la lógica experimental.
B) La postura de quienes argumentan que los criterios usados por los investigadores cuantitativistas
deben redefinirse y a ser posible sustituirse por unos adecuados a la investigación cualitativa.
C) La postura de los que rechazan cualquier clase de criterios, debido a la naturaleza de la investigación
cualitativa.
Dejando de lado posiciones extremas, como esta ultima, se aprecia una coincidencia destacable en los
investigadores cuali y cuanti en cualquier punto del contiunuum. Unos y otros parecen afanarse en la
mejora de los estándares de calidad de investigación social.
Se tome el camino que se tome, la disciplina metodológica acaba siendo una exigencia de cualquier acto
de investigación.
Straus y Corbin presentan criterios para evaluar los estudios realizados de acuerdo a las líneas maestras
de la grounded theory.
1) Criterios de confiabilidad
2) Criterios de autenticidad
3) Criterios éticos.
Los criterios del primero grupo son los que han recibido una mayor atención, dado que en dicho
conjunto se encuentran los criterios de validez, y fiabilidad desarrollados desde la metodología
cuantitativa.
La credibilidad de un estudio cualitativo se relaciona con el uso que se haya hecho de un conjunto
recursos técnicos (duración e intensidad de la observación en el contexto estudiado, triangulación de datos,
etc.)

7 de 107
La transferibilidad se logra, sobre todo, a través de los diversos procedimientos de muestreo cualitativo,
en contraposición a los procedimientos cuantitativos de muestreo probabilístico. Mientras que la
dependibilidad se hace operativa mediante una suerte de auditoria externa. Para ello el investigador
cualitativo debería facilitar la documentación que haga posible tal inspección: guiones de entrevista,
transcripciones y todo tipo de documentos en los que se pueda seguir el rastro de su trabajo intelectual.
El segundo y tercer grupo de “criterios de calidad”, no tienen que ver tanto con la adecuación
metodológica como con los esfuerzos del investigador por conseguir y mantener unas relaciones
negociadas, renegociadles a lo largo del proceso de investigación, favorables a los contextos y personas
estudiados.
Se considera que los códigos éticos establecidos en los estudios tradicionales adquieren un carácter
diferente en las manos de los investigadores cualitativistas.

Unidad 2 Recolección y Producción de datos primarios en las estrategias cualitativas. Las técnicas
e instrumentos de recolección.

1) MEDICION Y OBTENCION DE INFORMACION


Recolección de datos:
Esta Tarea implica tres actividades estrechamente vinculadas entre si:
1. Seleccionar un instrumento o método de recolección de los datos entre los disponibles en el
área de estudio en la cual se inserte nuestra investigación, o desarrollar una. Este instrumento debe
ser valido y confiable, de lo contrario no podemos basarnos en sus resultados.
2. Aplicar ese instrumento o método para recolectar datos. O sea, obtener registros,
observaciones, categorías, objetos, etc. que son de interés para nuestro estudio.
3. Preparar observaciones, registros y mediciones obtenidas para que se analicen
correctamente.
En el enfoque cualitativo por lo común los datos se recolectan en dos etapas: durante la inmersión inicial
en el campo o contexto del estudio y en la recolección definitiva de los datos. Por otro lado, en el enfoque
cuantitativo recolectar los datos significa medir.

MEDICION. ¿Qué significa?


A diferencia de las ciencias físicas que entienden por medir, asignar números a objetos y eventos de
acuerdo con reglas. Las ciencias sociales entienden por medir un proceso en el cual se vinculan conceptos
abstractos con indicadores empíricos. Pero para medir se debe conocer lo que se quiere medir, es necesario
especificar que se esta comprendiendo y que se entiende de nuestro objeto de estudio.
Para realizar el proceso de medir es necesario y fundamental el instrumento de medición o de recolección
de datos. Un instrumento de medición adecuado es aquel que registra datos observables que representan
verdaderamente los conceptos o las variables que el investigador tiene en mente. En términos
cuantitativos, capturo verdaderamente la realidad que deseo capturar.
Por lo cual el instrumento de medición es el recurso que utiliza el investigador para registrar
información o datos sobre las variables que tiene en mente.
Es necesario que toda medición o instrumento de recolección de datos cumplan con dos requisitos
esenciales:
-Confiabilidad: la confiabilidad de un instrumento de medición se refiere al grado en que su aplicación
repetida al mismo sujeto u objeto genera resultados iguales.
-Validez: Este concepto se refiere al grado en que un instrumento realmente mide la variable que pretende
medir.

La validez puede tener distintos tipo de evidencias:


1-Evidencia relacionada con el contenido.
2-Evidencia relacionada con el criterio.
3-Evidencia relacionada con el constructo.
1- Esta refiere al grado en que un instrumento refleja un dominio específico de contenido de lo que
se mide. Es el grado en el que la medición representa al concepto medido.
2- Esta se refiera a establecer la validez de un instrumento de medición comparándola con algún
criterio externo. Ese criterio es un estandar con el que se juzga la calidez del instrumento.
3- Esta se refiere al grado en el que una medición se relaciona de manera consistente con otras
mediciones, de acuerdo con hipótesis determinadas teóricamente y que conciernen a los conceptos

8 de 107
( o constructor) que se estan midiendo. Un constructo es una variable medida y que tiene lugar
dentro de una teoría o un esquema teórico.
Esta validez incluye tres etapas:
- Primero, se establece y especifica la relación teórica entre los conceptos.
- Segundo, se correlacionan ambos conceptos y se analiza su correlación.
- Tercero, se interpreta la evidencia empírica.

Por lo tanto se puede concluir con que un instrumento de medición debe ser confiable y valido, de no ser
así los resultados de la investigación no deben tomarse en serio.
Hay factores que afectan la validez y la confiabilidad:
- Uno es la improvisación, que genera casi siempre instrumentos poco validos o confiables y no
debe existir en la investigación.
- Otro es la utilización de instrumentos desarrollados en el exterior que no han sido validos para
nuestro contexto (cultura y tiempo).
- Como tercer factor, es la utilización de instrumentos que resultan inadecuados para las personas a
quienes se le aplica, no es empatico. Por ejemplo utilizar lenguaje muy elevado para el
encuestado, no tomar en cuenta ciertas diferencias como el sexo, nivel educativo, edad, etc.
- Otro factor esta constituido por las condiciones en las que se aplica el instrumento de medición.
Por ejemplo, el frió, el ruido, una encuesta telefónica, un instrumento demasiado largo y tedioso,
etc.
Hay que tener en cuenta también que es casi imposible que sea perfecta. Generalmente se trabaja con un
grado de error, desde luego se trata de que ese error sea el mínimo posible. Es importante que el error se
reduzca lo más posible, para darnos cuenta del grado de error es necesario calcular la validez y
confiabilidad.

2) UTILIZACION DE DATOS SECUNDARIOS


La distinción entre análisis primario y secundario puede hacer en términos de cómo se encara la
investigación. Depende de la utilización de datos, hay dos tipos de datos, los primarios que son los
generados por mí a trabes de una encuesta, que me permite recoger los datos, los proceso y analizo
produciendo un informe, de esta manera estoy realizando un análisis primario. Y también se encuentran
los datos secundarios estos son los datos a los cuales recurro de otras investigaciones. Por lo tanto son
datos formados en otras investigaciones, a las cuales les extraigo los datos los reanalizo y obtengo mis
propios resultados, de esta manera realizo un análisis secundario.
La facilidad que otorga la utilización de datos secundarios es económica por excelencia, producir datos
primarios en términos económicos es muy costoso, temporal y organizativamente también. Por lo cual
generalmente se facilita la investigación, produciendo datos secundarios, pero la utilización de estos con
lleva a problemas metodológicos, teóricos y técnicos, que el usuario debe ser muy conciente, si no quiere
caer en riesgos interpretativos grabes.
Es necesario tener en claro el objetivo de la investigación primaria y nuestros propios objetivos, y es
fundamental la credibilidad de la fuente de información de donde extraemos los datos secundarios.
Siempre es mas recomendable tomar los datos de instituciones con larga experiencia en recogida de datos
un ejemplo el INDEC.
El investigador de datos secundarios debe evaluar con detalle los datos como tales, planteándose las
mismas preguntas que el investigador de los datos primarios. La pregunta esencial debe referirse a si la
información disponible cubre o no y en que grado nuestras preguntas de investigación. Por lo cual es
necesario tener una documentación detallada y lo mas completa posible sobe los datos del estudio original.

Un mecanismo para mejorar la validez de los datos secundarios es la triangulación esta consiste en utilizar
varias fuentes para obtener la misma información, con la intención de ver si existe concordancia en los
datos y resultados de la misma. Aumenta la fiabilidad cuando distintas fuentes concuerdan en los datos.
VENTAJAS:
-Los datos secundarios no solo se entienden como cifras y números, sino también como rastros del pasado
incluyendo imágenes, textos, obras de arte, etc. De esta manera los datos secundarios nos permiten
comprender el pasado, ahora bien no se trata solo de estudiar y entender el pasado sino también de
entender el presente y el futuro, a través del estudio del cambio social y cultural.
-Otra ventaja es que el investigador puede obtener los datos de grandes bancos de datos donde se
encuentran almacenadas.

9 de 107
-Otra gran ventaja es que la utilización de datos secundarios es mucho mas barato que generar nuestros
propios datos.
-Reduce diversos costos de la investigación, como dijimos anteriormente económico, pero también
personal y tiempo. Es mas los datos generados en estos bancos generadores, son mas confiables que los
datos producidos por el investigador, porque estas instituciones se dedican a esto y tiene mucha
experiencia.
-Otra gran ventaja es podemos replicar y reanalizar estos datos desde otras perspectivas que permite un
enriquecimiento de la disciplina científica.

INCONVENIENTES:
-Si bien dijimos que en la anualidad hay una buena accesibilidad a grandes bases de datos, al investigador
de datos secundarios puede presentársele el problema de que la información que necesite para cubrir los
objetivos de su investigación no este disponible, ya sea porque no existe o porque no es utilizable por otras
razones distintas.
-Otro inconveniente es el factor tiempo, estos están por definición desfasados temporalmente.
Dependiendo del tipo de estudio que planteamos, la fecha puede convertirse en un inconveniente mas o
menos grabe.
-Es necesario la fiabilidad, unas fuentes son mas fiables que otras, puede suceder que los datos originales
contengan errores no identificables por el usuarios de los datos secundarios.
FUENTES DISPONIBLES:
-Documentos y estadísticas oficiales.
-Documentos y estadísticas privadas.
-Fuentes internacionales de uso frecuente, por ejemplo OCDE (Organización de cooperación y desarrollo
económico).
-Hasta ahora eh planteado fuentes en papel, hoy también se puede acceder a fuentes de todas partes por
medio de Internet.

Datos Primarios y Secundarios


Una de las decisiones metodológicas que tiene que tomar el investigador es la de seleccionar el tipo de
datos con los que se van a trabajar. El investigador puede trabajar con datos primarios o datos secundarios.
Los datos primarios son aquellos generados/producidos en su investigación. Los datos secundarios son
aquellos generados / producidos por fuera y antes del desarrollo de su investigación. Los criterios de
selección de los datos secundarios vienen dictador por el marco teórico/conceptual del estudio.
Los dos tipos de datos suponen actividades diferentes en el proceso de investigación.

Los datos secundarios.


El rasgo distintivo de la utilización de datos secundarios reside en que la información (los datos)
ha sido generada por otras personas. Hay distintos tipos de fuentes secundarias o datos secundarios; a
saber:
1. Documentos son determinadas fuentes de información a partir de las cuales se pueden extraer
elementos (datos) que sirven para la investigación. Ej. Cartas personales, diarios personales, historias de
vida, autobiografías, etc.
2. Registros anotaciones que tienen que ver o que se realizan en función de un conjunto de
actividades propias de la vida urbana y que no necesariamente están ligados a procesos de investigación
rigurosos. Están asociados a cuestiones administrativas, normativas, etc. Ej. padrones electorales, registros
impositivos, etc.
3. Censos y encuestas Censo de población características básicas (sexo, edad, etc)
 EPH
 Censos económicoshay variables incluidas que tienen que ver con la
población que trabaja en las unidades económicas.
 Censos agropecuarios.
 ETC.
Ahora bien, si uno va a utilizar datos secundarios debe conocer el proceso de formación de los datos que
va a utilizar para así poder decidir sobre la calidad y adecuación de los mismos. Esto es así puesto que
como no se elaboraron específicamente para la investigación en cuestión, el investigador no puede aplicar
los criterios de validez y confiabilidad con los que está trabajando. Entonces, si uno va a trabajar con datos

10 de 107
secundarios, tiene que tener en cuenta lo siguiente para evaluar la información con que se vaya a trabajar
(texto Gonzáles Rodríguez):
 Adecuación de los datos secundarios como estrategia metodológica la primera reflexión que
debe realizar el investigador es ver si el análisis secundario es la estrategia metodológica adecuada para
manejar el problema de investigación que va a desarrollarse. Esto es, el investigador tiene que poder
decidir si puede o no medir los conceptos que desea recurriendo a dicha estrategia metodológica. Para ello,
el investigador debe poseer un conocimiento profundo de su área de investigación (conocimiento de la
bibliografía y revisión bibliográfica)
 Importancia del análisis de los objetivos el investigador debe reflexionar sobre cuestiones
concretas referidas al tema de investigación. Una de las preguntas a plantearse refiere al objetivo del
estudio original y su comparación con nuestro estudio. Puede suceder que, si los estudios difieren
sustancialmente en cuanto al planteamiento teórico, los datos no nos sirvan o porque no fueron recogidos
o porque no podemos combinarlos adecuadamente para satisfacer nuestra necesidad de información. En
síntesis, la fuente a utilizar ¿Contempla mis objetivos?
 Credibilidad de la fuente de información una vez que tenemos claro el objetivo de la
investigación primaria y nuestros propios objetivos hemos de preguntarnos por la credibilidad de la fuente
de información. (algunas fuentes son más creíbles que otras).
 Credibilidad de los datos secundarios evaluada la fuente, el investigador debe evaluar con
detalle los datos como tales, planteándose las mismas preguntas que el investigador de datos primarios. La
pregunta esencial debe referirse a si la información disponible cubre o no y en qué grado nuestras
preguntas de investigación. Otra pregunta importante es la de saber si las categorías de respuesta fijadas en
la investigación primaria resultan adecuadas para nuestros fines. (¿Qué variables se incluyen? (para saber
si las de mi investigación están allí). También ver si el sistema de categorías de las variables está acorde al
nivel de desagregación que hay en la fuente: ¿tiene la exhaustividad que mi investigación requiere? Hay
que revisar la definición de las variables y los conceptos utilizados en la fuente de datos. Hay que ver en
qué grado se aproximan a mis definiciones y si se mantuvieron a lo largo de tiempo.)
Necesitamos disponer del instrumento de recolección, debemos saber cómo se recogió la
información, cómo se procesó, qué tratamiento estadístico se hizo, cómo se manejaron los datos missing y
cuáles fueron las categorías de respuesta y las clasificaciones de las variables;
Debemos conocer los aspectos básicos del muestreo: tipo de muestra, tamaño, errores maestrales,
unidad de análisis, posibilidad de generalizar los resultados, etc.
Otro aspecto a considerar se refiere al tiempo o momento en que se recogieron los datos.
Dependiendo del tipo de investigación secundaria que planteemos, el tiempo tendrá mayor o menos
importancia (muy importante en investigaciones de actitudes por ejemplo)
 La triangulación como mecanismo para mejorar la validez el investigador de datos secundarios
debe tratar de utilizar varias fuentes para obtener la misma información, con el fin de comprobar si existe
concordancia en los datos y resultados de las mismas. Aumenta la fiabilidad cuando distintas fuentes
concuerdan con los datos.

Ventajas de los datos secundarios.


1. Costo y tiempo. El acceso a los datos secundarios ha sido en general más barato que la
generación de datos primarios.
2. Los datos secundarios constituyen un buen arranque para buscar ideas e hipótesis de
investigación y mejorar la calidad del proyecto que estamos planteando.
3. Los datos secundarios pueden utilizarse para una amplia gama de diseños de
investigación.
4. Los datos secundarios pueden servir como fuente de datos comparativos mediante la cual
pueden interpretarse y evaluarse los datos primarios.

Desventajas de los datos secundarios.


1. Disponibilidad si bien en la actualidad hay una buena accesibilidad a grandes bases de datos, al
investigador de datos secundarios puede presentársele el problema de que la información que necesita para
cubrir los objetivos de su investigación no esté disponible, ya sea porque no existe o porque es inutilizable
por otros motivos. Por Ej. pueden existir los datos pero a un grado de desagregación distinto del que
necesitamos.

11 de 107
2. El tiempo de consecución si bien suele tardarse menos tiempo en obtener información basada en
datos existentes que en generar la propia, es conveniente prever un margen hasta que se logre la
información que se necesita: ésta debe localizarse, debe ser preparada de acuerdo con el contenido y
formato pedido, etc. otra consideración respecto al tiempo es la siguiente. Los datos secundarios están
desfasados temporalmente. Dependiendo del tipo de estudio que planteemos, la fecha de los datos puede
convertirse en un inconveniente.
3. El grado en que se ajustan a las necesidades de información del proyecto: adecuación.
4. Calidad de los datos al buscar datos secundarios es necesario valorar con detalle si cumplen,
tanto los datos como la fuente, con los requisitos mínimos de calidad, en términos de fiabilidad y validez.
Más aún, hay que ver si hubo cambios en los procedimientos de recogida de datos.

“La utilización de los datos disponibles” – Benjamín González Rodríguez

Muchas veces el investigador social se ve imposibilitado a la hora de investigar en producir sus propios
datos, sea por una cuestión financiera o temporal. El objetivo del análisis es sugerir pistas para el manejo
adecuado de los datos secundarios.
Ante todo la utilización de datos secundarios es una técnica o procedimiento de investigación, en la cual se
intentan obtener datos de documentos escritos o no escritos, con el propósito de ser utilizados en una
investigación concreta. Cuando se recurra a este procedimiento hay que evitar el “hábito coleccionista”
(recolectar información abundante sin un propósito definido) o una “búsqueda a ciegas” (intentando que
los datos hablen por si mismos).

1- Preguntas iniciales ante una investigación basada en datos secundarios.


La investigación basada en esta técnica debe partir de una evaluación de la información que vaya a
utilizar, ya que se si esta falla la nueva investigación también. Por eso el investigador debe prestar
atención a las siguientes consideraciones:
 Debe centrarse en si el análisis secundario es la estrategia adecuada para manejar el problema de
investigación que va a desarrollar. Para ellos recurrirá a su ingenio, preparación y creatividad. Un
buen análisis de los datos secundarios implica un amplio conocimiento de la temática en cuestión,
en cuanto a la situación y nivel de desarrollo de la misma.
 Importancia del análisis de los objetivos. Ahora debe preguntarse sobre cuestiones mas especificas
al tema de investigación que le compete. Preguntas a cerca del objetivos, si se trata de algún
estudio descriptivo, exploratorio, evaluativos. Una vez que estos estan claros, la elección de los
datos a utilizar poseerá un margen de error menor. Lo mejor sería una vez elegidos dichos datos,
poder reanalizaros utilizando tecnicas o estrategias distintas, para poder rectificarlos, e inclusive
enriquecer el análisis.
 También debemos preguntarnos por la credibilidad de la fuente de información. Hay fuentes que
son mas fidedignas que otras. No serán los mismos datos los que provienes de instituciones que
poseen años, investigando, con profesionales especializados, que una consultora nacida hace poco
tiempo.
 Credibilidad de los datos secundarios. Evaluada la fuente, el investigador de datos secundarios
debe evaluar con detalle los datos como tales, planteándose las mismas preguntas que el
investigador de datos primarios. Tendrá que preguntarse si las categorías de respuestas fijadas en
la investigación primaria resultan adecuadas para la nuestra. Por otro lado preguntas a cerca del
muestreo: tipo de muestreo utilizado, marco muestral, tamaño de la muestra, unidad de ana, si
existen errores muestrales. Otra cuestión es la revisión del momento en el que se recogieron los
datos, el aspecto temporal, evaluando si estos datos son o no son útiles a nuestros fines.
 Triangulación como mecanismo para mejorar la validez. El investigador debe tratar de utilizar
varias fuentes para obtener la misma información, con el fin de comprobar si existe concordancia
en los datos. Aumenta la fiabilidad.

2- Ventajas e inconvenientes de la utilización de DS (datos seundarios)


VENTAJAS:
 Los DS constituyen un buen arranque para buscar ideas, hipótesis, mejorar su propio proyecto, así
como descubrir vacíos, lagunas para tratar de clarificarlos con los resultados de la investigación.

12 de 107
 Los DS posibilitan estudios transculuturales, en los que las sociedades enteras son su unidad de
análisis. Ej: Investigación transnacional, en los que un investigador aislado se ve imposibilitado de
recolectar el mismo los datos.
 Muchas veces cuando fuimos nosotros mismo los recolectores de los datos, podemos recurrir a DS
para poder ver el nivel de representatividad de la muestra. EJ: Si queremos ver el nivel
socioeconómico de una población, para poder vislumbrar si es representativa o no recurrimos a
investigaciones de tipo demográfico (es decir utilizaremos los recursos brindados de otra
investigación).
 Siempre que necesitamos comprender el presente, en ciencias sociales recurriremos al pasado.
Dado que los estudios longitudinales, muchas veces son complejos de llevar a cabo utilizando
fuentes primarias, recurriremos entonces a DS.
 A su vez la facilidad que tiene el investigador al acceso de investigación por la existencia de
bancos de datos. Sumado a que su costo es menor, y muchas veces la calidad de los datos es mas
fiable si recurrimos a organizaciones especializadas.
 Evitamos la “no reactividad o el efecto conejillo de indias”. Cuando los sujetos saben que están
siendo estudiados, el proceso mismo de mediación puede distorsionar los resultados gravemente.
El investigador se ve libre se este efecto teniendo tmb que examinar examinar críticamente los
datos con los que realizara su investigación desde este punto de vista.
 El investigador tiene la posibilidad de replicar y reanalizar los mismo datos desde perspectivas
diferentes, desde marcos teóricos distintos, y que con técnicas analíticas diversas enriquecer a la
disciplina científica que le compete.
 Progreso científico, por la existencia, desarrollo y utilización de grandes bases de datos. Aparece
la posibilidad de que los teóricos utilicen datos existentes para incorporarlos al desarrollo de su
teoría.

DESVENTAJAS:
* Sucede que muchas veces la información que uno necesite no este disponible.
* Muchas veces es duradero el proceso en términos temporales de la localización de DS, y tmb
problemas burocráticos pueden obstacularizar la investigación . Otra consideración es que los DS
están por definición desfasados en el tiempo, y esto muchas veces es conflictivo.
* Hay que tener en cuenta que los DS que han sido generados para unos determinados fines de
investigación, pueden no resultar útiles para otros. También el investigador tiene que ser conciente de
lo que elige y no tener la estrategia “cuanto mas mejor” o “cruzo los datos todo con todo para ver que
sale”.
* Tmb tiene que poseer requisitos mínimos de calidad, en términos de fiabilidad y validez. Por lo tanto
no esta de más poder corroborar y contrastar los datos.
* Puede existir un supuesto peligro de que si los investigadores de limitan a utilizar sistemáticamente
los mismos datos, sin incorporar nuevos índices, se corre peligro de repetir lo mismo, con lo que no
tendrían cabida ni la creatividad, ni la intuición, ni la innovación.
* Problema de la interpretación, cuando muchas veces las definiciones por ejemplo de un cuestionario
no están claras, y los integrantes de esa muestra interpretan cosas distintas, y por ende los datos no son
fiables, con lo cuál no nos servirán.

3- Guía básica para realizar una investigación basada en DS.

A) marco teórico: Se refiere al “que” de la investigación. Se debe definir cual es el problema concreto
de la investigación, cuales son las hipótesis mas importantes, que tipo de hipo son, cuales son los
conceptos que se intentan relacionar, definición de conceptos.
B) La medida: El investigador debe reconstruir el proceso que generó los datos originalmente: cómo,
cuándo, por quien fueron recogidos los datos.
C) Búsqueda y evaluación: El éxito de la investigación depende del cuidado que se ponga en recoger
datos serios, sólidos y de confianza. Para ello tiene que ser fiable y valido. ¿Cómo se obtiene
fiabilidad?:
 Tener buena familiaridad con la institución que proveerá la información
 Cual fue el objetivo de la información que recogeremos, para ver si es coincidente o no con
nuestro estudio.

13 de 107
 Quien es el responsable del estudio, ya que hay fuentes mas fidedignas que otras.
 El factor tiempo: para poder ver si los datos son valiosos o no.
 Como se obtuvieron los datos en relación al muestreo (tipo de muestra, etc)
 Que tan completa es la información recogida. Que es lo que desde nuestro de punto de vista esta
ausente.
¿Cómo es que se logra la validez?
 hay que intentar observar si los indicadores miden realmente lo que se suponen que miden
 Tmb observar si se corresponde la definición del concepto del autor de los DS con su definición
de ese concepto
 Si se están utilizando series temporales hay que preguntarse si el concepto que queremos medir
sigue siendo el mismo o ha variado su significado con el paso del tiempo.
 Y Sobre todo siempre debe interrogarse si los DS elegidos cubren las dimensiones relevantes en
su propia investigación.
D) Análisis e interpretación de resultados. El investigador puede analizar los DS combinando la
información de modo que nos permita obtener nuevas variables a partir de las existentes y
representar un nuevo concepto. Esta es la parte creativa de la investigación. También hay que
revisar si se ha calculado el error de muestreo , o si existe falacia ecológica. Una vez realizada la
tarea de revisión se pueden aplicar distintas técnicas analíticas que no difieren demasiado de las
utilizadas con datos primarios.

Unidad 2.3 y 2.4


Malimacci, F. y Giménez Béliveau, V: Historias de vida y métodos biográficos: Estrategias de
investigación cualitativa. Cap. 5.
Bertaux, D: Los relatos de vida en el análisis social: Historia oral
- Toda investigación empírica pasa necesariamente por diferentes fases: de la ignorancia al
descubrimiento, a la formación de una representación mental de los procesos y a la
comprobación de las observaciones, y por último a la expresión oral y escrita de esta
representación. Estos tres estados: la exploración, el análisis y la síntesis no se encuentran
enteramente separados en la práctica.
- Según la perspectiva cuantitativa sólo la primera fase sería adecuada para los métodos
cualitativos, Bertaux por el contrario, considera es posible conducir una investigación empírica
pasando por las tres fases, sin acudir a técnicas cuantitativas.
- En este sentido el autor quiere mostrar en el desarrollo del texto que los relatos de vida,
técnicas del enfoque cualitativo, pasan por las tres fases (o cumplen con la tres funciones) de
todo conocimiento empírico:
1- Función exploratoria: se hace del relato una utilización extensiva, se busca cubrir el
máximo de aspectos de la vida social, dado que no se sabe aún los que van a ser relevantes.
Cuando estos últimos empiezan a aparecer, se puede pasar a una utilización intensiva.
2- Función analítica: comprende dos momentos: el de la construcción de teoría y el de la
verificación, o consolidación empírica de las proposiciones descriptivas y de las interpretaciones
avanzadas. En tanto los relatos de vida constituyen significantes, se reconocen dos orientaciones
entre los practicantes del enfoque biográfico: 1. Los que se interesan por los significados
(“hermenéutica”) y 2. los que se interesan por los referentes, por la relaciones, normas y

14 de 107
procesos que estructuran la vida social (“etnosociológica”).- esta última es a la que refiere
Bertaux en este texto-
La teorización es un proceso que se desarrolla en la duración, para ir construyendo paso a paso
una representación mental de los procesos sobre los cuales se ha elegido concentrar la atención
después de la fase exploratoria. Si una vez delimitado el carácter de lo que se encuentra en la
repetición, parece que se trata de un objeto sociológico, se alcanzado entonces el primer nivel
de saturación. Entonces se encontrará sistemáticamente encontrar casos negativos. Si la teoría
esbozada resiste este proceso entonces se habrá alcanzado la verdadera saturación. Sin que se
trate de una cuestión de muestra representativa se habrá alcanzado igualmente una descripción
convincente de los fenómenos estudiados. Así se resuelve el problema de la generalización sin
muestra representativa.
3- Función expresiva: pueden utilizarse segmentos de relatos de vida para ilustrar tal o
cual punto de la argumentación, teniendo en cuenta que la validez de ésta reside en: a) la
saturación alcanzada y b) la coherencia interna de la argumentación. La narración tiene el valor
de síntesis, es decir que incluye la fase analítica y la supera tomando la forma totalizante de la
autobiografía. “La utilización de relatos de vida como artificio para introducir ideas sobre lo
social, me parece adecuada para regenerar el estilo de la escritura sociológica , que desde hace
mucho tiempo se quedó encallada en los callejeros simétricos del cientificismo y del ensayismo
literario” (pág. 148)

Neiman, G y Quaranta, G: Los estudios de caso en la investigación sociológica: Estrategias de


investigación cualitativa.

Unidad 2.1 La Entrevista


RECOLECCIÓN Y PRODUCCIÓN DE DATOS PRIMARIOS EN LAS ESTRATEGIAS
CUALITATIVAS. LAS TÉCINCAS E INSTRUMENTOS DE RECOLECCIÓN

ENTREVISTA
La entrevista en profundidad es una técnica de obtener información mediante una conversación
profesional con una o varias personas, para un estudio analítico de investigación o para contribuir en
diagnósticos o tratamientos sociales.
La entrevista implica un proceso de comunicación en el que entrevistado y entrevistador pueden influirse
mutuamente consciente e inconscientemente. No es algo espontáneo sino un poco artificial; el
entrevistador crea una situación concreta –la entrevista- que implica una situación única. Comprende un
desarrollo de interacción, creador y captador de significados, en el que influyen las características
personales de los actores. En conclusión, la entrevista es una técnica para obtener que un individuo
transmita oralmente su definición personal de la situación:
- Toma forma de relato de un suceso, contado por el que lo experimentó y desde su punto de vista.
- La entrevista es el contexto de dicho relato, el entrevistado es facilitador.
Podemos relacionar a la entrevista con la conversación informal y ver similitudes y diferencias:
- Ambas son un encuentro. Eso quiere decir que están compuestas de las personas, la situación y las reglas
de interacción.
- Se diferencian por: en la entrevista hay una estructura de interrogación y hay expectativas explícitas: uno
habla, el otro escucha. Hay uno de los dos –el entrevistador- que orienta la charla y anima al otro.

15 de 107
Tipos de entrevista
Primera distinción
- Sostenidas con un solo individuo (individuales) o con un grupo de personas (de grupo).
- Cubren muchos temas (biográficas) o monotemáticas.
- Entrevistas dirigidas (estructuradas) en las que el actor lleva la iniciativa de la conversación o aquellas en
las que el entrevistador sigue un esquema general y flexible (no estrucuradas).

En sociología la entrevista en profundidad es generalmente individual (aunque pueda hacerse a varios en


diferentes momentos), holística (aunque pueda no hablarse de toda la vida de la persona) y no directiva
(aunque sí la controla el entrevistador, ese control no es rígido ni en el contenido ni en la forma). La
entrevista en profanidad es la que suele definirse como no estructurada, que suele oponerse a la entrevista
propia de los sondeos.

Segunda distinción
- Focalizada: Los entrevistados han sido expuestos a una situación concreta, como por ejemplo han visto
una película, leído un libro, etc. o participaron en una situación social observada. Esa situación fue
estudiada antes por los investigadores, a partir de lo cual surgieron hipótesis, y de ellas el guión de
entrevista. La entrevista se centra en las experiencias subjetivas de la gente expuesta en la situación para
contrastar las hipótesis y averiguar efectos no anticipados.

- Entrevista estandarizada programada (estructurada): La redacción y orden de las preguntas es el mismo


para cada encuestado. Las preguntas son comparables. El problema es que muchos de sus supuestos a
veces no se cumplen, entre ellos: que el estímulo es igual para todos, el significado de las preguntas es el
mismo para todos, porque están redactadas igual, el orden de las preguntas es el mismo en todos los casos.
- Entrevista estandarizada no programada (no estructurada): Se diferencia de la anterior en que se basa
en distintos supuestos: la estandarización del significado requiere que la pregunte se formule en términos
familiares al entrevistado, no hay una secuencia de preguntas satisfactoria para todos los entrevistados, se
puede conseguir la equivalencia de significado de las preguntas estudiando a los entrevistados y
seleccionando y preparando a los entrevistadores, de modo que se hagan y ordenen las preguntas a la
medida de ellos.

- Entrevista no estandarizada: No hay listado prefijado de preguntas abiertas a usar con todos los
entrevistados. Este tipo sirve, por ejemplo, si queremos descubrir la estructura y funcionamiento de alguna
organización: deberíamos hacer preguntas diferentes a la gente que ocupa los distintos puestos.

Por lo tanto, la entrevista en profundidad puede tomar dos caminos, el de la estandarizada no estructurada,
o el de la no estandarización. Porque habíamos dicho, la distinción fundamental es la de entrevista
estructurada y entrevista no estructurada. Ahora profundizamos más la distinción.

Estructurada No estructurada
La entrevista Pretende explicar más que comprender; Pretende comprender más que explicar;
busca minimizar los errores; adopta el busca maximizar el significado; adopta el
formato estímulo-respuesta, suponiendo formato estímulo-respuesta pero sin
que a una pregunta correcta el esperar la respuesta objetivamente
entrevistado contesta la verdad; obtiene verdadera sino subjetivamente sincera;
respuestas racionales, pero pasa por alto obtiene respuestas emocionales, pasando
lo emocional. por alto la racionalidad.
El entrevistador Formula una serie de preguntas con Pregunta sin esquema fijo de categorías
respuestas prefijadas; controla el ritmo; de respuesta; controla el ritmo en función
no da explicaciones largas del trabajo; no de las respuestas; explica el motiva del
altera el orden ni la formulación de estudio; altera forma y orden, agregando
preguntas; no permite interrupciones; no nuevas preguntas si necesita; permite
expresa su opinión; no interpreta el interrupciones; si se lo piden no oculta
sentido de las respuestas; no improvisa el sus sentimientos o juicios de valor;
contenido o forma de las preguntas. explica el sentido de las preguntas; puede
improvisar forma y contenido; no evalúa
las respuestas.

16 de 107
El entrevistado Reciben todos el mismo paquete de Cada uno recibe su propio conjunto de
preguntas, y las escuchan en el mismo preguntas; orden y formato puede diferir
orden y formato. de uno a otro.
Las respuestas Son cerradas al cuadro de categorías Abiertas, sin categorías de respuestas
preestablecido. preestablecidas.

Fundamentos operativos de la entrevista en profundidad

Sin negar la importancia de la reacción y el aprendizaje en la conducta humana, la entrevista concibe al


hombre, el actor social, como una persona que construye sentidos y significados de la realidad. Con ellos
entiende, interpreta y maneja la realidad a través de un marco complejo de creencias y valores,
desarrollado por él. Para entender, entonces, la acción de las personas, hay que comprender no sólo el
sentido compartido sino el sentido único que dan a sus actos.
El entrevistador se acerca al mundo simbólico del entrevistado gradual y escalonadamente, partiendo de
cuestiones amplias al comienzo, extraídas de experiencias personales semejantes, de teorías científicas ya
elaboradas o de su entrenamiento personal. Así va acercándose al mundo interior del entrevistado. Primero
el investigador formula preguntas no directivas y trata de aprender lo que es importante para el
entrevistado, luego enfoca claramente el objeto de su investigación, volcando su interés a los sentimientos,
los significados, las interpretaciones.

La entrevista como situación de interacción

Tres procesos se interrelacionan e influyen mutuamente en una entrevista: El proceso social de interacción
personal, el proceso teórico de recogida de información, el proceso instrumental de conservar la
información, grabándola.

1) Proceso de interacción
La entrevista es un acto de interacción personal, en el que se efectúa un intercambio de comunicación a
través del cual el entrevistador transmite interés, motivación, confianza, garantía, y el entrevistado
devuelve información personal en forma de descripción, interpretación, evaluación. La empatía es la
condición esencial para que exista una interacción ideal.
Lo primero que hace el investigador es justificar su proyecto y su modo de actuar. Debe persuadir al
entrevistado del interés y utilidad de la entrevista, identificando sus objetivos. Tanto la invasión como la
prepotencia como la de servilismo y adulación se deben evitar siempre.
Para que no decaiga el interés de la entrevista y alcance el nivel deseado de familiaridad, hay cuatro
tácticas: mirar al rostro del entrevistado natural y directamente, demostrar la atención y satisfacción en
posturas y movimientos corporales con naturalidad, responder y comentar en tono amable, respetar los
silencios.
Además del interés y la atención, el entrevistador debe mostrarse como un maestro de la comprensión:
busca entrar en el mundo del otro, vivir como él su propia experiencia. Esto no debe confundirse con una
evaluación ética ni con autoritarismo: la comprensión se apoya en la empatía y se acompaña de la
discreción para lograr un ambiente de solidaridad.
Por último, el investigador debe demostrar que tiene sentimientos: reflejarlo cuando el entrevistado
muestre emoción, hacerle saber que entiende sus sentimientos, ir resumiendo los sentimientos del otro
para comprobar y al mismo tiempo demostrar que se va captando el mensaje.

2) Proceso de recogida de información (proceso de sonsacamiento)


El objetivo es sonsacar del entrevistado la experiencia, la definición de la situación. La estrategia de
recogida de información tiene tres elementos: captación (lanzadera), indagación (relanzamiento) y la
fiabilidad (control).
- Captación: preguntas del comienzo, superficiales, generales y abiertas. Se suele empezar con una
pregunta abierta que impida una respuesta sí o no. Y permite que el entrevistado crea que es él quien fija el
ritmo y la profundidad de la conversación.
- Indagación: Cuando se interrumpe la nota, sea por cansancio o porque el entrevistado no quiere
profundizar en algo el investigador usa la táctica de relanzamiento, que debe ser en el momento oportuno
(hay silencios que se deben respetar) y neutral (no direccional el resto de la entrevista). Ejemplos: eco
(repetir la última frase del entrevistado), resumen de lo dicho, etc.

17 de 107
- Fiabilidad: Debe controlar las citas y descripciones, las ambigüedades, las idealizaciones y fugas, el
desinterés y el cansancio y el sentido común del entrevistado.

3) Proceso de registro
La reflexión simultánea al proceso de captación de información es más importante que en la observación,
por lo que la interacción se hace más intensa, y las interferencias no tienen buenas consecuencias.
Cualquier distracción o contratiempo ya sea para entrevistado o entrevistador, incide negativamente en la
calidad de la información. La grabación de la entrevista libera al entrevistador, aunque reste espontaneidad
en el entrevistado. Una alternativa que tiene sus riesgos es la grabación oculta.

Ventajas, limitaciones y usos de la entrevista

Ventajas Inconvenientes
- Riqueza informativa, intensiva y personalizada - Consume mucho tiempo
- Posibilidad de indagación en las respuestas - La información depende de la situación y de los
- Flexibilidad, previsión de errores, economía. dos actores, por lo que existe el problema de la
- Contrapunto cualitativo de resultados cuanti validez y de la fiabilidad.
- Accede a información difícil de observar - Falta de observación de la situación donde se
- Intimidad y comodidad desarrolla la acción.
- Carencia de las ventajas de la interacción grupal

Usos: Se recomiendo usarla combinada con otras técnicas y existen condiciones para su uso: que se hayan
barajado técnicas alternativas teniendo en cuenta la investigación; que sean las cuestiones a investigar las
que determinen las técnicas y no al revés; que las inferencias que aparezcan en las entrevistas puedan
someterse a un riguroso test.
Los usos de las entrevistas en profundidad pueden resumirse en dos clases: usos exploratorios
preparatorios; usos de contraste, ilustración o profundización.

Diseño (preparación)
1) guión de entrevista: es a la entrevista en profundidad lo que el cuestionario a la encuesta. Contiene los
temas y subtemas que deben cubrirse, de acuerdo con los objetivos de la investigación, pero no tiene las
formulaciones textuales de las preguntas ni las opciones de las respuestas (como el cuestionario). Es un
esquema de los puntos a tratar, no cerrado y sujeto a cambios en el orden.

2) Selección de los entrevistados: A quiénes, a cuántos y cuántas veces. Se trata de decisiones muestrales
tomadas en la etapa de proyección y completadas en el trabajo de campo. Existen varios criterios para
tomar estas decisiones, entre ellos:
- Aproximación al universo de entrevistados potenciales a través de fuentes disponibles (censos y
encuestas, estudios cualitativos anteriores, experiencia e imaginación del investigador) para trazar un
primer casillero tipológico, que garantiza la heterogeneidad de la muestra.
- Realización de entrevistas en profundidad a sólo algunos tipos sociológicos.
- O guiar la selección según tres tipos: claves, especiales y representativos. Los primeros dan información
sobre la situación local, los segundos la relevante para los objetivos del estudio, y los terceros también,
pero se trata de un grupo de gente “común”, de distintas edades, profesiones, que da información más
general.
- Para determinar el cuántos, existe el principio de saturación: cuando el sociólogo va viendo cass
similares una y otra vez, se da cuenta que una categoría está saturada.

En la preparación también entran la selección de los entrevistadores, los roles de éste; las condiciones de
tiempo, lugar y registro; factores sobre el contacto y la presentación.

Campo (realización)
1) Tácticas que pueden avanzarse en el guión de entrevista: se hace un esquema que anticipa cómo
abordar cada tema, supone tener listas de preguntas, argumentos, cosas para motivar al entrevistado.
2) Tácticas en la situación de la entrevista: Comportamiento verbal y no verbal según pida la situación,
improvisado. Entran las ya nombradas táctica del silencio, de la repetición, de aclaración, recapitulación.

18 de 107
Análisis (tratamiento)
Cuatro pasos: 1) Leer entrevistas delimitando fragmentos que se refieran a categorías comunes; 2) Juntar
los fragmentos de una misma sección; 3) Reclasfificar el material e interpretarlo, abriendo subsecciones si
es necesario; 4) Organizar las secciones de manera coherente, con una línea narrativa, explicativa.

HISTORIA DE VIDA
Tienen tres funciones en el proceso de investigación, que no deben estar enteramente separadas. El relato
de vida se insertará en contextos diferentes según la fase en que se lo use.

- Función exploratoria: No son historias de vida completas Se hace del relato un uso extensivo, abriendo
el máximo posible de aspectos de la vida social, ya que no se sabe cuáles van a ser los relevantes. El
investigador ha buscado en con los relatos, informarse, tal vez dichas historias no sean usadas en etapas
ulteriores.
- Función analítica: Consta de dos momentos. El primero es el de la comparación de los fenómenos y la
construcción de hipótesis, y el segundo el de la verificación. Se reflexiona acerca de las causas y
consecuencias de los fenómenos que descubrimos en las primeras observaciones. Una vez delimitado el
carácter de aquello presente en varis casos, se alcanza el primer nivel de saturación. Luego se intenta
destruir la regularidad para probar la validez de la hipótesis. Si no se cae, se puede proponer una
descripción del proceso social estudiado.
- Función expresiva: Tiene que ver con la escritura. El relato de vida acá intenta transmitir todo lo que se
ha visto y comprendido. Se publican los relatos, sobre todo partes con “expresión científica”, es decir,
los pasajes sociológicos. Se trata de una narración con valor de síntesis, que supera la fase analítica
tomando forma de autobiografía, en la que el lector experimenta emociones.

MUESTREO
Cómo y cuándo observo, a quién entrevisto, en qué fuente de información me centro. Son todas decisiones
de muestreo, que se toman teniendo en cuenta la relación con los que participan en el estudio, la
factibilidad de la recolección de datos, las cuestiones de validez, y la ética.
Los estudios cualitativos remiten generalmente a un tipo de muestra: Muestra Según Propósitos. Se trata
de una selección de contextos, individuos y momentos, basada en criterios para conseguir determinada
información, que responden a las preguntas de investigación. Veremos sus metas posibles:
1) Lograr representatividad en los individuos, contextos o actividades seleccionadas; porque en un
estudio a pequeña escala elegimos los casos típicos.
2) Captar la heterogeneidad de la población. El propósito acá es asegurar que las conclusiones
representen el rango completo de variación: lo mejor es seleccionar casos que representen las
variaciones.
3) Examinar casos críticos para las teorías que estamos usando. Los casos extremos proveen pruebas
cruciales de una manera tal que los casos representativos muchas veces no pueden.
4) Posibilidad de comparaciones para iluminar las causas de las diferencias entre individuos o
contextos.
Un problema particular en las decisiones de muestre es la “desviación del informante clave”: los
investigadores se apoyan en un número chico de informantes, y aún cuando fueron seleccionados según
propósitos y la información parece válida, no hay garantías que las perspectivas de estos informantes sean
las típicas.
Muestreo teórico: Es el proceso de recogida de datos para generar teoría mediante el cual el analista
recoge, codifica y analiza sus datos conjuntamente y decide qué datos recoger después y dónde
encontrarlos, para desarrollar su teoría a medida que surge. Este proceso de recogida de datos está
controlado por la teoría emergente.
La representatividad en este estudio no se garantiza por el muestreo aleatorio o la estratificación. Por el
contrario, los individuos, los grupos, etc, se seleccionan según su nivel (esperado) de nuevas ideas para la
teoría en desarrollo, en relación con el estado de elaboración de la teoría hasta el momento.
En el muestreo teórico la extensión de la población básica no se conoce de antemano; los rasgos de la
población tampoco; el tamaño de la muestra no está definido con antelación; el muestreo acabo cuando se
alcanza la saturación teórica.
Ejemplo: Estudio sobre la conciencia de morir en los hospitales: se examinaron diferentes servicios
médicos de diferente nivel de esperanza de vida de los enfermos y los médicos. La programación de tipos
de servicio estaba dirigida por un esquema conceptual –que incluía hipótesis sobre la conciencia de estar

19 de 107
muriéndose, la expectativa de la muerte y su rapidez- lo mismo que por una estructura conceptual en
desarrollo que incluía asuntos no previstos al principio. A veces los investigadores volvían a los servicios
para inspeccionar elementos que necesitaban comprobación o se habían pasado por alto en el período
inicial. (Glasser y Strauss, 1967).

Valles Miguel. “Técnicas cualitativas de investigación social”.


Cap. 6. “Reflexión metodológica y práctica profesional”.

Técnicas de conversación, narración: las entrevistas en profundidad.


Se centrará la atención en tres recursos técnicos fundamentales a disposición del investigador social: la
lectura de documentos, la observación participante y la conversación. Bajo la expresión, técnica de
conversación, se organizan gran variedad de técnicas cualitativas de de entrevistas: en profundidad,
biográficas, y en grupo.

La conversación en la vida cotidiana como referente de la entrevista.


El arte de la conversación, aprendido de modo natural en el curso de la socialización, constituye la mejor
base para el aprendizaje de las técnicas de cualquier forma de entrevista profesional. Las diferentes
maneras de conversación mantenidas por el investigador de campo, en su papel de observador
participante, se pueden considerar como formas de entrevistas. Se emplea aquí la expresión “entrevista
conversacional”, es recomendable no desprender de la entrevista algunas de las propiedades de la
conversación común. La conversación o el diálogo, propios de la cotidianeidad, se fundan como uno de
los ingredientes básicos en la definición de la entrevista.
La relación entre las entrevistas profesionales y la conversación ordinaria, se puede resumir en dos puntos.
1. Se resalta el carácter de encuentro que define a tantos ejemplos cotidianos, algo que define a toda
entrevista, todos los encuentros, en tanto interacciones humanas, se componen de tres elementos
básicos –personas, situación y reglas de interacción- llama la atención sobre tres clases de reglas:
cívico-legales, ceremoniales y relacionales. Si las entrevistas tienden a adoptar la forma de un
diálogo o una interacción, ello se debe a su condición de encuentros regidos por reglas que marcan
los márgenes de relación interpersonal en cada circunstancia.
2. La entrevista es similar y al mismo tiempo diferente de una conversación porque en la entrevista,
la participación del entrevistado y el entrevistador cuenta con expectativas explícitas, el uno de
hablar y el otro de escuchar. Por otro lado el entrevistador anima al entrevistado a hablar sin
contradecirle, y por último, el encargado de organizar y mantener la conversación es el
entrevistador.
Tipos de entrevista. (Versión de Patton)
1. Conversacional-informal, surgimiento y realización de las preguntas en el contexto y en el curso
natural de la interacción.
2. Basada en un guión, preparación de un guión de temas a tratar, libertad del entrevistador para
ordenar y formular las preguntas.
3. Estandarizada abierta, empleo de un listado de preguntas ordenadas y redactadas por igual para
todos los entrevistados, pero con respuesta libre o abierta.
4. Estandarizada cerrada, empleo de un listado de preguntas ordenadas y redactadas por igual para
todos los entrevistados, pero de respuesta cerrada.
Sólo los tres primeros tipos de entrevista cabe considerarlos dentro del rótulo de entrevistas cualitativas.

De los tipos de entrevistas profesional a la entrevista de investigación social y sus variedades.


Hay una amplia gama de encuentros de entrevista, mucho más familiares que las entrevistas de encuesta y
las entrevistas cualitativas de investigación social. Por ejemplo, las citas médicas, las entrevistas entre
padres y profesores, entrevistas periodísticas, entrevistas de trabajo, etc. Dentro de la categoría entrevistas
profesionales, se distinguen cinco categorías menores.
1. De asesoramiento, abarca una gama de profesionales y clientes muy variada. El asesoramiento
puede ser jurídico, financiero, laboral, etc.
2. De selección, evaluar los candidatos a un empleo.
3. De investigación, obtener información relevante para los objetivos de un estudio. Se utiliza en
ciencias sociales especialmente donde puede adoptar formatos variados.
4. De los profesionales de la salud, importancia de este instrumento en el trabajo de los médicos y
enfermeros.

20 de 107
5. De evaluación y promoción laboral, modalidad caracterizada por su aplicación en contextos de
planificación, formación y gestión de RRHH.

Dentro de las entrevistas de investigación, podemos ubicar a las entrevistas en profundidad, las cuales
podemos caracterizar en cuatro tipos.
1. ENTREVISTA FOCALIZADA. (Modelo de Merton)
 Entrevistados han sido expuestos a una situación concreta (“han visto un film, han leído un
artículo, han oído un programa de radio, etc.”)
 Los investigadores han estudiado previamente dicha situación, derivando hipótesis sobre el
significado y los efectos de determinados aspectos de la situación.
 El guión de entrevista, se ha elaborado a partir del análisis de contenido y las hipótesis
derivadas.
 Se centra en las experiencias subjetivas, con el propósito de contrastar las hipótesis y
averiguar respuestas o efectos no anticipados.
La entrevista focalizada se la considera dentro de la categoría de entrevistas cualitativas de investigación,
tiene un enfoque semidirigido y para que resulte productiva debe basarse en cuatro criterios: No
dirección, tratar de que las respuestas sean espontáneas o libres. Especificidad, animar al entrevistado a
dar respuestas concretas. Amplitud, indagar en la gama de evocaciones experimentadas por el sujeto.
Profundidad y contexto personal, debe obtener el contexto personal relevante, las asociaciones
ideosincráticas, las creencias, las ideas, etc.

2. ENTREVISTA ESTANDARIZADA NO ESTRUCTURADA, ENTREVISTA NO


ESTANDARIZADA.
 Entrevista estandarizada programada. Los supuestos que le sirven de base, no siempre se cumplen.
Por ejemplo: que el estímulo sea el mismo para todos los encuestados, que sea posible redactar
todas las preguntas de modo que tengan el mismo significado para todos, que el orden de las
preguntas deba ser el mismo para todos con el fin de obtener un contexto equivalente, que todo lo
dicho anteriormente sea posible en la práctica, tras la realización de estudios piloto y la prueba del
cuestionario.
 Entrevista estandarizada no programada. La estandarización del significado de una pregunta,
requiere formularla en términos familiares al entrevistado. No hay una secuencia de preguntas
satisfactorias para todos los entrevistados. Es factible conseguir la equivalencia de significado, a
través del estudio de los entrevistados y la selección y preparación de los entrevistadores.
 Entrevista no estandarizada. No hay un listado prefijado de preguntas abiertas a utilizar con todos
los entrevistados. Se subdivide en dos este tipo de entrevista. La no estandarizada preparatoria (de
la estandarizada) y la independiente (no preparatoria, sino cumplidora de una función propia).

3. ENTREVISTA ESPECIALIZADA Y A ELITES.


Es una entrevista a cualquier entrevistado, a quien se le da un tratamiento especial no estandarizado
que se basa en: enfatizar la definición de la situación por el entrevistado, animar al entrevistado a
estructurar el relato de la situación, permitir que el entrevistado introduzca sus nociones de lo que
considera relevante. El investigador está gustoso de permitir que el entrevistado le enseñe cuál es el
problema, la pregunta, la situación, etc. No se trata de entrevistas hechas a gente muy importante, “de
elite”, se trata más bien de un estilo que recomienda utilizar un entrevistado “experto” o “bien
informado”.

4. OTRAS EXPRESIONES.
Se puede extender el glosario bajo la categoría entrevistas en profundidad, abarcando al menos las
expresiones, entrevista biográfica, entrevista intensiva, entrevista individual abierta semidirectiva,
entrevista larga, etc. Se verán más adelante. El modelo de preguntas que pueden utilizarse pueden
resumirse en dos tipos: las “decididas con anticipación” (cerradas o abiertas) y las que surgen durante
la realización de las entrevistas.

Los modelos teóricos de comunicación e interacción social en la definición de la entrevista.


Los procesos de comunicación, naturales en la vida cotidiana, se provocan en las entrevistas con el
propósito de obtener información relevante, de acuerdo con los objetivos del estudio, el tiempo y los

21 de 107
recursos disponibles. Varios autores coinciden en la consideración de la entrevista en tanto proceso de
comunicación interpersonal inscrito en un contexto social y cultural más amplio. Gorden dibuja “el
contexto social de la entrevista”, para dar fundamento a su “modelo contextual” de comunicación,
según el cual, el proceso comunicativo de la entrevista depende de: la combinación de tres elementos
internos de la situación de entrevista –entrevistador, entrevistado y tema- y los elementos externos –
sociedad, comunidad, cultura-. Es importante para este autor la fase de preparación de la entrevista,
donde hay que seleccionar los entrevistados más capaces y dispuestos a dar información relevante, la
selección de los entrevistadores que tengan la mejor relación con el entrevistado, la elección del
tiempo y lugar más apropiado. Todas estas son decisiones de diseño, las cuales tienen que ver con el
qué (información), el a quién y bajo que condiciones. Además hay que tener en cuenta la realización
en sí de la entrevista, el proceso comunicativo entre entrevistador y entrevistado, y el análisis o
interpretación de la información obtenida en la entrevista. Aquí hay que tener en cuenta que las
declaraciones de los entrevistados no siempre pueden tomarse literalmente y que deben conocerse las
prácticas relatoras empleadas por los informantes.
Ventajas y limitaciones del uso de entrevistas en profundidad.
Presentan algunas ventajas que pueden ser las siguientes: el estilo abierto permite la obtención de una
gran riqueza informativa, proporciona al investigador la oportunidad de clarificación, en un marco de
interacción más directo, personalizado y flexible, pueden generar puntos de vista, enfoques, hipótesis,
etc en la fase inicial de cualquier estudio, pueden ser comparadas o puestas en contraste con los
resultados obtenidos mediante procedimientos cualitativos, son eficaces en el acceso a la información
difícil de obtener sin mediación del entrevistador, puede preferirse también por su intimidad o por su
comodidad, etc.
Entre las limitaciones, habría que tener en cuenta las siguientes: el factor tiempo, ya que consume
más tiempo que alguna otra técnica, tiene los problemas potenciales de reactividad, fiabilidad y
validez, la falta de observación directa o participada de los escenarios naturales en los que se
desarrolla la acción y no produce el tipo de información de grupo.

Usos potenciales de las entrevistas en profundidad en la investigación social.


Las funciones u objetivos básicos de los distintos estilos de entrevista se agrupan en dos clases según
Gorden: funciones u objetivos de descubrimiento (“ganar nueva conciencia de ciertos aspectos
cualitativos del problema”) y objetivos de medición. Señala la posibilidad de combinar ambos
objetivos en una misma entrevista, pero se advierte que el mayor énfasis en uno de ellos, lleva a
subordinar al otro.
Los usos potenciales pueden resumirse en dos grandes clases:
1. Usos exploratorios o preparatorios. Como los especificados por Gorden bajo la etiqueta de
objetivos de descubrimiento. Lo que predomina es la preparación de un buen instrumento de
medición, en términos de validez. Además, pueden ir encauzados a la preparación de entrevistas
con informantes calve o especiales.
2. Usos de contraste, ilustración o profundización. Propósito de contrastar, ilustrar o profundizar
la información obtenida mediante técnicas cuali o cuanti.
En ambas categorías de usos posibles, subyace la idea troncal del uso combinado de distintos
procedimientos metodológicos y técnicos con el fin de mejorar la investigación social en la práctica.

Preparación de las entrevistas en profundidad: el guión, la selección de entrevistados y otros


preparativos.
EL GUIÓN DE ENTREVISTA.
Es a las entrevistas en profundidad lo que el cuestionario a las entrevistas de encuesta. Contiene los
temas y subtemas que deben cubrirse, pero no proporciona las formulaciones textuales de preguntas ni
sugiere las opciones de respuesta. Es un esquema con los puntos a tratar, que no se considera cerrado y
cuyo orden no tiene que seguirse necesariamente.

LA SELECCIÓN DE ENTREVISTADOS.
Se trata de decisiones muestrales tomadas, en parte, al proyectar el estudio y en parte, completadas
durante el trabajo de campo.
1. Aproximación al universo de entrevistados potenciales a través de las fuentes disponibles. La idea
clave es ganar conocimiento de todo tipo, tamaño y características sociodemográficas, etc. para
trazar un primer casillero tipológico. El cual es un dispositivo muestral, de carácter instrumental,

22 de 107
del que se sirve el investigador para hacer operativa una selección de entrevistados orientada a
controlar la heterogeneidad de la muestra.
2. Se opta por la realización de entrevistas a sólo algunos tipos o perfiles sociológicos, basando la
selección de entrevistados en criterios de marginalidad, de normalidad o de excelencia.
3. La selección puede apoyarse también en la clasificación en tres “tipos generales”: claves,
especiales y representativos. A los primeros el autor los considera “informantes” más que
entrevistados, aportan información sobre la situación local donde se realiza el estudio, asistiendo
en la obtención de cooperación, localizando o contactando entrevistados. Los especiales son
aquellas personas que da información directamente relevante para los objetivos del estudio y que
es seleccionada porque ocupa una posición única en la comunidad y los representativos también
dan información relevante a los objetivos de la entrevista, pero se trata de una información más
general poseída por un número amplio de personas de características similares.
4. Preguntas básicas que deben responderse en la selección de entrevistados. Quienes tienen la
información relevante? Quienes son más accesibles físicamente y socialmente? Quienes están más
dispuestos a informar? Quienes son más capaces de comunicar la información con precisión?. Se
distinguen cuatro inhibidores que pueden bajar la disposición del entrevistado a dar información:
la falta de tiempo, la amenaza al ego, la etiqueta (autocensura psicosocial) y el trauma (no querer
rememorar alguna experiencia pasada).
El problema de cuántos entrevistados necesitamos se relaciona con el cálculo del tamaño muestral que
contiene como ingrediente clave la noción de “saturación”.
El procedimiento de “la bola de nieve” es usado frecuentemente, constituye con un muestreo aleatorio
en una comunidad y luego solicite a cada una de las personas que faciliten el contacto con otras de su
círculo de familiares, amigos, etc.

OTROS PREPARATIVOS.
1. Entrevistador. Las características externas y otras menos aparentes son rasgos a tener en cuenta
en la selección del entrevistador. Es conveniente plantearse como afectarán a la interacción
entrevistador-entrevistado. Cuando el tema es muy técnico y complejo puede convenir la selección
de un especialista en la materia. Según algunos autores el entrevistador ideal debería tener una
personalidad flexible. La importancia de los roles del entrevistador depende de la relación que se
cree con el entrevistado. Dos dimensiones básicas de esta relación tienen que ver con: la condición
del entrevistador de miembro o extraño al grupo y con su estatus relativo de superioridad,
igualdad o inferioridad. Ambas dimensiones pueden inhibir como facilitar el flujo de ciertos tipos
de información.
2. Tiempo, lugar y registro. Constituyen condiciones de producción que pueden afectar a la
obtención de información. Es preferible un espacio en el que pueda desarrollarse una entrevista
individual sin la presencia de otras personas que puedan distraer o inhibir al entrevistado. En
cuanto a los medios, el más utilizado es la grabación. El tomar nota ha quedado desplazado por
afectar la espontaneidad y fluidez del diálogo.
3. Contacto y presentación. Es fundamental contar con redes personales del investigador o de
canales sociales, que faciliten el contacto y la presentación entre las personas involucradas.

La realización de entrevistas en profundidad: tácticas de entrevista.


Dos grandes clases de tácticas.
1. Tácticas que pueden avanzarse en el guión de entrevista. Trazar un esquema, tener listas preguntas
de amplio espectro, tener argumentos y cuestiones que sirvan para pasar de unos asuntos a otros.
2. Tácticas del entrevistador en la situación de entrevista. Se trata de formas de comportamiento
verbal y no verbal empleadas cuando la situación lo pide.
 Táctica del silencio. Muy útil si se utiliza en el momento adecuado y no se confunde con
“silencios embarazosos”.
 Tácticas neutrales: animación y elaboración. La primera consiste en todo tipo de
observaciones, ruidos, gestos, que animan a continuar hablando. La segunda implica no sólo
animarlo, sino pedirle que se extienda en el tema.
 Táctica de reafirmar o repetir. Obtener información adicional mediante la repetición de
expresiones manifestadas por el entrevistado, pero sin formular una pregunta.

23 de 107
 Tácticas de recapitulación. Invitar al entrevistado a relatar de nuevo alguna trayectoria de su
vida, organizada cronológicamente.
 Tácticas de aclaración. Solicitar una secuencia de sucesos más detallada.
 Táctica de cambiar de tema. Se adopta esta iniciativa para soslayar un asunto delicado que
oprima al entrevistado.
 Post-entrevista. Es un apéndice de entrevista a micrófono cerrado que puede aprovecharse
para hablar amigablemente, guardar un buen recuerdo, etc. es una oportunidad para detectar
alguna información que se ha guardado durante la entrevista.

El tratamiento de las entrevistas: análisis y presentación de la información.


El análisis ya comienza con el diseño de investigación, la formulación del problema, la selección de casos,
contextos y fechas, el análisis preliminar orienta el trabajo de campo. A estos análisis les sigue en última
fase el análisis intenso final. El análisis va muy ligado a la escritura o presentación de la información
obtenida.
Se han ejemplificado dos modos generales de orientar el análisis y la escritura del informe.
1. El análisis centrado en las cuestiones, temas o asuntos
2. El análisis centrado en los casos, individuales o colectivos.
Esta distinción básica puede elaborarse más al distinguir a su vez una modalidad orientada a la
generalización, a partir de los casos estudiados, y una modalidad ceñida a la concreción de estos.

Entrevista
La entrevista es una técnica para obtener información, mediante una conversación profesional con
una o mas personas. Recordemos que la investigación cuali trata de recuperar la perspectiva del actor.
Revelar sus interpretaciones. En la entrevista se busca lo específico de un problema general.
El campo es un recorte que hace el investigador. Acá aparecen actores y sus actividades. El campo
es esa porción de lo real que se intenta conocer. Los actores con sus acciones lo constituyen y acá es donde
se producen y elaboran los datos de la investigación. La colección y recolección se dan al mismo tiempo
que el análisis. Se construye el sistema de propiedades. La presencia en el campo es esencial. Buscamos lo
que la gente piensa y cree. Vemos su sentido sin tratar de volcar lo nuestro.
Cada entrevista es única. En la encuesta se puede no saber los objetivos que plantea la
investigación, se hacen siempre las mismas preguntas. Las entrevistas la debe hacer el equipo de
investigación. El trabajo de campo de las encuestas la hace un equipo contratado generalmente.
La entrevista en profundidad implica un proceso de comunicación, en el transcurso del cual,
ambos actores, entrevistador y entrevistado, pueden influir mutuamente, tanto consciente como
inconscientemente.
La entrevista supone una situación comunicacional. Comprende un proceso un tanto artificial. Hay
un acuerdo del lugar y la fecha. El espacio debe ser neutro pero que no lo saque del ámbito que conoce el
entrevistado. Buscar un lugar calmo. La información es anónima. Se crea una situación concreta que lejos
de ser neutra, implica una situación única. La entrevista comprende un desarrollo de interacción, creador y
captador de significados, en el que influyen decisivamente las características personales de los 2. Esto
puede ser bien diferenciado con la observación que ocurre en situaciones naturales. La entrevista en
profundidad reposa fundamentalmente en la experiencia vicaria transmitida al investigador a través de la
conversación con otro actor social.
No es lo mismo entrevista que conversación. Hay relación asimétrica en la entrevista. El
entrevistado no sabe que se le va a preguntar. Generalmente se utiliza la lógica del embudo. Empezar por
lo general y luego pasar a lo particular. Se debe generar la confianza. Hay que recuperar lo que se dice
pero también el contexto (actitudes, gestos).
La entrevista en profundidad, en definitiva, es una técnica para obtener que un individuo transmita
oralmente al entrevistador su definición personal de la situación. La entrevista comprende un esfuerzo de
inmersión.
Taylor y Bogdan: la entrevista son encuentros reiterados, cara a cara, entre el investigador y los
informantes, encuentros éstos dirigidos hacia la comprensión de las perspectivas que tienen los
informantes respecto de sus vidas, experiencias o situaciones, tal como las expresan con sus propias vidas.

Tipos de entrevistas:

24 de 107
 Entrevistas individuales o entrevistas grupales: las individuales se realizan a una sola persona.
Dentro de las grupales encontramos: los grupos de discusión (focus group) o “técnica de Delphi”.
 Focus group: son una técnica que se usa mucho en los estudios de mercado. Se construye un
discurso colectivo. Ver que dicen con otra gente enfrente. Busca el discurso colectivo. Esta
también es artificial y encontramos un moderador que debe estimular la discusión del grupo. Hay
una guía y las preguntas suelen ser abiertas para así generar la discusión entre los entrevistados.
La intervención del moderador debe ser lo mínima posible. Tratar de que hablen todos. Los grupos
sueles ser homogéneos pero con heterogeneidad intergrupal. Ej.: son todos padres de hijos
violentos, pero llama 5 hombres y 5 mujeres.
 Técnica de Delphi: Se utiliza para revelar la opinión de profesionales, de expertos en algún tema
en particular. Los encuestados se encuentran distantes. Resulta una entrevista sui generis. No se
ven los miembros de dichos grupos. De ahí el nombre de grupos nominales (solo de nombres). Se
les hace una pregunta, el moderador sintetiza y envía las respuestas. No hay discusión. Todos van
hacia el moderador. Surge la retroalimentación y aparecen nuevas preguntas. Esta técnica sirve
cuando las personas se encuentran muy distante.
 Tormenta de ideas: esta técnica pone el acento en la creatividad y la generación de nuevas ideas a
partir de una cuestión que plantea el moderador. Es utiliza para objetivos exploratorios. El
moderador casi no interviene. Propone un tema y los demás deben generar una tormenta de ideas
que se les ocurre. Generalmente en estos grupos hay una capacitación del tema. Acá también se
pide que no se critiquen las otras ideas, sino que a partir de ella generen otras.
 Entrevistas grupales de campos Formales: Casi no hay diferencia con el Grupo de Discusión. Pero
a diferencia del G.D, en esta yo busco respuestas grupales concensuadas y no discusión. En esta el
moderador plantea un cuestionario y no modera nada, quiere respuestas grupales.
 Entrevistas biográficas (abarcan muchos temas) o monotemáticas.
 Entrevistas estructuradas o no estructuradas.

Comprender- Pierre Bourdieu


Sólo la reflexividad que es sinónimo de método, pero una reflexividad fundada sobre un oficio, permite
percibir y controlar sobre la marcha en la realización misma de la entrevista, los efectos de la estructura
social en la que ésta se efectúa. Hay que esforzarse por hacer un uso reflexivo de las conquistas de la
ciencia social para controlar los efectos de la encuesta misma y embarcarse en el interrogatorio dominando
sus efectos inevitables
Una comunicación no violenta
Tratar de saber que es lo que se hace cuando se establece una relación de entrevista es, en primer lugar,
intentar conocer los efectos que puede producirse sin saberlo a raíz de esa especie de intrusión siempre un
poco arbitraria que está en el origen del intercambio.
Es el encuestador quien inicia el juego y establece las reglas, es quien le asigna objetivos y usos. Esta
asimetría con el entrevistado se ve reforzada por una asimetría social, si el encuestador ocupa una posición
superior al encuestado en las jerarquías de las diferentes especies de capital, en especial del cultural.
Para realizar una relación de encuesta lo más próxima posible del tipo ideal alejado del simple dejar-hacer
como del dirigismo del cuestionario, debían cumplirse varias condiciones: no bastaba con actuar sobre lo
que puede controlarse conciente o inconcientemente en la interacción, sino que también había que actuar
sobre la estructura misma de la relación, y por lo tanto, sobre la elección misma de las personas
interrogadas.
La imposición
Nadie está exento del efecto de imposición que pueden ejercer las preguntas egocéntricas o distraídas, y
sobre todo, del contragolpe que las respuestas así arrancadas amenazan con generar en el analista, siempre
expuesto a tomar con seriedad, en su interpretación, un artificio que él mismo produjo sin saberlo.
Se decidió dejar a los encuestadores la libertad de elegir a los encuestados entre sus conocidos. La
proximidad social y la familiaridad aseguran dos condiciones básicas de una comunicación no violenta: le
da garantías contra la amenaza de que sus razones subjetivas se reduzcan a causas objetivas y sus
elecciones se vivan como libres al arbitrio de los determinismos objetivos puestos de relieve por el
análisis; a su vez se constata que en ese caso también queda asegurado un acuerdo inmediato respecto de
los presupuestos concernientes a los contenidos y las formas de la comunicación.
También se podía recurrir a estrategias como la de representar roles.

25 de 107
Cuando un joven físico interroga a otro joven físico, sus preguntas se originan en disposiciones,
objetivamente armonizadas con las del encuestado.
Un ejercicio espiritual
Pero los mecanismos y subterfugios que pudimos imaginar para reducir la distancia tienen sus límites.
El sociólogo puede conseguir que el encuestado que se halla socialmente más alejado de él se sienta
legitimado a ser lo que es si sabe manifestarle, por el tono y sobre todo por el contenido de sus preguntas,
que, sin fingir anular la distancia social que los separa, es capaz de ponerse mentalmente en su lugar. Esto
no es efectuar la proyección de sí mismo en el otro, como dicen los fenomenólogos, sino darse una
comprensión genérica y genética de lo que él es, fundada en el dominio de las condiciones sociales que lo
producen. Comprender y explicar son una sola cosa.
Es importante que el entrevistador se haga de información previa para improvisar constantemente las
preguntas pertinentes, aunque el conocimiento previo será incapaz de llevar a una verdadera comprensión
si no va a la par con una atención al otro y una apertura oblativa que contadas veces se encuentra en la
existencia corriente.
La entrevista puede considerarse como una forma de ejercicio espiritual que apunta a obtener, mediante el
olvido de sí mismo, una verdadera conversión de la mirada que dirigimos a los otros en las circunstancias
corrientes de la vida.
La resistencia a la objetivación
No hay que creer que gracias a la reflexividad el sociólogo puede controlar por completo los efectos de la
relación de encuesta, porque los encuestados también pueden jugar con ella, conciente o
inconcientemente, para intentar imponer su definición de la situación y volcar en su provecho un
intercambio entre cuyas apuestas se cuenta la imagen que tienen de sí, y que quieren dar y darse a sí
mismos. Esto tiene lugar en una situación en la que, al evocar lo que no camina en sus vidas, se exponen a
todas las presunciones negativas que recaen sobre los males y la desdicha mientras no saben deslizarse en
las formas legítimas de expresión de las miserias genuinas: las que proporcionan la política, el derecho, la
psicología y la literatura.
Una de las maneras más sutiles de resistir a la objetivación es la de los encuestados que ,al jugar con su
proximidad social con el encuestador intentan, mas inconcientemente, protegerse de él prestándose
supuestamente al juego e intentando imponer, no siempre a sabiendas, una apariencia de autoanálisis.

El entrevistador al ofrecer una situación de comunicación completamente excepcional, liberada de las


restricciones que pesan sobre la mayoría de los intercambios cotidianos, y darle acceso a alternativas que
lo autorizan a expresar malestares, contribuye a crear las condiciones de aparición de un discurso
extraordinario (diría el bambino veira, EXTRAORDINARIO). Muchos encuestados utilizan este momento
para elaborar y expresar su propio punto de vista sobre sí mismos y el mundo.
Una construcción realista
Por ejemplo, sólo puede entenderse lo que se dice en la conversación entre tres estudiantes si se sabe leer,
en sus palabras, la conformación de las relaciones objetivas, presentes y pasadas, entre su trayectoria y la
estructura de los establecimientos escolares a los que concurrieron y, con ello, toda la constitución y la
historia del sistema de enseñanza que allí se expresa.
Contra la ilusión consistente en buscar la neutralidad en la anulación del observador, hay que admitir que
la única espontaneidad es la construida, pero mediante una construcción realista.
Basta de abstenerse de toda intervención, de toda construcción, para caer en error. Únicamente al precio de
una denuncia activa de los presupuestos tácitos del sentido común se pueden contrarrestar los efectos de
todas las representaciones de la realidad social a las que los encuestados y los encuestadores están
continuamente expuestos.
La sociología (y es lo que la distingue de los sondeos de opinión) sabe que debe darse los medios para
poner en cuestión, y en primer lugar en su cuestionamiento mismo, todas las preconstrucciones, todos los
presupuestos que habitan tanto en el encuestador como en el encuestado y que hacen que a menudo la
relación de encuesta solo se establezca sobre la base de un acuerdo de los inconscientes.
Los fundamentos del descontento y la insatisfacción no pueden tener acceso a la conciencia, es decir al
discurso explícito, más que a costa de un trabajo que apunte a sacar a la superficie esas cosas enterradas en
quienes las viven, que no las conocen y, a la vez y en otro sentido, las conocen mejor que nadie.
El sociólogo puede ayudarlos en ese trabajo a la manera de un partero, siempre que posea un conocimiento
profundo de las condiciones de existencia que los producen y de los efectos sociales que pueden ejercer la
relación de encuesta y, a través de ella, su posición y sus disposiciones primarias.
Los riesgos de la escritura

26 de 107
El acta del discurso obtenido que produce el autor de la trascripción se somete a dos series de coacciones a
menudo difíciles de conciliar: las de la fidelidad a todo lo manifestado durante la entrevista; y las de la
legibilidad, que se definen en relación con potenciales destinatarios que poseen expectativas y capacidades
muy diversas, que prohíben la publicación de una transcripción fonética provistas de las notas necesarias
para restituir todo lo perdido en el paso de la oralidad a la escritura, es decir, la voz, la pronunciación, la
entonación, el ritmo, etc.
En nombre del respeto debido al autor, en ocasiones tuvimos que decidir, paradójicamente, aligerar el
texto de algunas elaboraciones parásitas, ciertas frases confusas, muletillas(los bueno y los eh) que,
aunque den su coloración particular al discurso oral y cumplan una función eminente en la comunicación,
enturbian y embrollan la trascripción hasta tal punto que, en ciertos casos, la hacen totalmente ilegible
para quien no haya escuchado el discurso original. Del mismo modo, nos autorizamos a aligerarla de todas
las declaraciones puramente informativas (sobre el origen social, el estudio, la profesión, etc.) siempre que
esos datos pudieran apuntarse, en estilo indirecto, en el texto introductorio. Pero nunca reemplazamos una
palabra por otra ni transformamos el orden de las preguntas o el desarrollo de las entrevistas.
La intervención del analista es tan difícil como necesaria.
Escoger el laissez-faire, con el objeto de rechazar toda limitación impuesta a la libertad del lector, sería
olvidar que, hágase lo que se hiciere, toda lectura está ya, sino obligada, si al menos orientada por
esquemas interpretativos.
Nos esforzamos por transmitirle al lector los medios de dirigir a las palabras que va a leer la mirada que
explica, que restituye a la encuesta su razón de ser y su necesidad.
El sociólogo no puede ignorar que lo propio de su punto de vista es ser un punto de vista sobre un punto
de vista. No puede re-producir el correspondiente a su objeto y constituirlo como tal al redituarlo en el
espacio social, más que a partir de ese punto de vista muy singular donde hay que ubicarse para estar en
condiciones de captar todos los puntos de vista posibles. Y sólo en la medida en que es capaz de
objetivarse a sí mismo puede, al mismo tiempo que permanece en el lugar que inexorablemente se le
asigna en el mundo social, trasladarse con el pensamiento al lugar donde está colocado su objeto y captar
así su punto de vista, es decir, comprender que si estuviera en su lugar, como suele decirse,
indudablemente sería y pensaría como él.

La entrevista- Ruiz Olabuena, José


Introducción
La segunda gran técnica de investigación cualitativa viene representada por la llamada Entrevista en
Profundidad, que no es otra cosa que una técnica de obtener información, mediante una conversación
profesional con una o varias personas. La entrevista en profundidad implica siempre un proceso de
comunicación, en el transcurso del cual ambos sectores, entrevistador y entrevistado, pueden influirse
mutuamente tanto consciente como inconscientemente.
Lejos de constituir un intercambio social espontáneo comprende un proceso un tanto artificial, a través del
cual el entrevistador crea una situación concreta-la entrevista- que lejos de ser neutral, implica una
situación única. La entrevista comprende un desarrollo de interacción, creador y captador de significados,
en el que influyen decisivamente las características personales (biológicas, culturales, sociales,
conductuales) del entrevistador lo mismo que las del entrevistado.
Una diferencia específica distingue la Entrevista en Profundidad de la Observación participada y es la
artificialidad con la que normalmente se lleva a cabo la primera a diferencia de la segunda en donde el
observador es un actor indiferenciado en la escena.
La entrevista en profundidad es una técnica para obtener que un individuo transmita oralmente al
entrevistador su definición personal de la situación. La entrevista comprende un esfuerzo de inmersión por
parte del entrevistado. Comprende un cierto grado de familiaridad e intimidad que haga más llevadera y
justificada esta inmersión teatral, tanto más necesaria ya que la entrevista es una reconstrucción post
festum a diferencia de la observación directa que presencia el festum in vivo.
La entrevista toma la forma de relato de un suceso, narrado por la misma persona que lo ha experimentado
y desde su punto de vista. A su vez la entrevista en sí es el contexto en el cual se elabora este relato, y crea
una situación social para que pueda tener lugar. En este relato el entrevistador desempeña el papel de
facilitador.
Tipos
La entrevista puede adoptar una serie interminable de formas diferentes desde la más común, la entrevista
individual hablada, hasta la entrevista de grupo. Tres características pueden diferenciar sobre todo a las
entrevistas:

27 de 107
-Las entrevistas sostenidas con un solo individuo (individuales) o con un grupo de personas (de grupo).
-Las entrevistas que cubren un amplio espectro de temas (biográficas) o las monotemáticas.
-Las entrevistas dirigidas (estructuradas) en las que el actor lleva la iniciativa de la conversación o
aquellas en las que el entrevistador sigue un esquema general y flexible de preguntas, en cuanto a su orden
y contenido (no estructurada).
La entrevista en profundidad es de carácter individual, holística (evitando el procedimiento en torno a un
punto con el que opera la entrevista enfocada) y no directivo. La entrevista en profundidad es la que suele
denominarse entrevista no estructurada.
(La fotocopia hace acá un cuadro de diferencias entre entrevistas estructuradas y no estructuradas que no
copie porque no me pareció relevante y además me resultó largo para copiarlo todo, pero si quieren leanlo;
pagina 43 del modulo 3 o 2.1).
Los fundamentos operativos
La entrevista en profundidad se ejecuta en base a unos criterios operativos fundamentales en los que reside
su validez como instrumento de captación y transmisión de significado. La entrevista ignora el concepto
de individuo como engranaje de una máquina que opera por leyes fijas y universales. Parte del postulado
básico que defiende la capacidad de iniciativa personal en cada individuo. Esta interpretación
constructivista del comportamiento humano es la que defiende el interaccionismo simbólico, cuyos
postulados básicos presuponen que en el comportamiento humano:
-Uno aprende en interacción con otros, tanto a clasificar los distintos objetos como el modo en el que se
espera que se comporte ante ellos.
-Los actores se denominan unos a otros dentro de esta estructura social.
-Al hacerlo así invocan y crean las expectativas internalizadas de conducta respecto de unos con otros.
- La conducta social se deriva de un proceso social iniciado por las expectativas pero desarrollado a través
de un intercambio sutil que va configurando constantemente tanto la forma como el contenido de la
interacción.
Para entender por qué las personas actúan como actúan hay que comprender no sólo el sentido compartido
sino también el sentido único que ellas dan a sus actos.
El entrevistador se acerca al mundo simbólico del entrevistado de forma gradual y escalonada, partiendo
de cuestiones amplias al comienzo, extraídas de experiencias personales semejantes, de teorías científicas
ya elaboradas o del entrenamiento personal del propio investigador.
Todo esto implica un cierto balance entre una estructura tenue y tentativa inicial, propuesta más que
impuesta por el entrevistador, y una cierta ambigüedad e indecisión, siempre a merced de las respuestas y
de las claves que va ofreciendo el entrevistado.
La objetividad no solo es inalcanzable sino que es indeseable. El entrevistador no espera ni supone que el
entrevistado sea objetivo, sino todo lo contrario. También el entrevistador renuncia a la objetividad neutral
intentando acceder, mediante empatía y sesgo, al mundo interior latente del entrevistado.
El entrevistador hará bien en combinar preguntas abiertas con preguntas cerradas.
Dado el grado de acercamiento personal que una entrevista supone, la comunicación no verbal adquiere,
en ocasiones, tanta o mayor importancia que la comunicación oral.
Los procesos
Una entrevista en profundidad se puede considerar adecuada en su fase de recogida de información
cuando desarrolla acertadamente estos tres procesos básicos:
1) El proceso social de interacción interpersonal.
2) El proceso técnico de recogida de información.
3) El proceso instrumental de conservar la información, grabando la conversación.

1) El proceso de interacción
La entrevista es un acto de interacción personal, espontáneo o inducido, libre o forzado, entre dos
personas, en el cual se efectúa un intercambio de comunicación cruzada, a través de la cual el
entrevistador transmite interés, confianza y el entrevistado devuelve, a cambio, información personal en
forma de descripción, interpretación y evaluación.
La empatía es la condición esencial y característica para que tenga lugar una interacción social de
auténtica comunicación interpersonal.
El entrevistador debe iniciar su trabajo justificando su proyecto y su modo de actuar, y debe persuadir al
entrevistado del interés utilidad y oportunidad de la entrevista, identificando sus objetivos y condiciones
básicas.

28 de 107
Tanto la sensación de invasión o prepotencia como la de servilismo y adulación, deben ser evitadas por el
entrevistador. Tampoco debe insistir demasiado en caso de no colaboración, así como tampoco debe
aceptar sin un mínimo de crítica todo lo que el entrevistado le diga.
Cuatro tácticas sencillas debe seguir el entrevistador en orden a potenciar la comunicación no verbal, sin
dejar que decaiga en ningún momento el interés de la entrevista:
-Mirar al rostro del entrevistado de forma natural, directa y continua.
-La naturalidad en las posturas y movimientos corporales propios de quien sigue con atención y
satisfacción el desarrollo de la conversación.
-Las respuestas y comentarios del entrevistador deben formularse en tono amable, suficientemente
espaciados, sin crítica, ni adulación, en línea con los propios comentarios del entrevistado.
-Es de singular relevancia saber ejercer el arte del silencio. (para vos colorada)
La comprensión busca entrar en el mundo interior del entrevistado como un alter-ego, para vivir como él
su propia experiencia, definiendo la situación en sus propios términos, atribuyéndole el mismo significado
y jerarquía a las cosas. La comprensión no debe confundirse con una evaluación ética o profesional, y
tampoco puede confundirse con un autoritarismo que determina lo importante y lo superficial. La
comprensión se apoya en la empatía.
El entrevistador nunca enjuicia al entrevistado, pero si es requerido emitirá su opinión sobre lo que le ha
sido comunicado por el entrevistado. El entrevistador es una persona dotada de sentimientos y como tal
debe portarse:
-Debe reflejar sentimiento siempre que el entrevistado exprese alguna emoción.
-Debe captar toda la profundidad y todo el espectro de las emociones del entrevistado y así debe hacérselo
saber directa o indirectamente.
-Periódicamente debe ir resumiendo los sentimientos del entrevistado.
Para resumir podemos concretar en unos puntos-guía las normas concretas para un proceso correcto de
interacción humana de comunicación:
 Se trata de una conversación.
 La conversación no sigue un esquema rígido de desarrollo.
 Aún así la conversación es un intercambio controlado, sistemático, profesional.
 La conversación debe ser alimentada continuamente con incentivos que garanticen y fomenten la
motivación, el interés, y la participación espontánea.
 La relación entrevistador-entrevistado tiene que ser amistosa, pero no aduladora o servilista, ni
autoritaria o paternalista.
 La amistad de la relación no debe suprimir el carácter profesional de la entrevista.

Entre los diferentes paradigmas utilizables en el desarrollo de una entrevista, nosotros optamos por el que
sugiere el Interaccionismo simbólico y, dentro de este enfoque, entendemos que la entrevista equivale a un
encuentro cuyo desarrollo puede asimilarse al modelo dramatúrgico en el que conceptos como escenario,
actor, etc., adquieren una capacidad heurística interpretativa de primer orden. El entrevistador realiza un
papel en una representación a los ojos de su entrevistado (espectador), lo cual implica que el éxito de su
trabajo depende:
- del grado de legitimación que tal papel reciba del entrevistado/espectador.
- Del grado de perfección con el que lo desempeñe, una vez que la representación haya sido
legitimada.

2) El proceso de sonsacamiento
La interacción social de la entrevista no es más que el soporte utilizado por el entrevistador para lograr su
objetivo: sonsacar del entrevistado la experiencia, la definición de la situación, el significado que él sólo
posee.
El entrevistador nunca acude a una entrevista sin haber diseñado previamente un protocolo de
conversación en la que están registrados horario, emplazamiento, guión de temas, hipótesis posibles de
trabajo, estructura de la conversación, ritmo y duración de la misma. Antes de iniciar la entrevista, el
entrevistador debe garantizar, ante su interlocutor potencial, su propio status social y profesionalidad; debe
haber justificado el objetivo y los motivos de la entrevista, así como las líneas generales de la misma.
La entrevista en profundidad reclama una estrategia que puede concretarse en tres elementos: la captación
o lanzadera, la indagación o relanzamiento y la fiabilidad o control.

29 de 107
2.1) La Lanzadera (Esta técnica fue aplicada por el personaje conocido con el apodo de fantasista
cuando lo lleve por primera y única vez a mi ciudad natal, luego de una noche de birra, fernet y vino de
caja mezclado con un delicioso jugo zuko)
Los primeros pasos de la entrevista se desarrollan en forma de comentarios y preguntas de carácter
superficial, general y abierto. Así, de a poco el entrevistador va a ir apuntando su objetivo y va a evitar las
respuestas de tipo si o no.
Ahora bien, es importante aclarar que insistir en el uso de preguntas abiertas no debe confundirse con el
vicio de formular preguntas confusas y ambiguas. Esto último es tan peligroso como las preguntas
sesgadas que le dan al entrevistado el tipo y orientación de respuesta que parece agradar al entrevistador. A
su vez las preguntas abiertas iniciales deben huir de cualquier apariencia de enfrentamiento o de choque.
La estrategia básica de todo el proceso de captación de la información está presidida por la que se
denomina lanzadera-embudo, en donde el entrevistador inicia un tema abordándolo con una pregunta
abierta que luego se va estrechando, explicando.
En esta táctica de captación de la información, el entrevistador debe hacer gala de dos habilidades tanto
opuestas, aunque complementarias entre sí:
- Por un lado debe exhibir una rica sensibilidad
a) Para captar todos los mensajes de su interlocutor.
b) Para seleccionar aquellos de contenido más rico.
c) Para sacar a flote aquellos tímidamente apuntados pero bloqueados por algún motivo.
- Por otro lado, el entrevistador debe exhibir una agresividad creciente que:
a) Elimine preguntas inútiles, repeticiones innecesarias, respuestas de humo que ocultan el
verdadero núcleo del significado.
b) Concretice progresivamente la conversación inexorablemente a datos, personas, aspectos,
sentimientos, cada vez más concretos y significativos.

A su vez esto debe ir acompañado de una receptividad por la que el entrevistador hace saber al
entrevistado que información va captando, que interpretación va elaborando y que sentido va dando a toda
la situación. Este proceso consta de dos ejercicios: el Reflejo, a partir del cual el entrevistador refleja lo
que va captando en presencia del propio interlocutor comprometiéndose a repetir las principales ideas
expuestas, y la Estructuración que posibilita la captación del significado subjetivo y no sólo la
memorización de los datos descriptos.

2.2) El Relanzamiento
Son muchos los motivos que, a lo largo de la conversación, fuerzan a que ésta se interrumpa.
La táctica de relanzamiento equivale a colocar de nuevo en órbita al entrevistador, obligándolo a continuar
su marcha común. Todo relanzamiento está sometido a dos leyes de manejo:
a) La oportunidad: el relanzamiento es un mecanismo de reserva, que no debe ser utilizado hasta que
no se compruebe que la conversación ha quedado realmente bloqueada. Una norma de
oportunidad consiste en no interrumpir nunca al entrevistado.
b) La opacidad: exige que el relanzamiento sea aséptico y neutral. Debe precaverse de orientar en
ningún sentido el resto de la conversación.
Los tipos de relanzamiento pueden ser muchos y muy variados, siendo la norma suprema la de saber
acertar cuando y cual de ellos debe aplicarse en cada momento:
-el silencio: se utiliza como muestra de interés.
-el eco: el entrevistador repite la última palabra o frase del su interlocutor.
-el resumen: es una forma de aprovechar el bloqueo para garantizar que se va comprendiendo
correctamente al interlocutor.
-la insistencia: el entrevistador vuelve a repetir la pregunta inicial que abría la conversación.
-la cita selectiva: se puede entresacar del monologo del entrevistado algún dato, expresión.
-el frigorífico: el entrevistador debe ir provisto de un arsenal de temas a los que recurre en operación
lanzadera.
-la distensión: recurrir a una taza de café sirve para enfriar el momento en el que el bloqueo está presente.
-la distracción: darle libertad en forma de distracción.
-la estimulación: se apela a la memoria del interlocutor, recordando anécdotas que levantan de nuevo el
tono de la conversación.
-la posposición: cuando el bloqueo es tan serio se recure a una interrupción temporal y se pospone la
entrevista a una fecha prefijada por el entrevistador.

30 de 107
2.3) El control
El entrevistador capta toda información de manera mediatizada por la comunicación del entrevistado. Es
por esto que el investigador, aún admitida la buena voluntad y la colaboración del investigado, debe
aplicar algún tipo de control a la información recibida. Exponemos los elementos que deben ser sometidos
a control por parte del entrevistador:
- Citas y datos descriptivos
- Inconsistencias y ambigüedades
- Idealizaciones y fugas
- El desinterés y el cansancio
- El sentido común.

El proceso de sonsacamiento (lanzadera, relanzamiento y control) consta de unos elementos básicos que
deben ser tenidos en cuenta en toda entrevista:
- La conversación funciona a modo de lanzadera (de fuera a dentro y de dentro a fuera) con la que se
abordan sucesivamente los temas, unas veces en forma de embudo (de lo mas general a lo más concreto),
en forma de bola de nieve (cada tema se va engrosando con los datos anteriores), o en forma de calendario
biográfico (la historia es narrada de forma evolutiva).
- La conversación está dirigida por el entrevistador quien lleva en todo momento la iniciativa y que hace
gala de una agresividad creciente a medida que avanza la conversación y recurre constantemente a
relanzamientos sucesivos para iniciar nuevos temas.
- La conversación es un testimonio controlado por el investigador que controla citas, inconsistencias,
idealizaciones, fugas e interpretaciones superficiales.

3) El proceso de registro
El tercer proceso que tiene lugar en la entrevista es el de registro y conservación de la información
obtenida.
La toma personal de notas violenta menos al entrevistado y permiten al entrevistador anotar cosas
importantes que vienen a su mente, pero requiere mucha atención por parte del entrevistador y resta vida e
intimidad a la conversación. La toma mecánica (cámara, grabador) libera totalmente al entrevistador y le
permite trabajar al pleno de sus facultades, pero casi siempre resta espontaneidad al entrevistado y, en
ocasiones, le bloquea por completo.
Una alternativa es también recurrir a la grabación oculta en cuyo caso se plantea un problema de ética.
Finalmente la grabación debe incluir todo aquellos elementos de datación (fecha, lugar, condiciones),
contextualización (personaje, situación) y enriquecimiento convenientes para una mejor interpretación de
la información obtenida.

Los relatos de vida en el análisis social- Daniel Bertaux


Este texto no es más que el primer paso de una reflexión abierta en torno a las diversas formas que pueden
tomar los relatos de vida: formas que no dependen del narrador sino del narratario, de la persona para
quien se hace el relato, del contrato implícito que encierra ya el primer contacto. El texto propone
distinguir tres funciones de los relatos de vida en el proceso de investigación.
Propongo considerar que el sociólogo mismo cambia de actitud en el curso de una investigación. Al
principio su postura es la del explorador. Más tarde busca contrastar sus interpretaciones, hacerlas
desmentir, diferenciarlas, matizarlas, consolidarlas.
No es deseable que los tres estados de la investigación, la exploración, el análisis y la síntesis, se hallen
enteramente separados.
Queremos mostrar que los relatos de vida pueden cumplir varias funciones: una función exploratoria, una
función analítica y verificativa, y finalmente una función expresiva en el estadio de la síntesis.
Sin embargo es importante remarcar que no existe una manera de utilizar un mismo relato, sino varias.
Según se la incorpore en cada una de estas fases cumplirá funciones distintas; será siempre el mismo
relato pero se insertará en contextos diferentes.
En el primer caso se utilizará para iniciarse en un campo, para descubrir las líneas de fuerza pertinentes.
En el segundo para sostener una teoría. En el tercer caso será utilizado para transmitir el mensaje.
La función exploratoria
En un principio se hace del relato un uso extensivo, se busca cubrir el máximo posible de aspectos de la
vida social, ya que no se sabe aún los que van a revelarse como determinantes. Cuando estos últimos

31 de 107
empiezan a emerger entonces se puede pasar a una utilización intensiva, es decir, centrada en algún
aspecto que parece digno de un estudio en profundidad.
La función analítica
Aquí el objetivo es analizar. Comprende dos momentos: el momento de la comparación de los fenómenos,
de la construcción de una teoría, es decir de una representación mental de lo que ocurre en la realidad
social; y el momento de la verificación o más bien de la consolidación empírica de las proposiciones
descriptivas y de las interpretaciones avanzadas.
Ciertos practicantes del enfoque biográfico se interesan por el sentido, otros por las relaciones socio
estructurales. Los lingüistas utilizan tres niveles: el de los significantes, el de los significados y el de los
referentes.
La segunda orientación, la única a la que nos referiremos en lo que resta del texto, es la que he propuesto
llamar etnosociológica.
Una vez que se encuentre un objeto sociológico se intentará, sistemáticamente, encontrar casos negativos (
en el caso biográfico, estos casos son personas) que pongan en contradicción al modelo. Estas entradas
diferentes nos permitirán confirmar o refutar el modelo elaborado hasta entonces. Por Ej., si se ha entrado
por mediación de un sindicato, busco también a los no sindicados.
La función expresiva
Si se dispone de relatos de vida es posible utilizarlos de dos maneras. Una consiste en ilustrar tal o cual
punto de la argumentación sociológica con un ejemplo tomado de un relato. Este fragmento puede servir
de ilustración, pero no como prueba.
Pueden utilizarse segmentos de relatos de vida para ilustrar tal o cual punto de la argumentación, teniendo
en cuenta que la validez de ésta reside en otra parte, es decir en: a) la saturación alcanzada, b) la
coherencia interna de la argumentación.
El inconveniente de este método es que conduce a segmentar relatos que constituyen por sí mismos
totalidades.
Cuando sólo son publicados fragmentos del relato, su carácter de parte de una totalidad significante se
pierde.
Por el contrario, al publicar los relatos en su totalidad se plantean numerosos problemas: el paso de la
palabra a la lengua escrita, la extensión de los textos, etc.
Hay tesoros de ideas en los relatos de vida. Para elaborar un discurso sociológico no existe una sola vía,
sino al menos dos. La primera, clásica, consiste en apropiarse de esos tesoros y traducirlos al discurso
sociológico borrando sus orígenes: sólo el investigador sabrá de donde habrá sacado sus ideas.
La otra vía, emprendida raramente, consiste por el contrario en trabajar el relato de modo que se ponga de
relieve lo que aporta de conocimientos sobre lo social. Esto puede hacer en interacción con el interrogado,
pero si esto no es materialmente posible entonces la solución es la reescritura.
El trabajo del investigador debe ir en el sentido de poner en relieve los pasajes sociológicos.

MUESTREO TEORICO
MAXWELL
 Muestra según propósitos: selección basada en criterios, es una estrategia en la cual los
escenarios particulares, personas o eventos son seleccionados deliberadamente con el fin de obtener
información importante que no puede ser conseguida de otra forma. Sus metas son→ lograr
representatividad de los contextos, individuos o actividades seleccionadas. Captar adecuadamente la
heterogeneidad de la población. Selección de una meta para examinar deliberadamente casos que son
críticos para las teorías que usted ha empezado a estudiar o ha desarrollado. Posibilidad de establecer
comparaciones para iluminar las razones de las diferencias entre contextos o individuos.

FLICK
 El muestreo teórico es el proceso de recogida de datos para generar teoría por medio del
cual el analista recoge, codifica y analiza sus datos conjuntamente y decide que datos recoger después y
donde encontrarlos, para desarrollar su teoría a medida que surgen. Este proceso esta controlado por la
teoría emergente.
 Los individuos, grupos , etc. se seleccionan según su nivel (esperado) de nuevas ideas
para la teoría en desarrollo, en relación con el estado de elaboración de la teoría hasta ese momento.

32 de 107
 El tamaño de la muestra y la extensión de la población no se decide de antemano. La
cantidad de caso no esta predeterminada y se decide por la saturación teórica. (diferencia con el muestreo
estadístico)
 Los rasgos de la población no se conocen de antemano (diferencia con el muestreo
estadístico)
 Puede haber una extracción repetida de los elementos de muestreo (datos) (recordemos
investigación circular, vuelve al campo) (diferencia con el muestreo estadístico)
 El muestreo termina cuando se ha alcanzado la saturación teórica (diferencia con el
muestreo estadístico, culmina cuando se ha estudiado la muestra entere).
 Si bien este muestreo deriva de una muestra estructurada aquí no se define antes de
recoger e interpretar los datos, sino que se desarrolla durante ese mismo momento y se completa por
nuevas dimensiones o se limita a ciertas dimensiones o campos.

COMPLEMENTO CLASES TEORICAS:


 En el muestreo teórico las unidades van a ser buscadas a fin de otorgarle mas sentido a las
categorías que fueron surgiendo. Es decir, estas unidades son las portadoras de sentido de
las categorías, y se buscara todo aquello que aporte nuevas propiedades a las categorías.
 El investigador va a determinar la cantidad de casos en función de la riqueza de
significados que pretende obtener; y en este sentido es de vital importancia la sensibilidad
teórica del investigador, a fin de construir teoría a partir de los datos que van surgiendo.
 La primera selección de casos puede ser a partir de la información que proporcionan los
informantes. También pude ser a partir del sexo, participación o no en determinado
proceso.
 La selección se da en función del criterio de pertenencia teórica y / o relevancia
 En muestreo teórico es un proceso interactivo de recolección y análisis

Unidad 2.2 Grupos de discusión


Valles Miguel. “Técnicas cualitativas de investigación social”.
Cap. 8. “Técnicas de conversación, narración: los grupos de discusión y otras técnicas afines”.
En este capítulo se aborda una tercera clase de técnicas de conversación: los grupos de discusión. Se trata
de una técnica particular, encuadrable asimismo en la familia de las entrevistas grupales, pero con entidad
propia y un destacado papel tanto en el campo de la investigación de mercados como en el de la
investigación social.

Desde una perspectiva histórica, los grupos de discusión muchos autores encuentran muchos
procedimientos que fueron aceptados como prácticas comunes en las entrevistas grupales fueron dados a
conocer en trabajos de Robert Merton (1946/56). Si bien, otros autores advierten que la técnica descrita
por Merton y colaboradores ha ido cambiando y adoptando nuevas formas en la diversidad de campos
donde se ha aplicado. Además, los grupos de discusión (o focalizados) se han desarrollado y aplicado
mayormente en el campo de la investigación de mercados que en la investigación social.
Algunos autores, entienden que el enfoque y las contribuciones de técnicas cualitativas tan difusas
como las de grupo de discusión han de ser necesariamente integradas juntamente con los aportes
convergentes de una gran diversidad de perspectivas y técnicas –censos, documentales, análisis históricos,
encuestas estadísticas, observación participante, estudios de casos, etc.-. El hecho de que los grupos de
discusión se hayan desarrollado y aplicado, durante muchos años, en el contexto de los estudios de
mercado ayuda a entender la teoría y la práctica transmitida sobre esta técnica.

Para precisar a los grupos focalizados o de discusión se les suele considerar como “una técnica
específica dentro de la categoría más amplia de entrevistas grupales” orientadas a la obtención de
información cualitativa. Interesa, sin embargo, centrarse en la clasificación de entrevistas grupales
realizada por Frey y Fontana, que desde la investigación social comparan cuatro tipos:
a) Grupos focalizados. Se reconoce la diversidad de aplicaciones de esta técnica (en los estudios de
mercado, en la elaboración de cuestionarios de encuestas sociales o en la evaluación de programas) y
la relación con los “grupos terapéuticos empleados por los psiquiatras. Sin embargo, su definición
típica sigue haciéndose desde la experiencia en el campo de la investigación de mercados: se destacan
por el carácter exploratorio o preparatorio; la realización en lugares habituales, en escenarios formales

33 de 107
(no naturales) de entrevista; estilo de moderación semidirigido o dirigido, generalmente siendo el
formato de entrevista y la interrogación “algo estructurado”.
b) Brainstorming (“inspiración”, “idea genial”, “tormenta de ideas”. Esta técnica de entrevista
grupal pone el acento en la creatividad y en la generación de nuevas ideas, a partir de un tema o
cuestión que el entrevistados (moderador, investigador) plantea a un grupo de personas. También tiene
carácter exploratorio, pero se realiza tanto en escenarios formales como naturales, y el moderador
adopta un papel pasivo y no exuste una estructuración de preguntas.
c) Grupos nominal y Delphi. Se trata de técnicas cuyo carácter grupal y de entrevista resulta sui
generis, pues las “entrevistas” suelen realizarse sin que se vean físicamente los miembros de dichos
grupos (de ahí su denominación como grupos nominales, sólo de nombre). Generalmente el
investigador hace una ronda de entrevistas individuales con cada miembro. Luego, en sucesivas
rondas de entrevista individual, ofrece a cada entrevistado un resumen de las respuestas dadas por los
otros miembros del grupo. Hay otra modalidad, en la que se reune a los miembros del grupo, pero se
les exige responder por turnos las respuestas del investigador, sin permitir que interactuen
espontáneamente.
La técnica Delphi sería una “aplicación especializada de la técnica del grupo nominal, usada con
propósitos de desarrollar pronósticos de sucesos y tendencias futuros basados en la opinión colectiva de
expertos”. En oponión de Frey y Fontana, ambas técnicas se caracterizan por la formalidad (no
naturalidad) del contexto y los canales empleados en su realización –por el estilo dirigido que imprime el
investigador, el carácter estructurado y la mínima interacción entre los entrevistados-. Sin embargo, es
necesario mantener un cierto talante abierto respecto a las distintas técnicas.
d) Entrevistas grupales de campo, naturales y formales. En cualquier trabajo de campo de tipo
cualitativo, se sabe que las “entrevistas” en grupo suelen surgir espontáneamente. En general, esto sucede
cuando el investigador va buscando sobre el terreno a informantes o entrevistados potenciales y los
encuentra agrupados, en su ambiente, en mayor o menor número. Ahora, si en lugar de aprovechar este
encuentro sólo para concretar entrevistas individuales, se improvisa una conversación en grupo, informal e
in situ, el investigador habrá practicado una forma de entrevista grupal natural.

En tanto forma de investigación cualitativa, los grupos focalizados son básicamente entrevistas de grupo,
aunque no en el sentido de una alternancia entre las preguntas del investigador y las respuestas de los
participantes de la investigación. En vez de ello, hay una dependencia de la interacción dentro del grupo,
basada en los temas que proporciona el investigador, quien típicamente adopta el papel de moderador.

Podemos quedarnos con tres ideas que sirvan de resumen y complemento de lo expuesto sobre la
definición comparadas de los grupos de discusión:
1. Que los investigadores sociales vienen haciendo desde hace tiempo entrevistas de grupo.
2. Que la técnica de los grupos focalizados o de discusión ocupa un lugar a caballo entre los dos
modos principales de obtención de información cualitativa en las ciencias sociales: las técnicas
de entrevista individual y las técnicas de observación participación.
3. Que el grupo de discusión no es equiparable a ninguna de sus modalidades próximas: no es
una conversación grupal natural, no es un grupo de aprendizaje, tampoco un foro público. Sin
embargo, parasita y simula (parcialmente) a la vez, cada una de ellas.

Pueden diferenciarse dos clases de combinaciones de los grupos de discusión con a) los métodos y
técnicas cuantitativas y b) con otras técnicas cualitativas.
a) La combinación de grupos de discusión y encuesta puede darse de distintas maneras (antes de la
encuesta, después del campo de la encuesta, después del análisis de la encuesta y al mismo tiempo
que la encuesta). La realización de grupos de discusión antes de una encuesta ha sido la práctica más
extendida. El fundamento tiene que ver con el desarrollo y la mayor aplicación de esta técnica
cualitativa en la investigación de mercado y en el marketing comercial (no social). Además, el uso
de grupos de discusión en el diseño de cuestionarios esta técnica cualitativa puede desplegar
también su potencial encauzándolo hacia la anticipación y prevención de problemas de rechazo de
una encuesta.
b) Los grupos de discusión pueden combinarse también con otras técnicas cualitativas. Cada
técnica tiene sus puntos fuertes y débiles, y otra cuestión a apreciar es que dicha combinación se
haga de madera más o menos acertada, de manera más o menos forzada.

34 de 107
A su vez, autores como Morgan creen necesario poner el énfasis potencial de los grupos de discusión
por sí solos, como modo autocontenido de investigación social.

Veamos ahora las ventajas y limitaciones de los grupos de discusión. Con respecto a las ventajas:
a) Facilidad, abaratamiento y rapidez –econimía de tiempo y dinero. Si bien es
necesario saber que los grupos foalizados sólo pueden hacerse rápidamente en circunstancias muy
inusiales. Aunque el grupo en sí dure sólo 1 ó 2 horas, lleva tiempo crear un conjunto efectivo de
pregundas, localizar a los participantes apropiados y entender la información que proporcionan.
b) Flexibilidad. Se pueden indagar una gran variedad de temas, con personas diversas
y en diversidad de ambientes. Sin embargo, la téncica de los grupos exige reunir en el mismo lugar y
al mismo tiempo entre 6 y 10 personas, lo cual precisa así mayor espacio y coordinación.
c) Interacción grupal. La situación de grupo hace que las respuestas o intervenciones
surjan como reacción a las respuestas o intervenciones de otros miembros presentes en la reunión.

En relación a las limitaciones o inconvenientes:


a) Artificialidad de los escenarios recreados. Se acusa la ausencia de la observación directa de los
contextos naturales en los que se desarrolla la acción, la vida cotidiana de las personas reunidas en
los grupos de discusión.
b) Inconvenientes (clásicos) de la interacción grupal: problemas de generalización,
comparabilidad, deseabilidad.
c) Inconvenientes de la interacción grupal ortodoxa o tradicional: límites para la investigación-
acción-participativa; necesidad del complemento de técnicas grupales alternativas o afines.

Aspectos de diseño, campo y análisis de los grupos de discusión


¿Cuántos grupos se forman? y ¿cómo se componen? Son interrogantes a los que debe darse
respuesta por las decisiones muestrales. Como en las entrevistas (individuales) en profundidad, en los
grupos de discusión no se persigue la representación estadística, sino la representación tipológica, socio-
estructural, de acuerdo con los propósitos de la investigación y las contingencias de medios y tiempo. Dos
criterios maestros de muestreo básicos son:
1) Heterogeneidad entre grupos. Se orienta la selección de participantes y su distribución en
grupos, tratando de reproducir conversaciones (discursos) relevants o pertinentes, según los
obtetivos de estudio. Para hacerlo operativo, se precisa de la noción o criterio complementario de
saturación teórica o saturación estructural.
2) Economía. Introduce las constricciones de tiempo y dinero en tanto bienes escasos. Por otro lado,
su fundamento teórico-técnico también descansa en el concepto de saturación (no todo es mero
pragmatismo económico).

El criterio maestro de muestreo, denominado heterogeneidad entregrupos, alude a su complementario:


heterogeneidad intragrupos. En realidad la heterogeneidad entregrupos implica un control o determinación
de la heterogeneidad intragrupos; esto es, del grado de homogeneidad-heterogeneidad que se considera
favorecedor de la dinámica interna de cada grupo. Por tanto, las decisiones sobre el número y composición
general de los grupos no sólo se toman pensando en las posibilidad de comparación analítica.
Concretamente, el diseño de cada grupo de discusión debe atender a su composición interna barajando,
generalmente el criterio de la heterogeneidad posible, o inclusiva. Se trata de evitar reunir a partes
enfrentadas o distanciadas en la vida real. Para Krueguerm “se busca homogeneidad en cuanto a
ocupación, clase social, nivel educativo, edad, cultura o características familiares”. Todo un conjunto de
variables sociodemográficas que habitualmente se resumen en el concepto o variable sintética de estatus
socioeconómico.

Otros preparativos. Hay que decidir cómo se va a contactar con los participantes y cuál va a ser el
lugar de reunión. Es decir, que hay que establecer condiciones precisas de selección y mecanismos de
filtrado o supervisación de la labor de los contactadores. Tradicionalmente, los mecanismos para el
contaco en los grupos de discusión han sido utilizar redes personales (privadas) de comunicación o
relación social; evitar revelar al participante potencial cualquier información que pudiera influir en sus
respuestas posteriores; evitar la participación de amigos o conocidos. Sobre el lugar de reunión, la
selección de un espacio apropiado adquiere relevancia especial en este tipo de técnicas.

35 de 107
Sobre las actuaciones del moderador y los participantes en la reunión.
Las actuaciones del moderador se agrupan en dos momentos fundamentales de la dinámica del grupo
denominados “provocación inicial” y “provocación continuada”. Se advierte la necesidad de trascender la
dinámica de pregunta-respuesta y llevar la situación hacia una interacción grupal, característica de la
técnica.
La forma de proponer un tema de conversación al inicio de una reunión de grupo puede variar desde el
extremo de “entradas directas y patentes”, hasta el extremo de las “entradas indirectas o latentes”. El
moderador debe provocar en el grupo el deseo de discutir sobre el tema. Éste suele ser el momento más
crítico, sobre todo si se produce una situación de silencio o la primera intervención se dirige al moderador
para preguntarle que concrete el tema.
La “provocación continuada” del moderador para el mantenimiento y el control de la discusión implica
que la conversación no se aleje en exceso del tema previsto. El grupo formado y puesto en marcha con un
propósito de trabajo concreto corre el riesgo de desmembrarse, de perder la palabra y resultar inoperante
para el propósito de estudio. Por ello, al moderador se le conoce como el “motor del grupo”.

Análisis y presentación de la información


1. Que el análisis comienza con el diseño de los grupos (análisis proyectado, se podría denominar);
sigue en la fase de campo, durante la reunión e inmediatamente después de ésta (análisis
preliminares); y concluye en la fase final del estudio, cuando tiene lugar el análisis más completo
(el análisis intenso final y la síntesis) que culminará en la redacción del informe final.
2. Que el tipo de análisis e informe debe decidirse teniendo en cuenta los objetivos y circunstancias
de cada investigación.
3. Que no es posible “un programa explícito de descripciones y prescripciones que acoten y regule el
trabajo de análisis”.

Recomendaciones teórico-prácticas acerca del tratamiento de los grupos de discusión


a) Durante la fase de campo se recomienda elaborar un análisis preliminar, consistente en un resumen
sobre hallazgos, interpretaciones, observaciones acerca de la dinámica de la reunión, modificaciones
del guión a tener en cuenta en grupos posteriores.
b) Una vez finalizado el campo, el proceso analítico entra en la fase de análisis intenso y más
completo, a partir de resúmenes preliminares y las transcripciones de todos los grupos.
c) Una última anotación tiene que ver con los tipos de informe. Las clasificaciones de Krueguer
distinguen por un lado entre informes orales, escritos y mixtos; y, por otro -dentro de los escritos-,
entre tres modelos de informe:
- Modelo de “datos directos”. Consiste en introducir el tema o idea básica y a continuación
presentar todos los comentarios de los participantes clasificados por temas o subtemas.
- Modelo descriptivo consiste en una descripción resumida seguida de citas ilustrativas.
- Modelo interpretativo ofrece citas ilustrativas seguidas de las interpretaciones correspondientes.

Unidad 2.3 Observación


Metodología de la investigación cualitativa- José Ignacio Ruiz Olabuenaga
Capítulo 4 – LA OBSERVACIÓN.

La observación es el proceso de contemplar sistemática y detenidamente como se desarrolla un fenómeno


de la vida social, sin manipular ni modificar los sucesos, observarla tal cual ella discurre por si misma.
Para que una observación sea científica debe cumplir con ciertos requisitos:
- Debe ser Orientada, hacia un objeto concreto de investigación formulado de ante mano.
- Debe ser Planificada sistemáticamente en fases, aspectos, lugares y personas.
- Debe realizarse Controlándola y Relacionándola con proposiciones y teorías sociales.
- Sometiéndola a controles de veracidad, de objetividad, de fiabilidad y de precisión.

La observación comienza seleccionado un grupo, un tema o un fenómeno como objeto especifico de la


tarea de observación. Esta tarea se lleva a cabo no solo de forma deliberada y conciente, sino de un modo
sistemático. La sistematicidad de la observación se logra ordenando las piezas, anotando los resultados,
describiendo, relacionando y sobre todo tratando de interpretar y captar su significado y alcance.

36 de 107
Un aspecto a tener en cuenta es que la observación no solo consiste en el uso del sentido de la visión, sino
también es importante tener en cuenta olores, tacto y sonidos. Estas percepciones no proveen de datos que
también son importantes.
Es una técnica con origen en el positivismo. Vinculado con las ciencias naturales. Aparece en la
antropología. La observación se utiliza como técnica para incorporarse en una cultura o sub.-cultura.
Mimetización. En la observación hay un recorte teórico. Se elije que ver, orientado hacia el objetivo que
se tiene en mente. La observación es un proceso de contemplar sistemática y detenidamente como se
desarrolla un fenómeno de la vida social, sin manipular ni modificar los sucesos. Observarla tal cual
ocurre.
La observación debe estar orientada hacia un objetivo concreto de investigación formulado de ante
mano. Debe ser planificada sistemáticamente en fases, aspectos, lugares y personas. Se comienza
seleccionando un grupo, un tema o un fenómeno como objeto específico de la tarea de observación. Esto
se lleva de manera sistemática. Se ordenan las piezas, anotando resultados, describiendo, relacionando y
sobre todo tratando de interpretar su significado y su alcance. La observación no consiste solo en el uso
del sentido de la visión, sino también es importante tener en cuenta el olfato, el oído y el tacto. Estas
percepciones nos proveen de datos que también son muy importantes para la investigación.

TRADICIÓN OBSERVADORA
1- La escuela formalista. Principal exponente: Simmel, quien, en lugar de analizar el contenido de las
interacciones sociales, estudiaba sus formas o estructuras, y los modos como constituía patrones de
comportamiento. Su interés residía en constatar la importancia de la socialización como base de los modos
en que quedaba cristalizado el orden social. No recurría a experimentos.
2- La escuela dramatúrgica. Goffman, su estudio de cómo el individuo presenta su yo individual en el
escenario social de los otros. Su enfoque concebía la interacción social como una representación teatral en
sentido estricto, en la que, por consiguiente era posible encontrar un guión, protagonistas, escenarios,
papeles, audiencia, etc.
3- La autoobservación Son investigadores que han orientado sus análisis hacia el comportamiento propio
en situaciones críticas o límite, apelando al postulado de q las experiencias fundamentales y el significado
de tales experiencias habría de ser fundamentalmente el mismo para ellos q pa cualquier otro sujeto, con la
ventaja de q el propio investigador podría conocer de este modo, de primera mano el contenido y el
significado de tales experiencias.

TIPOS DE OBSERVACIÖN
Podemos distinguir 4 tipos de observación. En cada una de ellas se puede observar el rol que el
investigador asume.

A) Observación Panorámica- Participante:


En esta clase de observación, también denominada etnográfica o global, el investigador selecciona un
grupo humano y se dedica a observarlo detenidamente, viviendo como un individuo más de este grupo.
(representado paradigmáticamente por etnógrafos: Malinowski)
Para este tipo de observación es necesario vivir durante un largo tiempo y la participación en el grupo
debe ser absoluta. El investigador se hace parte de la situación para sentir lo que es vivir esa situación.

En este tipo de observaciones, la panorámica participativa, suelen utilizarse tres tipos o estilos de
recolección de la información:
1) Estilo Holístico: a la hora de producir información lo hacen sobre la base del supuesto de que toda
cultura es particular, elaborada a lo largo del tiempo y compuesta de materiales dispersos, y a través
de estos se trata de buscar parámetros culturales universales, o sea criterios culturales que puedan
estar presentes en cualquier cultura del mundo aunque su contenido expreso difiera (Ej. La idea de
una deidad o varias deidades esta presente, sostienen estos, en toda cultura del planeta, solo que
cambia el dios o los dioses: ala, dios, buda, un zapallo, etc.)
2) Estilo semiótico: Busca el punto de vista del nativo. Tratan de acceder al mundo al
mundo conceptual del nativo y así pensar e interpretar como el.
Hay que adoptar el modo de pensar del informante, mientras se conserva el uso pleno de las
facultades críticas propias.
3) Estilo Conductista: Se trata de buscar la forma y la función, más q el significado y buscar
preposiciones deductivas.

37 de 107
Hay un plan, hipótesis a probar, datos concretos pa encontrar patrones de covarianza.

B) Panorámica –No participante:


El investigador no participa por completo en la vida social del grupo al cual observa, no es un participante
al completo, sino que participa como observador.
En este caso, al igual que el anterior se busca un grupo (tribu, clan, isla región) y se vive ahí por estancias
prolongadas, pero en lugar de buscar mimetizarse con el grupo, tratar de ser uno mas y que así lo vean, acá
vive, actúa y participa pero como observador.
A diferencia de la no participante, en este tipo de observación, tanto el observador como los observados
saben, son conscientes de los objetivos y planes del investigador.
En esta clase de observación uno no tienen lo obligación de pretender ser parte del grupo o ser como el
grupo.
La ventaja de aparecer como observador reside en poder “desplazarse” como tal a situaciones, grupos,
espacios…(ej: si querés observar una fábrica y fingis ser un obrero, no podrías acceder a otros roles, como
reuniones de ejecutivo, en cambio si decis q sos observador, poder recoger información de más esferas)

C) Selectiva- Participante:
Este tipo de observación se realiza por ejemplo cuando un investigador se enrola en la policía o toma un
trabajo determinado en una empresa a la cual pretende estudiar, pero no revela nunca su identidad de
investigador.
Se selecciona un determinado grupo y se selecciona que se quiere observar. Existe siempre un plan o guía
previa que contiene que es lo que se desea observar.
Como el investigador pretende pasar desapercibido y mantener su identidad oculta, la recogida de datos se
vuelve más compleja y por esto se debe realizar un trabajo mas intenso.
En todas las observaciones participantes (panorámicas y selectivas) se corre el riesgo de “convertirse en
nativo” y así el investigador pierde su punto de vista crítico, lo cual limita lo que pueda ver.
En esta clase de observación el investigador puede verse obligado a asumir actitudes y comportamientos
arriesgados para su integridad física, psíquica y moral. Ej. Un investigador infiltrado en la policía ve como
un policía delante de el maltrata a un joven inocente.
El hecho de pasar desapercibido lo limita temporal y espacialmente. Ej. pensemos en el mismo
investigador infiltrado en la policía, le tocaran hacer turno de recorrida, lo cual no le permite ver cosas que
pasan en la central

D) Selectiva- No participante:
Esta observación es la que menos riesgo presenta ante el problema de volverse nativo o ante riesgos
físicos, Psíquicos o morales. Uno mantiene, su libertad de movimientos y su distancia para con el
fenómeno y con respecto a las personas observadas.
Uno selecciona su objeto y lo que desea ver de el, y se presenta en el lugar como observador.
Uno de los riesgos es el “apriorismo intelectual” o el etnocentrismo cultural que puede sesgar la
observación, a través de los cuáles intenta explicar con categorías propias, y no con las del grupo social
observado los fenómenos q ocurren..

Estos 4 tipos de observación casi nunca se dan en estados puros, los anteriormente expuestos son tipos
ideales de formas de observar, en la practica suelen darse usos combinados de los mismos.
Más allá del tipo de observación que se utilice, para que la producción de datos sea buena es fundamental
cumplir 4 requisitos:
A) Forma de la interacción (Participación del observador)
B) Protocolo de recogida de datos (selección o muestreo)
C) El control de los datos (controles)
D) El correcto tratamiento de los 3 puntos anteriores.

A) Participación del observador (interacción social)


El observador esta en contacto directo e inmediato con los actores sociales que observa. El observador esta
en contacto con personas que de forma directa o indirecta, conciente e inconsciente le proporcionan
información, cualquier error puede producir una alteración de la relación social y como consecuencia la
información se puede distorsionar, ocultar o cambiar.

38 de 107
La sola presencia y conducta del observador, sea que se presente claramente como tal o no, crea una
imagen de si mismo y los demás utilizan esta imagen como base para su relación y comunicación con él.
El observador puede ser tomado como un colega, un amigo, un protector o también como un enemigo, un
intruso o un impostor.
La presencia del observador altera la situación social preexistente, esta modificación puede ser mínima
e intrascendente o puede alterar sustancialmente el fenómeno que se pretende observar.
El observador debe definir la posición que tomara ante el grupo, la misma debe ser clara y plausible. Es
importante tener en cuenta que lo que el investigador ve depende de la posición social en la q se encuentra,
su comportamiento hacia el grupo y el de los miembros de éste hacia él, está condicionada por esa
posición.

Posiciones o roles que puede adoptar el observador ante el grupo:


- Identificación incondicional: esta postura, posee dos problemas, uno es el de los intereses encontrados al
interior del grupo y el otro es que se pueden generar sospechas sobre las intenciones del observador o
sobre su verdadera identidad.
- Postura de ingenuidad: Uno se presenta como un ignorante completo, un necio o irresponsable total. Esta
postura genera rechazos, ya que un grupo tolerara la ignorancia de ciertos temas privados, pero no de
temas que sean conocidos por todos.
- Marginalidad: Esta es la posición mas recomendada. El observador toma una postura vaga e indefinida
para el grupo, es parte del grupo pero permanece al margen de (no encima de) el grupo y los intereses que
dividen al grupo. Al estar al margen, en esta postura, le permite al observador tener contacto con los
distintos sectores o subgrupos, sin identificarse completamente con ninguno de ellos.
Posee 2 ventajas: la primera, es que como se mantiene al margen de la aceptación incondicional de las
normas del grupo, permite cuestionar ideas y conductas que se dan por supuestas(el sentido común). La
segunda, es que la marginalidad permite al observador cambiar de opinión o de planteamientos a medida
que avanza la investigación.
Como las relaciones observador-observado, lejos de fijarse de una vez y para siempre, se desarrollan en
una serie de fases temporales, el autor hizo una categorización de las FASES DE INTERACCIO N
SOCIAL (fáciles de distinguir analíticamente pero difícil de establecerlas en concreto)
1- El “recién llegado”
El recién llegado es un intruso, q genera curiosidad, a veces antipatía y hostilidad. El observador
es el foco de atención, y debe saber que tiene q definir su propio papel. Puede ser desconocido
como persona individual, pero debe ocupar un puesto conocido en la estructura social. Debemos
ser conscientes de q la escena en la q se entra no es un campo amistoso y sin tensiones, sino lleno
de conflictos internos, de procesos de legitimación e intereses encontrados.
2- El miembro provisional
Una vez definido el papel social, y tras una supuesta aceptación institucional, el observador es
tratado como un miembro no definitivo, sino provisional del grupo. Comienza a ser explorado
como persona individual. Directa o indirectamente, va a ser puesto a prueba, se deben comprobar
sus datos iniciales. Es importante el esmero del observador por no quebrantar las normas básicas
del comportamiento.
3- El miembro categórico
El observador comienza a ser una figura familiar, cotidiana en la escena diaria, lo cuál produce
una opacidad de la su persona que ya no suscita ni curiosidad ni recelo. El observador desarrolla
una presencia distante q logra el acceso silencioso a personas, situaciones y ámbitos sin interferir
con la actividad normal de los mismos. Es el momento estratégico pa elegir informantes. La clave
del observador categórico es acertar al elegir correctamente en qué tiempos y espacios debe
participar y en qué aspectos y problemas debe insistir y en cuáles debe abstenerse.
4- El observador persona
El investigador evoluciona a la fase de confidente y amigo. Existe el riesgo de transformarse en
nativo, de perder la libertad de acudir a “todas partes” y de perder la neutralidad de observar todos
los significados y sentidos q objetivamente se dan en la situación observada. Surgen
preguntas¿hasta q punto puedo publicar las relaciones de amistad? Y si no se publican, ¿para qué
se recogió tal información?
5- El migrante inminente
Prevalece ansiedad por conocer los resultados finales del investigador.

39 de 107
Estas 5 fases ofrecen diferentes alternativas de acceso al contenido de la info, asi como imponen
condiciones diferentes pa acceder a ella.

Los informadores: son algunos de los actores sociales de la situación q se pretende estudiar, a quienes el
investigador va a solicitar su colaboración ya q necesita de “introductores de significado” interpretes de la
situación q le ayuden a entrar en el mundo de aquellos significados q los diferentes actores sociales
atribuyen a sus actos y q el investigador no puede captar.
(Lo que sigue es INCREIBLE) “Naturalmente no todos los informadores son de la misma calidad”. La
selección de los mismos constituye un elemento decisivo en la observación. Un criterio para la selección
de un “buen informador” es el de su sensibilidad. Hay ciertas personas especialmente cualificadas pa esta
tarea: “el extraño”, el novato, el desclasado!!!, (esta es la mejor) “el sujeto reflexivo por naturaleza”, el
pequeño intelectual, el q ha viajado. Otro criterio es el relativo a la predisposición mayor de lo normal a
hablar y revelar información. Clases de personas: el ingenuo, el frustrado!, el desbancado, el viejo lobo, el
necesitado!!! (y asi sigue con otros criterios, pero fue)

B) Protocolo de recogida de datos


Paralelo al proceso de interacción social, tiene lugar la recogida de datos, esta debe someterse a un
protocolo sistemático y controlado para obtener el máximo rendimiento.
Para realizar la observación se utiliza una guía de observación donde se establecen las características que
se desean observar del fenómeno a estudiar. En ella se estipulan los temas generales y subtemas en los
cuales se pondrán mayor énfasis, pero la misma no es una guía rígida, sino que queda sometida a
modificaciones durante la observación o se pueden observar otros hechos que no estaban en ella pero
resultan relevantes a los objetivos de la investigación.

Para realizar una observación, primero se debe tener un plan general de investigación, donde se decidirá
que tipo de observación y que tipo de participación se llevara a cabo.
Luego deberán tomarse decisiones sobre el muestreo.

Muestreo:
Como no es posible observar todos los focos de interés, todos los escenarios y todos los actores, hay que
seleccionar, hacer un muestreo de estas cuestiones.
Para el muestreo hay que tener en cuenta
- Que tanto personas, escenarios y focos de interés, sean los más inmediatos, que no necesite
intermediarios ni intérpretes para poder acceder y observar estos.
- Que posean la máxima riqueza de contenido, que sean los que posean la mayor información.
O sea, seleccionar los de mayor riqueza de contenido y de significatividad para los fines que se persiguen.

Hay que tener en cuenta a la hora de observar, seleccionar y recoger los datos, que la observación es un
proceso en forma de espiral. El investigador llega con un bagaje teórico, con un puñado de hipótesis;
selecciona sus actores, sus escenarios, sus focos y se pone a trabajar. Luego regresa con la información, la
ordena, la clasifica, la sistematiza, la reflexiona y así puede comprobar, por ejemplo, que sus suposiciones,
las personas elegidas, su información previa o sus focos de interés no eran los adecuados o selecciono mal.
Todo esto le conduce a un replanteamiento de los planes iniciales. Así reelaborara y saldrá nuevamente.
Cuando se concibe a los planes previos, guías y muestreos de una observación, como a los de cualquier
otra técnica cualitativa, como flexibles, es en el sentido que anteriormente expusimos.

C) Controles
Como todo proceso de producción de datos, necesita controles y precauciones, que se deberán tomar, para
conseguir una información de buena calidad, no sesgada, ni contaminada.
Los problemas difieren si la observación es participante de si no lo es, por tanto los controles también
serán distintos.
Los controles se realizan principalmente con la confección del protocolo de observación. También se logra
un control, y muy importante, con la decisión de como se encarara la interacción social.
 Controles sobre la observación no participante:
En este caso los sujetos observados saben cuales son los objetivos del observador y frente a esto ponen en
marcha mecanismos de defensa frente el observador.

40 de 107
-Los observados suelen sentirse incómodos, sienten que es una situación embarazosa y creen no saber
como comportarse.
-Muchos sienten que dar información es traicionar a otros, por ejemplo en una fabrica.
-Suelen creer que la observación concluirá en un informe que puede alterar su situación laboral (miedo a
que lo despidan)
Ante estas y muchas situaciones mas, los sujetos suelen ocultar la información, disfrazarla, cambiarla o
mentir. También se suelen difundir rumores que desprestigian al observador (se lo suele tratar como un
informante de la patronal).
Para evitar esto es importante tener en cuenta:
-Como se presenta uno ante los observados, que postura tomara
-Como explicara que es lo que esta haciendo. Es recomendable no dar mucha información, pero si por
ejemplo dejar en claro que esta haciendo una investigación científica que nada tiene que ver con los
directivos o patrones del lugar y aclarar que se preservara la identidad de ellos.
-No relacionarse demasiado con ninguno en particular, no hacer amistad con ninguno, pero tampoco estar
absolutamente distante de todos.

 Controles sobre la observación participante:


Hay que imaginarse para entender estas recomendaciones, que el investigador esta observando ocultando
su verdadera identidad, por Ej. Imaginemos que esta infiltrado en la policía.
-Tomar recaudos de no caer en pedanterías ni ingenuidades ante personas que saben mucho más que uno
de la situación
-Hay que formular preguntas sin chocar o sin emitir juicios de valor.
-Evitar toda crítica o evaluación sobre los demás.
-Tener informantes validos y fiables, los cuales se deberán poder abandonar a lo largo de la investigacion,
por tanto no hay que crear relaciones de demasiada intimidad.
-Desarrollar una personalidad propia que suscite interés en el grupo, pero que no contradiga la propia
idiosincrasia del grupo.
-Saber como ganarse la fidelidad del grupo.
-Hay que ser prudente y callarse cosas que uno personalmente reprobaría.

Ventajas de la observación
-La observación no interfiere en el desarrollo del fenómeno social, lo estudia tal como ocurre sin ningún
tipo de modificación ni interferencia.
-Es una técnica de producción de datos natural e inmediata.
-Es fácil de utilizar en lugares en que no se puede utilizar otro método.
-Reduce al mínimo los efectos que provienen de la presencia del investigador.
-Es fácil de realizar y rápida, se evitan perdidas de tiempo en contactar a entrevistados por ejemplo

Desventajas de la observación
-Muchos fenómenos no son observables directamente, están latentes a nivel demasiado profundas y solo
una entrevista en profundidad serviría.
-Otros no son observables por que están muy dispersos, separados en piezas que hay que unir y ensamblar
-Los fenómenos a observar pueden generar una reacción emocional del observador
-Hay acontecimientos como los no públicos que pueden quedar sin observar
-El observador puede experimentar un volverse nativo.
-Pueden existir reacciones hacia el observador y la información se oculte o limite.

Lo que más distingue a las observaciones de los investigadores científicos de las observaciones
espontáneas de cada día es el carácter intencional y sistemático de aquellas. La observación no solo
incluye la vista, sino también el tacto, oído, olfato.
La observación (a diferencia del experimento) se caracteriza por su política de no injerencia, de no
interferir en el desarrollo de un fenómeno social. La observación pretende examinar la realidad tal como
ocurre sin ningún tipo de manipulación o modificación. Se prima la naturalidad y la inmediatez. Una
ventaja de la observación es su capacidad de poder ser realizada sin la conciencia explícita de los
interesados. De hecho, hay situaciones y procesos q no podrían ser estudiados de otro modo. Además,
reduce al mínimo los efectos que provienen de la presencia del investigador. También es fácil de realizar y
rápida, se evitan perdidas de tiempo en contactar a entrevistados por ejemplo

41 de 107
También hay desventajas: muchos fenómenos no son observables directamente (por estar latentes o a
niveles demasiado profundos), El observador puede experimentar un volverse nativo. También pueden
existir reacciones hacia el observador y la información se oculte o limite. O a veces el observador
establece una relación emocional con lo q observa, q lo “ciega”. Se suele criticar la falta de validez de la
observación porq, al no poder interferir personalmente en la situación, el observador debe apoyarse en sus
propios criterios personales y los participantes y protagonistas de la situación no pueden aportar sus
puntos de vista ni sus críticas correctoras.

Miguel Valles. OBSERVACIÓN: INVESTIGACCIÓN-ACCIÓN- PARTICIPANTE


 La observación es una de las actividades mas comunes de la vida diaria, pero puede transformarse en
una herramienta para la investigación social y forma científica de recogida de datos y esto se logra 1-
orientándola y enfocándola en el objetivo de la investigación formulado de antemano; 2- planificándola
sistemáticamente en fases, aspectos, lugares y personas; 3- controlándola y relacionándola con
proposiciones y teorías sociales y 4- sometiéndola a controles de veracidad, objetividad fiabilidad y
preescisión.
 Se entiende por técnica de observación loas procedimientos en los que el investigador presencia en
directo el fenómeno que se estudia, y se espera que este no manipule el contexto natural donde tiene lugar
la acción que se investiga.
 La observación se fundamenta en: 1- La búsqueda del realismo: frente al control logrado por la
encuesta pero a través de l artificio contextual; 2- La reconstrucción del significado, contando con el punto
de vista de los sujetos estudiados.
 La Autobseración (como observación endógena) constituye un procedimiento de
aprendizaje/conocimiento inverso al realizado en una observación participante: en lugar de aprender a ser
un nativo de una cultura extraña el nativo aprende a ser un observador de su propia cultura.
 La observación participante (pose un carácter observación endógena) en este el sociólogo se restringe
inevitablemente a una condición de extraño o la de participante marginal que estudia una comunidad
pequeña mediante un logro de cooperación de los participantes a menudo marginales
 En este sentido el observador participante y el participante ordinario se distinguen por: el primero
tiene un doble propósito por un lado implicarse en las actividades de la situación, y observar la situación;
por su parte el participante realiza las actividades en las que participa naturalmente; El observador
mantiene una atención con un alto grado de alerta, el participante da las cosas por supuesto; este tiene un
ángulo de observación cerrado mientras que el observador lo tiene abierto, el observador realiza una
experiencia desde fuera y desde dentro mientras que el participante solo desde dentro, este mantiene una
introspección natural un uso corriente de la vida cotidiana, mientras que el observador tiene una
introspección aplicada. En su caso lleva un registro de las actividades y observaciones y el participante no
lo hace.
 TIPO DE ROLES DE OBSERVACION PARTICIPACIÓN PARA EL INVESTIGADOR EN EL
TRBAJO DE CAMPO: JUNKER
 Completo participante: máximo ocultamiento de la actividad de observación y alto grado de
participación e implicación. Lo positivo, es el logro de información secreta: lo negativo es: los limites
severos a la libertad de observación, la tendencia a perder la perspectivas de la observación, la dificultad
de cambiar de rolo, dificultad para mantener un distanciamiento intelectual para informar con objetividad;
problemas éticos y de responsabilidad profesional generados por el ocultamiento de su actividad
 Participante como observador: ocultamiento parcial de la actividad de observación y predominio de
la participación, lo negativo es ; problemas éticos y de responsabilidad profesional debido a que la
información fue conseguida como participante y no como observador, el acceso limitado a información
secreta.
 Observador como participante: revelación de la actividad de observación y predominio de la
observación, tiene la posibilidad de obtener una alta gama de información e incluso secreta (en caso de
ganarse la reputación de saber guardarla), otro punto positivo es la libertad de observación.
 Completo observador: Máxima revelación de la actividad de observación y alto grado de
distanciamiento de la participación. Es un rolo más imaginario que posible o real, solo asimilable a
prácticas de laboratorio.
 Ante lo expuesto en las líneas anteriores se pude decir que: el investigador también resulta observado,
Las personas observadas ejerce de sujetos observadores desde posiciones sociales diversas; a demás de los
roles que el investigador valla eligiendo, hay otros roles que le adjudicaran los miembros de la situación

42 de 107
social que estudia y los diferentes roles pueden ir cambiando en el curso de loa interacción que tiene lugar
durante el trabajo de campo
TIPO DE PARTICIPACÍÓN EN LA OBSERVACION : SPRADLEY
 No participación: Ausencia física del investigador en la situación social a estudiar, Por ejemplo
Estudio etnográfico de programas de televisión. Completo observador
 Participación pasiva: presencia en la escena pero con interacción o participación mínima, solo se
dispone de roles periféricos. Es ventajoso en el aprendizaje de las reglas culturales seguidas en la vida
cotidiana, lo negativo es que no se puede sostener esta situación mucho tiempo. Completo observador
 Participación moderada: se puede definir como el balance entre un miembro y un extraño, entre
participación y observación: Su punto positivo es que facilita el acceso del investigador al significado que
dan los actores a su actividad, puesto que permite pedir aclaraciones, esto permite olvidar la presencia del
observador.
Observador como participante
 Participación activa: supone implicarse en la actividad estudiada.
Participante como observador
 Participación completa: Autobservación. Completo participante

 La observación participante resulta apropiada cuando: 1- Se sabe poco de los fenómenos que vamos a
estudiar. 2- Hay grandes diferencias entre los puntos de vista de los miembros y de los ajenos. 3- el
fenómeno se oculta a la luz publica
 La observación participante resulta apropiada sobre todo en estudios exploratorios, descriptivos y
aquellos orientados a la generación interpretaciones teóricas.

 Ángulos diversos de la observación según los filtros teóricos de las distintas perspectivas
sociológicas
 La sociología formal (Simmel) debe su adjudicación a el especial interés de por la forma de
interacción social (subordinación del conflicto) y a los tipos de ínteractores.
 La sociología dramatúrgica (Goffman) esta basada en la una sugerente visión de la escena y
ritualizada en las relaciones sociales entre personas. Las técnicas de observación participante se encuentra
esencialmente ligadas a esta perspectiva atenta a la exterioridad teatral y al juego de roles de la vida social.
 Los estudios de la esfera publica constituyen una gran ampliación de la línea dramatúrgica de
Goffman.
 El uso de la autobservación fue utilizada como herramienta de la cobertura teórica de la sociología
fenomenológica (Schutz) y la sociología existencialista (Douglas). Inmersión del observador en la vida
real donde tiene lugar el fenómeno
 Por su parte la Etnometodologia opto por el estudio de lo fenómenos empíricamente observables.
Interés en la video grabación que registran las actividades de la vida cotidiana. Observación participante.
 Las técnicas de observación participante deben ser evaluadas a la luz de los criterios de
validez, en el caso de la validez externa se resuelve mediante el análisis intensivo de los casos y la
búsqueda de casos negativos que el investigador de campo ha de evaluar la tipicidad o la atipicidad de sus
casos adecuando el alcance de sus generalizaciones teóricas a la heterogeneidad encontrada.
 Respecto a la cuestión de los sesgos y los efectos distorsionadores de la observación
participante, lo que sería validez interna, existen siete fuentes de invalidez posible 1- Historia, alude a los
factores relevantes que han ocurrido antes del inicio de las observaciones o durante estas y cuyo
desconocimiento puede llevar al investigador a interpretaciones erróneas. 2- Maduración de los sujetos
estudiados, debido a la relación de éstos con el investigador. 3- Efectos reactivos de la observación. 4-
Cambios en el observador. 5- Situaciones donde se obtienen las observaciones, los derivados de las
observaciones no contextualizadas lo suficientemente.
 Las críticas a la investigación observacional giran entorno a los problemas de validez y
fiabilidad, y que estos problemas tienen solución si se adoptan las siguientes medidas: la utilización de
varios observadores con características demográficas diversas que puedan contrastar sus puntos de vista, la
búsqueda deliberada de casos negativos en el proceso de refinado y fundamentación de las proposiciones
teóricas, el diseño de observaciones sistematizadas teniendo en cuenta la variabilidad de los fenómenos

43 de 107
estudiados en el espacio y tiempo, y por último la escritura de relatos de investigación que transmitan
verosimilitud y autenticidad.
 En los aspectos de diseño hay que tener en cuenta las técnicas de observación
participación, tipos de participación, decisiones maestrales y cómo organizar la observación.
 En este sentido, toda observación debe estar guiada por notas de campo, estas no cumplen
solamente la función de recogida de datos sino que ayuda a crearlos y analizarlos encausando y
reorientando la investigación.
 Notas condensadas – Notas observacionales: Tomadas en el momento o
inmediatamente después de la sesión de trabajo de campo. Son exposiciones sobre sucesos presenciados a
través de la observación visual y auditiva, deben contener la menor interpretación posible.
 Notas expandidas – Notas teóricas: Escritas a partir de las anteriores. Representan los
intentos autoconcientes controlados de derivar significados a partir de una o varias notas de observación,
el investigador interpreta, infiere, hipotetiza, conjetura, en fin desarrolla nuevos conceptos.
 Notas del diario de campo – Notas metodológicas: Donde se vaya registrando el lado
personal del trabajo de campo. Es un comunicado que refleja un acto operativo planteado o planeado, un
recordatorio, una crítica de las técnicas propias, podría considerarse como notas observacionales sobre el
investigador y el proceso metodológico del mismo.
 Notas de análisis e interpretación: Junto entre las notas anteriores y la redacción final.
 La relevancia de las notas de campo no deben hacer olvidar otros instrumentos como las
hojas de registro, guiones de observación y codificación en forma de listados, casilleros o fichas aplicados
según un protocolo de observación con instrucciones específicas.

UNIDAD 2.3 y 2.4


Grupos de discusión
- Es una técnica de conversación, encuadrada dentro de las entrevistas grupales.
- La mayoría de las aplicaciones del grupo de discusión se han dado en las investigaciones
de mercados.
- Las entrevistas de grupo focalizadas fueron desarrolladas al recocer que muchas de las
decisiones del consumidor, se producen en un contexto social, a menudo a partir de discusiones
con otra gente.
- En la mitad del siglo XX, los investigadores de mercado comenzaron a usar grupos
focalizados como una forma de simular el proceso de toma de decisiones grupales de consumo,
con el fin de obtener información más precisa sobre las preferencias de producto del
consumidor.
- El grupo tan sólo es un marco para captar las representaciones ideológicas, valores
formaciones imaginarias y afectivas, etc. dominantes en un determinado estrato, clase o
sociedad global.
- El grupo de discusión al que se le devuelve la información, se acercaría al grupo
terapéutico. La devolución de la información al grupo puede adoptar diversas maneras: a)
permitiendo que el moderador de la reunión, una vez acabada la misma, conteste las preguntas
de los participantes sobre el para qué, para quién o el porque del estudio, b) publicando el
estudio, es decir el análisis del discurso de los grupos y c) haciendo un análisis conjunto en pie
de igualdad, los participantes y el moderador y los investigadores.

44 de 107
- Estas posibilidades trasformarían al GD de un dispositivo de control en un dispositivo de
promoción. Lo cual apunta hacia las metodologías participativas o a la llamada investigación
acción participativa.
- Los grupos focalizados o de discusión se les suele considerar como una técnica especifica
dentro de la categoría más amplia de entrevistas grupales. Se pueden reconocer cuarto tipos de
entrevistas grupales:
1- grupos focalizados: se reconoce la diversidad de aplicaciones de esta técnica (en los
estudios de mercados, en la elaboración de cuestionarios de encuestas sociales o en la
evaluación de programas).

Propósitos de investigación aplicada en dicho campo, destacando los de carácter exploratorio


(prueba de cuestionarios, valoración de reacciones a un producto, cambio de imagen u
orientación, etc.)
Lugar habitual de realización en escenarios formales (no naturales) de entrevistas.
Estilo de moderación semidirigido o dirigido, generalmente siendo el formato de la entrevista
algo estructurado.
2- Brainstorming: esta técnica de entrevista grupal pone el acento en la creatividad y la
generación de nuevas ideas, a partir de un tema o cuestión que el entrevistador plantea a un
grupo de personas. La definición típica que se hace de esta técnica subraya su propósito
exploratorio, como en el anterior. Pero se diferencia de los grupos focalizados en que su
realización tiene lugar tanto en escenarios formales como naturales, el moderador adopta un
papel pasivo y no existe una estructuración de preguntas.
Se reconoce que la tormenta de ideas puede ser una buena estrategia de campo para las etapas
iníciales de una entrevista grupal; y para determinar si a un grupo natural se lo puede entrevistar
de manera más estructurada aunque informalmente.
3- Grupos nominal y Delphi: se trata de técnicas cuyo carácter grupal de entrevista resulta
sui generis, pues las entrevistas suelen realizarse sin que se vean físicamente los miembros de
dichos grupos. De ahí su denominación de grupos nominales. Generalmente el investigador hace
una primera ronda de entrevista individuales con cada miembro, luego en sucesivas rondas de
entrevistas individuales, ofrece a cada entrevistado un resumen de las respuestas dadas por los
otros miembros del grupo. Hay otra modalidad en la que se reúne a los miembros del grupo
pero se les exige responder por turnos las respuestas del investigador, sin permitir que
interactúen espontáneamente.
La técnica Delphi sería una aplicación especializada de la técnica del grupo nominal, usada con
propósitos de desarrollar pronósticos de sucesos y tendencias futuras basadas en la opinión
colectiva de expertos. Esta técnica resulta particularmente útil en estudios que precisan la
obtención de información de personas dispersas geográficamente, pues suele realizarse
mediante cuestionarios por correo. Ambas técnicas se caracterizan por la formalidad del
contexto y los canales empleados en su realización; por el estilo dirigido que imprime el

45 de 107
investigador en el proceso de entrevistas y por el carácter generalmente estructurado de estas;
además por la mínima o inexistente interacción entre los entrevistados.
4- Entrevistas grupales de campo naturales y formales: una modalidad muy frecuente de
esta clase de conversaciones informales suele darse cuando el investigador va buscando sobre el
terreno, a informantes o entrevistados potenciales y los encuentra agrupados en su ambiente. Si
en lugar de aprovechar este encuentro sólo para concertar entrevistas individuales, se improvisa
una conversación en grupo, informal e in situ, el investigador habrá practicado una forma de
entrevista grupal natural. Se recomienda optar por la entrevista de grupo natural después de
agotar las posibilidades de las técnicas de observación participación, y habiendo establecido una
cierta relación en el campo. Este tipo de entrevistas grupales naturales suelen ser importantes
en los estudios sobre los movimientos sociales.

- El GD no es equiparable a ninguna de sus modalidades próximas: no es una conversación


grupal natural, no es un grupo de aprendizaje como terapia psicológica, tampoco es un foro
público, sin embargo parasita y simula de forma parcial a la vez cada una de ellas.
Ventajas y limitaciones de los GD
Ventajas:
- Economía de tiempo y dinero (aunque el grupo en sí dure sólo una dos horas, los grupos
focalizados sólo pueden hacerse rápidamente en circunstancias muy inusuales. Lleva
tiempo crear un conjunto efectivo de preguntas, localizar a los participantes apropiados,
y entender la información que proporcionan)
- Flexibilidad: utilizable en el estudio de diversidad de temas, con personas y en ambientes
diversos (pero precisa de mayor espacio y coordinación que las entrevistas en
profundidad).
- Las bases de la interacción grupal: efectos de sinergia, bola de nieve, efecto audiencia,
estimulación, seguridad y espontaneidad en grupo; simulación de la interacción
discursiva social.
Inconvenientes
- Artificialidad en relación con las técnicas de observación participación.
- Inconvenientes clásicos de la interacción grupal: problemas de generalización, sesgo,
comparabilidad, deseabilidad.
- Inconvenientes de la interacción grupal ortodoxa o tradicional: límites para la
investigación acción participativa; necesidad del complemento de técnicas grupales
alternativas o afines.
La preparación del diseño de los GD:
1- Decisiones muestrales: dos interrogantes básicos son: cuántos grupos se forman y
cuántos se componen. Se trata de decisiones muestrales que en parte se toman al proyectar el

46 de 107
estudio y en parte se completan durante el trabajo de campo. Dependerá del carácter más
emergente o más proyectado desde el diseño.
Como en las entrevistas individuales, en los GD no se persigue la representación estadística, sino
la representación tipológica, socioestructural de acuerdo con los propósitos de la investigación.
Por tanto el número de grupos y su composición dependerá de forma conjunta de dos criterios
maestros de muestreo básicos, uno es la heterogeneidad entre grupos y al interior de cada
grupo, y otro es la economía en relación con los medios que se disponen.
Tratamiento de los grupos de discusión, análisis y presentación de la información
- Primeo que el análisis comienza con el diseño de los grupos, sigue en la fase de campo,
durante la reunión e inmediatamente después de esta (análisis preliminares); y concluye en la
fase final del estudio cuando tiene lugar el análisis más completo, que culmina en la redacción
del informe final.
- El tipo de análisis e informa debe decidirse teniendo en cuenta los objetivos y
circunstancias de cada investigación.
- No es posible un programa explícito de descripciones y prescripciones que acoten y
regulen el trabajo de análisis. El criterio maestro para el analista consiste en organizar la
información dándole sentido, lo cual supone seleccionar los datos pertinentes e integrarlos en
esquemas teóricos conceptuales.
- Durante la fase de campo se recomienda después de finalizada cada reunión, elaborar un
análisis preliminar, consistente en un resumen sobre hallazgos, interpretaciones, observaciones
acerca de la dinámica de la reunión, modificaciones del guión a tener en cuenta en grupos
posteriores.
- Una vez finalizado el campo, el proceso analítico entra en la fase de análisis intenso y más
completo, a partir de los resúmenes preliminares y las trascripciones de todos los grupos.

Unidad 2.3 y 2.4


Malimacci, F. y Giménez Béliveau, V: Historias de vida y métodos biográficos: Estrategias de
investigación cualitativa. Cap. 5.
¿Qué es la historia de vida?
- Se trata del relato de vida de una persona en el contexto social, político, religioso y
simbólico en el que sus experiencias se desenvuelven, registrado e interpretado por el
investigador. El mismo obtiene los datos primarios a partir de entrevistas y conversaciones con el
individuo.

- Dentro de esta tradición se reconocen dos vertientes: la historia de vida, que se destaca
por la interpretación de la vida del sujeto por parte del investigador y el relato de vida, que se
realiza minimizando la intervención del investigador.

¿Cuáles son las raíces de los métodos biográficos?

47 de 107
- Los estudios a partir de biografías e historias de vida, sea como método, sea como
enfoque, sea como instrumento de investigación, sea como estudio de caso, han revalorizado la
tradición cualitativa desde diversas perspectivas y orientaciones. Este tipo de estudios forman
parte de una nueva manera de hacer sociología desde principios del siglo XX.

¿Cómo se hace una historia de vida?


- La elección del tipo de diseño tiene que ver con la pregunta de investigación y los
supuestos que la guían. Al optar por la historia de vida, una de las primeras decisiones es si la
pregunta de investigación será abordada a partir de la realización de una historia de vida (un caso
único) o de varios relatos (diseño multivocal o polifónico).

- Los autores plantean que la elaboración de una historia de vida pueden distinguirse tres
momentos (analíticamente, dado que en la práctica pueden darse simultáneamente): preparación
de la historia de vida (muestreo, eje temático y guía); momento de hacer la entrevista y momento
de sistematizar y analizar la información. (introducen también la clasificación que otros autores
hacen pero no la desarrollan, no me pareció importante pero está en la página 7 del cuadernillo).

Preparando la historia de vida:


Muestreo: cuando se utiliza la historia de vida no se busca representatividad estadística, por lo
tanto el muestreo se basa en criterios de tipo teórico: en el muestro selectivo, la persona (o las
personas) se elige según ciertos rasgos considerados relevantes en términos conceptuales.
Criterios de selección: la persona y su contexto. Existen tres tipos de persona: la <gran persona>
(alguien que se destaca en el desarrollo de ciertos hechos históricos); El <marginal> (aquel que
se encuentra en los bordes de grupos y estructuras) y la <persona común> (portadora de historias
particulares, expresaría igualmente la voz de la mayoría).
Eje temático: desde el cual el investigador decide reconstruir la historia de vida, está
directamente relacionado con la pregunta de investigación y por eso, uno de los criterios que
sirven de orientación en la elección de los entrevistados. Se trata de un filtro a partir del cual se
desovilla la historia de vida del sujeto.
Guía: se trata de una guía abierta, una lista de temas que le interesa desarrollar al investigador y
no de una serie de preguntas concisas. En la misma es importante considerar los ambientes en los
cuales se desarrolla el individuo y las personas con las cuales construye lazos.
Realizando las entrevistas
- Los datos con los cuales el investigador construye una historia de vida surgen de una serie
de conversaciones con el entrevistado, que permiten la reconstrucción de la experiencia de su
vida.

- Es muy importante la relación entre el entrevistador y el entrevistado, la misma se apoya


en un juego sutil entre cercanía y distancia. Compromiso y distancia son, más que dos actitudes
distintas, momentos de la investigación que se van alternando.

- El relato de vida se construye a partir del encadenamiento de hechos significativos.


Denzin los llama epifanías o momentos cruciales. Sautu los denomina momentos críticos.

48 de 107
- Es importante recolectar todo tipo de testimonios, sean escritos, visuales o relacionales, a
fin de completar y enriquecer el relato.

Analizando e interpretando la historia de vida


- El momento de la trascripción implica una situación difícil en la que se cumple el
complejo pasaje de la oralidad a la escritura, dos momentos de comunicación diferentes, ligados a
lógicas netamente contrastantes (pág. 14). En el mismo se realizan interpretaciones de segundo y
tercer orden (a partir de las que hace el sujeto sobre su propia vida). El investigador debe
comprender la vida de quien investiga en el contexto histórico en el cual se desarrolla.

Desafíos y perspectivas
- Así como la figura del individuo aislado es una ficción, la producción de un relato libre de
influencias de otros actores e instituciones también lo es.

- Considerar que el conocimiento es el producto de la interacción entre seres humanos


implica incorporar la reflexividad en la práctica de la investigación (pág. 16)

¿Qué aporta la historia de vida a las investigaciones en ciencias sociales?


- Los autores destacan tres puntos como ventajas del recurso a la historia de vida:

1- Relaciones entre individuos y sociedad: la historia de vida permite conocer también la


cultura, la sociedad, los valores y el imaginario simbólico de una determinada sociedad desde una
mirada, desde una trayectoria que es única, irrepetible y abierta. (pág. 17)

2- Énfasis en lo diacrónico: a través de la historia de vida, el carácter procesual de los


hechos sociales se vuelve evidente.

3- Perspectiva de temas y sujetos invisibilizados: la historia de vida es una recurso


particularmente sensible para abordar individuos, grupos sociales y temas que son frecuentemente
invisibilizados. Ahondar en las trayectorias de vida de sujetos pertenecientes a grupos sociales
subordinados, históricamente privados de la palabra pública, es uno de los mayores logros de los
métodos biográficos.

Aporte a la sociología: “las historias de vida […] sitúan de nuevo a la investigación sociológica
en sus orígenes y en su objetivo primario: el análisis empírico, conceptualmente orientado, de los
hechos humanos como fenómenos en constante tensión, como realidades fluidas productoras de
sentido, relativamente determinadas y al mismo tiempo como imprevisibles, y por esta razón,
dramáticas” (Ferrarotti) pág. 17
Bertaux, D: Los relatos de vida en el análisis social: Historia oral
- Toda investigación empírica pasa necesariamente por diferentes fases: de la ignorancia al
descubrimiento, a la formación de una representación mental de los procesos y a la
comprobación de las observaciones, y por último a la expresión oral y escrita de esta

49 de 107
representación. Estos tres estados: la exploración, el análisis y la síntesis no se encuentran
enteramente separados en la práctica.
- Según la perspectiva cuantitativa sólo la primera fase sería adecuada para los métodos
cualitativos, Bertaux por el contrario, considera es posible conducir una investigación empírica
pasando por las tres fases, sin acudir a técnicas cuantitativas.
- En este sentido el autor quiere mostrar en el desarrollo del texto que los relatos de vida,
técnicas del enfoque cualitativo, pasan por las tres fases (o cumplen con la tres funciones) de
todo conocimiento empírico:
4- Función exploratoria: se hace del relato una utilización extensiva, se busca cubrir el
máximo de aspectos de la vida social, dado que no se sabe aún los que van a ser relevantes.
Cuando estos últimos empiezan a aparecer, se puede pasar a una utilización intensiva.
5- Función analítica: comprende dos momentos: el de la construcción de teoría y el de la
verificación, o consolidación empírica de las proposiciones descriptivas y de las interpretaciones
avanzadas. En tanto los relatos de vida constituyen significantes, se reconocen dos orientaciones
entre los practicantes del enfoque biográfico: 1. Los que se interesan por los significados
(“hermenéutica”) y 2. los que se interesan por los referentes, por la relaciones, normas y
procesos que estructuran la vida social (“etnosociológica”).- esta última es a la que refiere
Bertaux en este texto-
La teorización es un proceso que se desarrolla en la duración, para ir construyendo paso a paso
una representación mental de los procesos sobre los cuales se ha elegido concentrar la atención
después de la fase exploratoria. Si una vez delimitado el carácter de lo que se encuentra en la
repetición, parece que se trata de un objeto sociológico, se alcanzado entonces el primer nivel
de saturación. Entonces se encontrará sistemáticamente encontrar casos negativos. Si la teoría
esbozada resiste este proceso entonces se habrá alcanzado la verdadera saturación. Sin que se
trate de una cuestión de muestra representativa se habrá alcanzado igualmente una descripción
convincente de los fenómenos estudiados. Así se resuelve el problema de la generalización sin
muestra representativa.
6- Función expresiva: pueden utilizarse segmentos de relatos de vida para ilustrar tal o
cual punto de la argumentación, teniendo en cuenta que la validez de ésta reside en: a) la
saturación alcanzada y b) la coherencia interna de la argumentación. La narración tiene el valor
de síntesis, es decir que incluye la fase analítica y la supera tomando la forma totalizante de la
autobiografía. “La utilización de relatos de vida como artificio para introducir ideas sobre lo
social, me parece adecuada para regenerar el estilo de la escritura sociológica , que desde hace
mucho tiempo se quedó encallada en los callejeros simétricos del cientificismo y del ensayismo
literario” (pág. 148)

50 de 107
Unidad 2.4 Tipología
MC. KINNEY, J Tipología constructiva y teoría social, Cap 1: Conceptos, construcciones mentales y tipos
constructivos
Todos los conceptos son construcciones mentales que se han desarrollado sobre la base de la experiencia.
Los seres humanos natural y necesariamente clasifican en categorías y estructuran su experiencia en
términos de conceptos. El hombre de ciencia ignora necesariamente lo único, lo extraño y no recurrente, y
por tanto se aleja de la experiencia perceptiva. Este alejamiento es el precio que debe pagar por el logro de
la generalidad abstracta.
Todos los conceptos son generalizaciones y toda generalización implica una abstracción. La abstracción
puede tener lugar de dos modos íntimamente relacionados, que contribuyen al carácter general del
concepto.
Primero se encuentra la abstracción de la cualidad común entre los particulares que difieren (Árbol es la
unidad conceptual en la cual quedan captados el pino, la palmera, etc.) El concepto es abstracto en el
sentido que las diferencias específicas se pierden en el proceso abstractivo. En segundo lugar, hay
abstracción en la forma de selección basada en el interés teórico particular del hombre de ciencia. La
semejanza es generalmente compleja e involucra una pluralidad de cualidades más simples. Esto permite
distinguir entre los atributos esenciales y los que no lo son, pero dejando nuevamente un carácter artificial
en el concepto por las exclusiones que le han sido impuestas.
Ningún concepto es jamás símbolo perfecto de aquello que simboliza. Porque inevitablemente su
contenido será menor.
A los conceptos comunes se les da precisión de construcciones mentales por medio de la selección y la
limitación a los tipos construidos se les da precisiones por medio de la selección, la limitación, la
combinación la acentuación. El tipo construido organiza la experiencia de modo algo diferente del
concepto común en cuanto ordena una serie de atributos en una configuración que no se experimenta
necesariamente en forma directa u da énfasis a uno o varios de los atributos con fines teóricos. En
contraste con el concepto, el tipo construido es determinado, en gran parte, por la actividad selectiva y
creativa del hombre de ciencia. La distinción fundamental, sin embargo, es que su valor como componente
del conocimiento no se debe medir por la precisión de su correspondencia con la experiencia perceptual,
sino en términos de su capacidad explicativa. Una de las funciones científicas del tipo construido es el
ordenamiento de los datos concretos de manera que puedan ser descriptos en términos que los hagan
comparables; de este modo la experiencia obtenida en un caso, a pesar de su unicidad, puede ser llevada a
revelar con cierto grado de probabilidad lo que se puede esperar en otras experiencias. El tipo construido
es un tipo especial de concepto que se desarrolla con fines descriptivos, comparativos y predictivos. Pero
no intenta retener todos los aspectos singulares del mundo empírico. La comparación y medición de las
aproximaciones empíricas solo revela las desviaciones con respecto a la construcción mental. Este
procedimiento puede llevar a la cuantificación en términos del grado de desviación. Si se ha de determinar
respectiva y comparativamente el grado de desviación se debe mantener constante la base de medida (el
tipo). Las relaciones entre los elementos (criterios) del tipo son relaciones postuladas; por lo tanto es
posible y legítimo mantenerlas constantes.
Desde el punto de vista lógico, el tipo habrá de contener en su estructura todas las propiedades o
elementos esenciales de una estructura concreta o de un curso de acción, pero no necesariamente en la
proporción exacta de un suceso empírico dado. Estas propiedades o elementos constituyen las variables
dentro del tipo. La eliminación de una o más variables, o la alteración de la relación entre ellas, implica el
desarrollo de un nuevo tipo.
Es esencial que el tipo sea formulado como objetivamente probable. Por ejemplo, el concepto de un
hombre racional denota la adaptación de medios a fines. Es evidente que ningún hombre real es racional
en todos los aspectos de su conducta. La comparación del grado en que un hombre real satisface la
expectativa sirve de base para explicar las diferencias en su conducta.
El tipo se concentra en la uniformidad y solo por medio de ella alcanzamos la comprensión de las
variaciones o desviaciones.
Las mismas observaciones que hizo Max Weber acerca de lo que no es un tipo ideal, se puede aplicar para
el tipo construido:
1. No es una hipótesis (no puede ser verificada concretamente). 2. No es una descripción de la realidad (es
abstracto). 3. No es un promedio. 4. Tampoco es una formulación de rasgos concretos comunes a una clase
de entes concretos.
Se le pueden agregar al tipo construido los siguientes límites negativos:
1. El tipo construido no es un universo homogéneo.

51 de 107
2. El tipo constituido no se refiere necesariamente a la forma más común de un fenómeno, sino en
general a la forma más significativamente representativa.
3. El tipo constituido no es un estereotipo, en cuanto el estereotipo carece con frecuencia de un
referente empírico y constituye una exageración efectiva impremeditada que no es empíricamente
útil porque le faltan criterios explícitos que la hagan comparable a casos concretos.
El tipo construido es representativo de una distribución de modo diferente, en cuanto ha sido formulado en
forma deliberada como un caso limite cuyo grado de desviación es mensurable.
Muchos científicos sociales no consideran que el tipo construido sea indispensable. Esto puede atribuirse
al hecho de que, comúnmente, se da un uso casual a la tipología, así como a una carencia de codificación y
rutinización del método tipológico. El empleo inequívoco más difundido de la tipología implica la
objetivación injustificable de los tipos. Hay que recordar que se trata de una herramienta para el
ordenamiento de los fenómenos concretos.
Otra área problemática n la interpretación tipológica es el hecho de no reconocer el carácter condicional de
las generalizaciones predictivas basadas sobre abstracciones tipológicas. El tipólogo crea simplemente el
tipo, no la conducta real.

Unidad 3 Análisis Cualitativo


Strauss, A T Corbin, J Elementos básicos de la investigación cualitativa generando teoría a partir de los
datos, procedimientos y técnicas

¿Qué es investigación cualitativa?


El término investigación cualitativa se refiere a cualquier tipo de investigación que produce hallazgos a los
que no se ha llegado por procedimientos estadísticos o por otros medios de cuantificación. Se puede referir
a investigación sobre la vida, historias y conducta de las personas, pero también sobre funcionamiento
organizacional, movimientos sociales o relaciones de interacción. Pero siempre analizados con un proceso
analítico, no matemático que produce hallazgos derivados de los datos reunidos con una variedad de
medios. Ellos incluyen observación y entrevistas, pero pueden también incluir documentos, libros e
incluso datos censales.
¿Qué tipo de habilidades se requieren para hacer investigación cualitativa?
El investigador cualitativo requiere sensibilidad teórica y social, la habilidad para mantener distancia
analítica mientras al mismo tiempo recurriendo a sus experiencias pasadas y conocimiento teórico.
¿Puedo yo combinar métodos cualitativos y cuantitativos?
Como buenos estudiantes de método I que somos sabemos que sí. Por ejemplo uno puede usar datos
cualitativos para ilustrar o clarificar hallazgos derivados cuantitativamente o uno puede cuantificar
hallazgos demográficos.
¿Por qué hacer investigación cualitativa?
Una razón es la convicción del investigador basada en su experiencia de investigación.
Otra razón es la naturaleza del problema de investigación, por ejemplo la conversión religiosa. Los
métodos cualitativos pueden ser utilizados para descubrir y comprender lo que se oculta detrás de
cualquier fenómeno sobre el cual se conoce poco o para dar nuevas perspectivas o para conocer
intrincados detalles de fenómenos.
¿Cuales son los componentes mayores de la investigación cualitativa?
Hay tres componentes mayores: primero los datos, que pueden provenir de varias fuentes como entrevistas
y observaciones. El segundo consiste en diferentes procedimientos analíticos o interpretativos que son
usados para arribar a los hallazgos o a las teorías. Incluyendo las técnicas para conceptualizar los datos.
Estos procesos llamados “codificación” varían dependiendo del investigador. Otros procesos son parte del
proceso analítico. Estos incluyen muestreo no estadístico, la estructura de memorandums, y la
diagramación de relaciones conceptuales. El tercer componente son los informes verbales o escritos.
¿Hay diferentes tipos de investigación cualitativa?
Algunos de los diferentes tipos de investigación cualitativa son: teoría desde los datos, etnografía, la
aproximación fenomenológica, historias de vida y análisis conversacional.
Uno de los problemas que crea controversia acerca de la investigación cualitativa se refiere a cuanta
interpretación debe hacerse de los datos. Algunos sostienen que los datos no deben ser analizados para
evitar sesgos. La tarea del investigador sería escuchar e informar, algo cercano al periodismo. Otro grupo
está preocupado por lo descripción exacta, cuando no se pueden presentar todos los datos a los lectores
hay que reducir y seleccionar el material y esto requiere selección e interpretación. Los materiales
ilustrativos tienen la intención de dar un sentido de lo que el mundo observado es realmente; mientras que

52 de 107
las interpretaciones del investigador tienen la intención de dar una conceptualización con más distancia
con respecto a la realidad.
Otros investigadores están preocupados por construir teoría, ellos implica interpretar los datos, porque los
datos deben ser conceptualizados y los conceptos relacionados para formar una rendición teórica de la
realidad.
¿Qué es una teoría construida desde los datos?
Es cuando uno no comienza con una teoría y luego la prueba. Más bien, uno comienza con un área de
estudio y permite emerger lo que es relevante para esa área.
¿Por qué construir teoría a partir de los datos?
Una bien construida teoría desde los datos debe cumplir cuatro criterios centrales para juzgar su
aplicabilidad de la teoría a un fenómeno: fiel (que se ajuste a un fenómeno o a un proceso), comprensión,
generalidad y control.
Porque ella representa la realidad, ella va a ser también comprensible y a hacer sentido tanto para las
personas que son estudiadas como para aquellos que practican en dicha área. La teoría debe ser
suficientemente abstracta e incluir suficiente variación para hacerla aplicable a una variedad de contextos
relacionados con ese fenómenos. Finalmente, la teoría debe proveer control con respecto a la acción hacia
ese fenómeno.
¿Qué es la aproximación llamada teoría desde los datos?
Es un método de investigación cualitativo que usa un sistemático conjunto de procedimientos para
desarrollar una teoría derivada desde los datos inductivamente sobre un fenómeno. El propósito es,
generar teoría que sea fiel y que ilumine el crea bajo estudio. (¿?)
¿Cuáles son los requisitos para aprender esta aproximación?
1) Se debe estudia, no meramente leer, los procedimientos que son descritos en los varios libros y
estar preparados para seguirlos.
2) Es sólo practicando los procedimientos a través de investigación continua que se gana suficiente
comprensión acerca de como estos funcionan.
3) Una cierta apertura y flexibilidad son necesarias para ser capaz de adaptar los procedimientos a
diferentes fenómenos y situaciones de investigación.
¿Es la teoría basada en los datos sólo una aproximación sociológica?
Puede ser utilizada por personas de muchas disciplinas efectivamente. Lo que importa son los
procedimientos.
¿Es Teoría Basada en los Datos un “Método Científico? ¿Si lo es, que lugar ocupa en la creatividad?
Efectivamente la teoría basada en los datos es un método científico. Sus procedimientos son diseñados de
tal manera que, si son llevados a cabo cuidadosamente, el método llena los criterios para hacer “buena”
ciencia.
Creatividad es también un componente vital de esta teoría. Se manifiesta en la habilidad del investigador
para hacer con amplitud categorías; y también para dejar la mente vagar libremente y hacer las
asociaciones que son necesarias para generar preguntas estimulantes, y para irrumpir con las
comparaciones que llevan a los descubrimientos.
¿Cuál es la diferencia entre teoría y descripción?
La teoría una conceptos. Los datos similares son agrupados y le son otorgadas etiquetas conceptuales. Esto
significa colocar interpretaciones de los datos. Segundo, los conceptos son relacionados por medio de la
afirmación de relaciones. En la descripción, los datos pueden ser organizados de acuerdo a temas. Estos
temas pueden ser conceptualizaciones de los datos pero es más probable que sean un sumario de palabras
tomadas directamente de los datos. Hay muy poca, si hay alguna, interpretación. No hay tampoco ningún
intento de relacionar los temas en la forma de esquema conceptual.
¿Es necesario transcribir todas sus entrevistas y notas de campo?
La regla general es transcribir solamente lo necesario. Aunque esto no puede hacerse hasta que se esté bien
sumergido en el curso del estudio. La transcripción que puede representar considerable tiempo y dinero
debe ser selectiva. En general las primeras entrevistas o notas de campo deben ser transcriptas enteramente
y analizadas antes de pasar a las siguientes entrevistas u observaciones. Esta primera codificación
proporciona guías para la nueva etapa de observaciones. Luego, cuando su teoría se vaya desarrollando,
puede querer transcribir sólo aquellos párrafos que estén relacionados con su teoría. Una nota final: mejor
más que menos. Pero finalmente, la responsabilidad y el juicio final son suyos.
Sumario:
Teoría a partir de los datos es una aproximación cualitativa de investigación desarrollado por Glaser y
Strauss. Sus técnicas sistemáticas y procedimientos de análisis permiten al investigador desarrollar una

53 de 107
teoría substantiva que llene los criterios para hacer “buena ciencia”: significatividad, compatibilidad entre
observaciones y teoría, generalización, reproductibilidad, precisión, rigor y verificación. Mientras los
procedimientos son diseñados para darle al proceso analítico precisión y rigor, la creatividad es también
un elemento importante. Porque es esta última la que permite al investigador hacerse las preguntas
pertinentes sobre los datos y hacer los tipos de comparaciones que obtienen de los mismos datos nuevas
perspectivas del fenómeno y nuevas formulaciones teóricas. Esta aproximación puede ser usada por
personas de cualquier disciplina u orientación teórica deseosa de desarrollar una teoría a partir de datos.

KORNBLIT: Glaser y Strauss. Metodologías cualitativas: modelos y procedimietos de análisis


 La técnica de muestreo teórico consiste en la recolección de datos para generar una teoría,
mediante la cual el investigador conjuntamente selecciona, codifica y analiza su información y decide que
información escoger luego y donde encontrarla para desarrollar su teoría tal cual surge de los datos.
 Junto con el método de comparación constante, el muestreo teórico es, para Glaser y
Strauss, la estrategia para desarrollar una teoría fundamentada.
 Aquí juega, según estos autores, un importante papel la sensibilidad teórica del
sociólogo, que es entendida como su capacidad para conceptuar y formular una teoría tan pronto
emerge de sus datos. Esta sensibilidad esta en continuo desarrollo.
 Los grupos deben ser elegidos según el criterio teórico del investigador, siguiendo, según
Glaser y Strauss, los criterios de propósito teórico y relevancia.
 El criterio para establecer cuando termina el muestreo es la saturación teórica de una
determinada categoría. Saturación teórica significa que no se hallara ninguna información adicional por la
cual el sociólogo pueda desarrollar propiedades de tal categoría. Los criterios para determinar la
saturación son la combinación de los límites empíricos de los datos, la integración y la densidad de la
teoría, y la sensibilidad teórica del analista.
 Ante esto, Glaser y Strauss, proponen hablar de cortes de datos en referencia a as distintas
clases de datos que dan al analista diferentes puntos de vista a través de los cuales puede comprender una
categoría y desarrollar sus propiedades.
 En este sentido el muestreo teórico permite una investigación multifacética sin
limitaciones respecto a las técnicas de recolección de datos
 Así la variedad de cortes de datos tiene como ventaja favorecer la generación de teoría al
brindar más informaciones sobre las categorías.
 El muestro teórico plantea una particularidad dada por la realización simultánea de la
recolección teórica, la codificación y el análisis de los datos.

Perspectiva cualitativa
La investigación cualitativa es un campo de indagación por derecho propio. Entrecruza disciplinas,
campos y problemáticas. Una compleja familia de términos interrelacionados y presupuestos rodea el
término investigación cualitativa.
La investigación cualitativa se puede definir como un multimétodo focalizado, incluyendo
interpretaciones y aproximaciones naturalistas a su objeto de estudio. Los investigadores estudian las
cosas en su situación natural, tratando de entender o interpretar los fenómenos en términos de los
significados que la gente les otorga. La investigación cualitativa incluye recolección y el uso estudiado de
una variable de materiales empíricos que describen la rutina, los momentos problemáticos y los
significados en la vida de los individuos. Los investigadores cualitativos despliegan un amplio rango de
métodos interrelacionados, esperando siempre conseguir fijar mejor el objeto de estudio que tienen entre
manos.
Se reconstruye el campo social. Hay procesamiento más artesanal de los datos. Un motivo para
elegir esta perspectiva es para ver la mirada que tienen los actores. La significación que los actores le
ponen a su acción. Todos los tipos de creencias, vivencias, pensamientos que poseen, se interpretan.
Recuperar la perspectiva del actor. La realidad no es prefijada como se hace en la perspectiva cuantitativa.
No hay una construcción teórica de las variables por nosotros. La realidad en lo cuantitativo la
construimos nosotros. Creamos variables y las ponemos a prueba. Ej.: sexo, edad, nivel educativo, etc.
En lo cualitativo tratamos de ver como los actores ven la realidad. Buscar que den su pensamiento.
Captamos esta realidad y luego le damos un sentido. Recuperar los ¿Por qué?, los motivos por los que
realizan una acción.

54 de 107
La pregunta problema en lo cuantitativo tiene que ver con una relación de variables. Lo cualitativo
se pregunta como ven los actores investigados ciertos aspectos o maneras de vivir. Ver su significación a
determinado fenómeno. Nos centramos en las voces de los actores. En lo cuanti se hace relación de
variables, hacemos un diagnóstico.
Hay un fenómeno que afecta a todos, por ejemplo, una contaminación. En lo cuanti hacemos
nuestra mirada mientras que en lo cuali estamos abiertos a la mirada de todos los actores. Ver sus
símbolos, creencias, costumbres, perspectivas, etc. El investigador debe aislar sus juicios valorativos.

Características de la perspectiva cualitativa en comparación con la cuantitativa:


Mirada holística: mirar la realidad desde una unidad, desde un conjunto. Ver el contexto social, todas las
relaciones. Suelen usar varios métodos para así poder dar cuenta de toda la realidad. Observaciones,
entrevistas, historia de vida.
Naturalista: reconstruimos la realidad tal cual se da. Tal como sucede se recuperan los hechos. Etnografía
(viene de la antropología, trabajos intensivos, bastante permanencia en el campo, observación participante,
descripciones densas) Etnometodología (ve las conversaciones, las interacciones)
Partimos de supuestos: a diferencia de los cuanti que ponen a prueba hipótesis con variables que se
relacionan. En lo cuali vamos a partir de los supuestos.
Lugar de la teoría: en lo cuanti va a ser “ex ante”. Elaboramos el marco teórico antes. De ahí surgen las
variables y las hipótesis. Están desde el principio. De ahí construimos las técnicas que sacan conclusiones.
En lo cualitativo va a ser “ex post”. Crear teoría a partir de los datos. Se construye la teoría a medida que
recolectamos los datos. Se hacen simultáneamente la recolección y el análisis.
Las UA: en lo cuantitativo tiene un peso de representación. Representan a la muestra que se tomo. En lo
cuali no hay peso. Cada uno habla por si mismo. Vemos la especificidad propia de cada actor.
El énfasis: en lo cuanti esta puesto en establecer relaciones causales. Lo cuali es procesual, comprender
los procesos que se dan en la realidad.
Modelo: en lo cuanti es lineal y en lo cual es circular. En lo cuanti las etapas son consecutivas. Hay
articulación lógica entre estas etapas. En lo cuali volvemos siempre para ir construyendo la teoría. El
investigador se introduce en los datos, los interpreta y vuelve a la realidad para analizar. Proceso circular.
Punto de vista: En lo cuanti es externo, en lo cuali es interno. En lo cualitativo vamos a indagar a los
actores, los que son investigados, como ven un fenómeno, porque para que, etc
Variables: en lo cuanti las variables recortan la realidad. Recortar lo que la gente ve. Vamos con las
variables y les preguntamos sobre ellas. En lo cualitativo no vamos con las variables. Surgen del actor que
es investigado. No se habla tampoco de variables en lo cuali. Las categorías van emergiendo.
Selección de los casos: En lo cuanti se basa en el tipo de muestra, el tamaño, ligado a los objetivos. La
muestra es prefijada. En lo cualitativo encontramos el muestreo teórico. Los casos se seleccionan por
decisiones teóricas del investigador. Primero ver que quiero saber de ciertos casos. Los sujetos nos van
recortando. Van apareciendo miradas similares. Elaboramos ahí una categoría. Avanzamos hasta la
saturación teórica. Y ahí recién pasamos a otro grupo. El investigador va tomando decisiones de cómo va a
ser la muestra. No sabe cuantas son en total las entrevistas que se van a hacer. Están sujetos al muestreo
teórico. No esta prefijado.

Análisis
El proceso de análisis en lo cualitativo se da activamente con la recolección de los datos. Se ha
recolectado mucha información y hay que procesar todo esto. Se busca almacenar y concentrar. Se arma el
desgravado, la codificación, los memos, episodios de análisis, etc. Del campo surgen análisis que van a ir
a parar a un texto. En lo cuali siempre se va y se viene. En lo cuanti es lineal, primero se recolecta y
después se hace todo el análisis. Se delimitan las partes de un texto.
El dato es resultado de una elaboración de la realidad. A partir de ciertos registros de la realidad el
investigador toma datos. Los datos son de naturaleza descriptiva. Tienen una amplia y variada
información. Densos en significado.
Codificación: manipulo la información poniéndole un código. Hago una especie de clasificación.
Esto hace que se generen categorías. Las categorías son elementos conceptuales por los cuales uno
clasifica las unidades.
Categorías comunes: las que usan los actores. Son categorías locales. Como conceptualizan los
que indagamos.
Categorías especiales: expresión de un grupo particular. Jerga en particular.

55 de 107
Categorías teóricas: el investigador trata de tomar las categorías comunes y transformarlas en
teóricas.

3) ANALISIS CUALITATIVO

-Enfoque cualitativo:
Cualitividad significa no reductible a la cuantificación. Estos tipos de estudios tienden a focalizarse en
universos de una o muy pocas unidades de análisis. Principalmente se caracterizan por el manejo de
variables no cuantificables o de un bajo nivel de cuantificación, y mediante técnicas que no enfatizan los
registros no cuantificados.
El investigador opta por revelar múltiples características cualitativas sobre pocas unidades. Los estudios
cualitativos buscan la cualidad de los fenómenos por ende su muestra es no probabilística, no se interesa
por la cantidad.
La muestra generada en el enfoque cualitativo tiene relación con el muestreo teórico.
En el método cualitativo los instrumentos de recolección son instrumentos abiertos, no estructurados:
como por ejemplo la entrevista y la observación. Por ende, la tarea de campo es fundamental, el rol del
investigador va a ser muy importante debido a la utilización de instrumentos abiertos.
Se entiende de esta manera que la investigación cualitativa se centra en la compresión de las acciones de
los actores y la influencia social sobre los actores. Se toma en cuenta la perspectiva del actor. Por lo cual
se entiende a la realidad por medio de la perspectiva de los actores. Se estudian las cosas en su situación
natural. Por lo cual implica que haya una intima relación entre el investigador y su objeto de estudio.
Produce distintos tipo de conocimientos como descripción, interpretación, teoría, generalización y
evaluación (se usa en combinación con el enfoque cuanti).

-Diseño de investigación cualitativo:


Un buen diseño es, en el cual los componentes trabajan armoniosamente juntos, promueven eficiencia.
El diseño de investigación cualitativo es un proceso iterativo (se repite o reitera) que involucra virajes
hacia atrás y adelante entre diferentes componentes del diseño. Por lo cual este modelo interactivo es un
diseño de disposición de elementos que rigen el funcionamiento de un estudio.
Se pueden establecer 5 componentes: propósitos (cuales son las metas ultimas de este estudio; Contexto
conceptual; Preguntas de investigación (que se quiere comprender de nuestro objeto de estudio); Métodos
(que cosas haré para guiar este estudio); Validez. En este modelo los componentes forman una totalidad
integrada e interactuante., en vez de ser una secuencia lineal o cíclica. Este modelo presenta relaciones
entre los cinco componentes.

-Análisis de datos Cualitativos:


El análisis de los datos suele ser la tarea mas fecunda en el proceso de investigación, en la medida en que,
como consecuencia de esta, podemos acceder a resultados y conclusiones, logrando profundizarnos en el
conocimiento de la realidad del objeto de estudio. Pero al mismo tiempo. El análisis de datos constituye
una de las actividades mas complejas y mas oscuras en la investigación cualitativa. La naturaleza de los
datos recogidos, generalmente registrados en forma de textos narrativos o imágenes y la multiplicidad de
informaciones que soportan hacen que el análisis requiera cierto esfuerzo por parte del investigador.

Consideraremos al dato como una elaboración, de mayor o menor nivel realizada por el investigador o
cualquier otro sujeto en el campo de estudio, en la que recoge información da la realidad externa e interna
a los sujetos y que se utiliza con propósitos indagativos. El dato soporta una informaron sobre la realidad,
implica una elaboración conceptual de esa información y un modo de expresarla que hace posible su
conversación y comunicación.

Los datos no son más que el material bruto a partir del cual el investigador debe realizar operaciones
oportunas que le permita estructurar el conjunto de información en un todo coherente y significativo. Por
lo tanto el análisis de datos cualitativos se realiza por medio de tratamientos de los datos que se lleven a
cabo generalmente preservando su naturaleza textual, poniendo en practica tareas de categorización.

-Dificultades para el análisis:


El análisis de datos es visto como la tarea mas complica en la investigación cualitativa, por diferentes
motivos:

56 de 107
-Por la gran cantidad de datos que se recogen en la investigación, por su naturaleza verbal hace que el
análisis entrañe complejidad y dificultad
-Otra dificultad es que el análisis de datos cualitativos tiene escaso tratamiento en la literatura
especializada.
-Por último el análisis de datos cualitativo representa una dificultad para el investigador debido a que no
es posible localizarlo en una fase precisa del proceso de investigación. Se realiza de manera simultánea a
otras tareas.

-El proceso general del análisis:


A pesar de que no exista un modo único y estandarizado de llevar a cabo el análisis, es posible distinguir
en la mayoría de los casos una serie de tareas u operaciones que constituyen el proceso analítico básico.
En el curso de un estudio cualitativo, el investigador recoge abundante información acerca de la realidad
sobre la que se centra su trabajo. Una primea tarea que deberá afrontar el investigador es la reducción de
los datos es decir desarrollar una simplificación, un resumen o una selección de la información para
hacerla abarcable y manejable.
Entre las tareas de reducción de datos cualitativos, los más representativos y al mismo tiempo los más
habituales son la categorización y la codificación. Por lo cual se parte de un conjunto amplio y complejo
de información para llegar a elementos manejables que permitan establecer relaciones y sacar
conclusiones.
La identificación y clasificación de elementos es precisamente la actividad que realizamos cuando
categorizamos y codificamos un conjunto de datos.
CATEGORIZACION esta herramienta hace posible clasificar conceptualmente las unidades que son
cubiertas por un mismo tópico. Una categoría soporta un significado o tipo de significados.
CONCEPTUALIZACION es la operación concreta por la cual se le asigna a cada unidad de análisis un
indicativo o código propio de la categoría en la que la consideramos incluida. Por lo cual los códigos que
representan a las categorías consisten en marcas que añadimos a las unidades de datos, para indicar a la
categoría que pertenece.
Categorizar implica valorar si determinadas unidades pueden o no ser incluidas bajo un determinado
código.
Los sistemas de categorías deben respetar tanto la objetividad (deben resultar intangibles para distintos
codificadores) y debe tener pertinencia con respecto a los objetivos de estudio.

La categorización supone en si misma una operación de síntesis, por cuanto permite reducir un numero
determinado de unidades a un solo concepto que la representa.
De esta manera logramos sintetizar los datos. Pero si de estos, datos, queremos llegar a conclusiones es
preciso presentarlos y disponerlos de un modo ordenado. O sea, una disposición, esta es un conjunto
organizado de información, presentada de forma ordenada, abarcable y operativa de cara a resolver las
cuestiones de la investigación.
Uno de los procedimientos de disposición usados con frecuencia son los gráficos, los cuales no solo
permiten presentar los datos sino advertir relaciones y descubrir su estructura profunda. Los gráficos son
los diagramas, que son representaciones graficas de relaciones entre conceptos.
Otro procedimiento son las matrices, que consisten en tablas de doble entrada en cuyas celdas se alojan
una breve información verbal, de acuerdo con los aspectos especificados por filas y columnas. Es
frecuente construirlas para sintetizar los fragmentos codificados en una misma categoría (columna) para
diferentes sujetos, situaciones, casos, etc.

-Obtención de conclusiones y resultados:


Llegar a conclusiones implicaría reconstruir un todo estructurado y significativo. La investigación
cualitativa se preocupa por el significado que los participantes le atribuyen a sus prácticas.
La tarea de extraer conclusiones no puede circunscribirse a ningún momento particular del proceso de
análisis, se desarrolla a lo largo del proceso de investigación.
Pero sin duda una de las principales herramientas intelectuales en el proceso de obtención de conclusiones
es la comparación. La comparación permite destacar las semejanzas y diferencias entre las unidades
incluidas en una categoría. La comparación de filas o columnas de una matriz, por ejemplo, constituye la
principal vía para extraer conclusiones.

57 de 107
Una vez alcanzada las conclusiones deben ser verificadas, es decir confirmar que los resultados
correspondan a los significados e interpretaciones que los participantes atribuyen a la realidad. Es
necesario verificar la validez de la investigación, en la investigación cuali la validez es menos precisa que
en la cuanti.

-Diferencia entre hacer una descripción y una teoría (a partir de investigación cualitativa)
Básicamente se diferencian en dos puntos;
Primero la teoría usa conceptos. Los datos similares son agrupados y les son otorgadas etiquetas
conceptuales. Esto significa interpretar los datos. Segundo los conceptos son relacionados y comparados
para obtener conclusiones.
Por otro lado en la descripción los datos pueden ser agrupados según los temas. Hay muy poca
interpretación, si la hay de los datos. Y no hay ningún intento de relacionar los temas en la forma de
esquema conceptual.

Unidad 5
MC. KINNEY, J
Tipología constructiva y teoría social, Cap 1: Conceptos, construcciones mentales y tipos
constructivos

58 de 107
Todos los conceptos son construcciones mentales que se han desarrollado sobre la base de la
experiencia. Los seres humanos natural y necesariamente clasifican en categorías y estructuran su
experiencia en términos de conceptos. El hombre de ciencia ignora necesariamente lo único, lo
extraño y no recurrente, y por tanto se aleja de la experiencia perceptiva. Este alejamiento es el
precio que debe pagar por el logro de la generalidad abstracta.
Todos los conceptos son generalizaciones y toda generalización implica una abstracción. La
abstracción puede tener lugar de dos modos íntimamente relacionados, que contribuyen al
carácter general del concepto.
Primero se encuentra la abstracción de la cualidad común entre los particulares que difieren
(Árbol es la unidad conceptual en la cual quedan captados el pino, la palmera, etc.) El concepto
es abstracto en el sentido que las diferencias específicas se pierden en el proceso abstractivo. En
segundo lugar, hay abstracción en la forma de selección basada en el interés teórico particular del
hombre de ciencia. La semejanza es generalmente compleja e involucra una pluralidad de
cualidades más simples. Esto permite distinguir entre los atributos esenciales y los que no lo son,
pero dejando nuevamente un carácter artificial en el concepto por las exclusiones que le han sido
impuestas.
Ningún concepto es jamás símbolo perfecto de aquello que simboliza. Porque inevitablemente su
contenido será menor.
A los conceptos comunes se les da precisión de construcciones mentales por medio de la
selección y la limitación a los tipos construidos se les da precisiones por medio de la selección, la
limitación, la combinación la acentuación. El tipo construido organiza la experiencia de modo
algo diferente del concepto común en cuanto ordena una serie de atributos en una configuración
que no se experimenta necesariamente en forma directa u da énfasis a uno o varios de los
atributos con fines teóricos. En contraste con el concepto, el tipo construido es determinado, en
gran parte, por la actividad selectiva y creativa del hombre de ciencia. La distinción fundamental,
sin embargo, es que su valor como componente del conocimiento no se debe medir por la
precisión de su correspondencia con la experiencia perceptual, sino en términos de su capacidad
explicativa. Una de las funciones científicas del tipo construido es el ordenamiento de los datos
concretos de manera que puedan ser descriptos en términos que los hagan comparables; de este
modo la experiencia obtenida en un caso, a pesar de su unicidad, puede ser llevada a revelar con
cierto grado de probabilidad lo que se puede esperar en otras experiencias. El tipo construido es
un tipo especial de concepto que se desarrolla con fines descriptivos, comparativos y predictivos.
Pero no intenta retener todos los aspectos singulares del mundo empírico. La comparación y
medición de las aproximaciones empíricas solo revela las desviaciones con respecto a la
construcción mental. Este procedimiento puede llevar a la cuantificación en términos del grado de
desviación. Si se ha de determinar respectiva y comparativamente el grado de desviación se debe
mantener constante la base de medida (el tipo). Las relaciones entre los elementos (criterios) del
tipo son relaciones postuladas; por lo tanto es posible y legítimo mantenerlas constantes.
Desde el punto de vista lógico, el tipo habrá de contener en su estructura todas las propiedades o
elementos esenciales de una estructura concreta o de un curso de acción, pero no necesariamente
en la proporción exacta de un suceso empírico dado. Estas propiedades o elementos constituyen
las variables dentro del tipo. La eliminación de una o más variables, o la alteración de la relación
entre ellas, implica el desarrollo de un nuevo tipo.
Es esencial que el tipo sea formulado como objetivamente probable. Por ejemplo, el concepto de
un hombre racional denota la adaptación de medios a fines. Es evidente que ningún hombre real
es racional en todos los aspectos de su conducta. La comparación del grado en que un hombre
real satisface la expectativa sirve de base para explicar las diferencias en su conducta.
El tipo se concentra en la uniformidad y solo por medio de ella alcanzamos la comprensión de las
variaciones o desviaciones.
Las mismas observaciones que hizo Max Weber acerca de lo que no es un tipo ideal, se puede
aplicar para el tipo construido:

59 de 107
1. No es una hipótesis (no puede ser verificada concretamente). 2. No es una descripción de la
realidad (es abstracto). 3. No es un promedio. 4. Tampoco es una formulación de rasgos concretos
comunes a una clase de entes concretos.
Se le pueden agregar al tipo construido los siguientes límites negativos:
1. El tipo construido no es un universo homogéneo.
2. El tipo constituido no se refiere necesariamente a la forma más común de un fenómeno,
sino en general a la forma más significativamente representativa.
3. El tipo constituido no es un estereotipo, en cuanto el estereotipo carece con frecuencia de
un referente empírico y constituye una exageración efectiva impremeditada que no es
empíricamente útil porque le faltan criterios explícitos que la hagan comparable a casos
concretos.
El tipo construido es representativo de una distribución de modo diferente, en cuanto ha sido
formulado en forma deliberada como un caso limite cuyo grado de desviación es mensurable.
Muchos científicos sociales no consideran que el tipo construido sea indispensable. Esto puede
atribuirse al hecho de que, comúnmente, se da un uso casual a la tipología, así como a una
carencia de codificación y rutinización del método tipológico. El empleo inequívoco más
difundido de la tipología implica la objetivación injustificable de los tipos. Hay que recordar que
se trata de una herramienta para el ordenamiento de los fenómenos concretos.
Otra área problemática n la interpretación tipológica es el hecho de no reconocer el carácter
condicional de las generalizaciones predictivas basadas sobre abstracciones tipológicas. El
tipólogo crea simplemente el tipo, no la conducta real.

Unidad 5:
Operacionalizacion

1- ¿Que es la operacionalizacion?
2- Aclaraciones: ¿Que es un concepto?, ¿para que sirve? y ¿como se lo define?
3- Definición Nominal o conceptual de la variable:
4- Definiciones Reales de las Dimensiones y Subdimenciones
5- Indicadores
6- Construcción del Índice.

1- ¿Que es la operacionalizacion?
En cualquier investigación empírica cuantitativa, tendremos variables. Las variables son
propiedades, características o atributos de los objetos de investigación, o sea, de las unidades de
análisis.
En la investigación uno pretende medir, o sea, asignar un valor de variable a las unidades de
análisis o lo que es lo mismo, colocar las unidades de análisis en una de las categorías de la
variable.
Para lograr esto podemos tomar distintos caminos, uno de estos es operacionalizar la variable.

La operacionalizacion consiste en reducir la variable a conceptos medibles, registrables o


empíricos, o lo que es lo mismo, preparar la variable para que produzca datos empíricos o para
recoger datos de las unidades de análisis.
La operacionalizacion es el proceso que trata de conectar la teoría con empíria.

¿Que variables deben ser operacionalizadas?


No todas las variables requieren ser operacionalizadas, solo aquellas que no pueden medirse
directamente.
Las que no pueden medirse directamente son las Abstractas y las Complejas.

60 de 107
Las Abstractas son las que en su definición (Nominal o Conceptual) no tienen referencia
empírica precisa o la referencia empírica es indirecta, por tanto no pueden medirse directamente.
Las complejas son las que, en su definición (Nominal o Conceptual) pueden reconocerse más de
un aspecto, o sea, más de una dimensión.
Si la variable contiene solo una dimensión, es una variable simple; si contiene más de una
dimensión la variable es compleja.
Las variables generalmente son ambas cosas Abstractas y complejas.
Ej: La variable edad no necesito operacionalizarla, ya que no es ni abstracta, ni compleja; es solo
una variable simple: Definición Nominal de la variable edad: Cantidad de años transcurridos
desde su nacimiento hasta hoy.
Lo mismo ocurre con la variable sexo.

La operacionalizacion contiene los siguientes pasos:

A- Definición Nominal o conceptual de la variable.


B- Definiciones Reales de las Dimensiones y Subdimensiones.
C- Indicadores.
D- Construcción de un Índice.
E- Clasificar las unidades de análisis en la categoría de la variable que le corresponda
según el puntaje que obtengan

2- Aclaraciones: ¿Que es un concepto?, ¿para que sirve? y ¿como se lo define?


El investigador no se encuentra con una realidad en si cualquiera, si no con un mundo mas o
menos intencionalmente preformado mediante conceptos, así, no experimenta su objeto de
manera inmediata, sino mediada por conceptos.
Entonces queda claro que existe una mediación conceptual entre el sujeto y el objeto.
¿Que es un concepto?
Un concepto es un contenido figurativo designado por un término concreto.
El concepto es un Término que contienen dentro o que hace referencia, o que clasifica, o que
toma para si una serie de elementos determinados, estos elementos conforman el contenido
figurativo.
¿Que características tiene?
-El concepto no es idéntico a los fenómenos, no refleja los fenómenos de la realidad en un sentido
cuasi fotográfico.
-A través de los conceptos ordenamos el mundo empírico, pero esta ordenación no tiene por que
corresponder necesariamente a una estructura objetiva de la realidad.
¿Que funciones cumple?
-Ordenan la percepción de la realidad.
-Valoran o evalúan lo percibido
-Guían la acción individual
-Facilitan la comunicación

EJ: La función de ordenación de la realidad, determinan que debe ser observado en una
investigación determinada.
Ej: En la función de comunicación, los conceptos cumplen esta a la hora de transmitir los
resultados de una investigación.

Para que los conceptos puedan cumplir la función de Ordenación y comunicación deben cumplir
3 requisitos:
1: Deben tener acuerdo y continuidad en la atribución de determinados contenidos figurativos a
determinadas palabras, o sea, la definición debe ser coherente y mantener la misma.

61 de 107
Ej: Si tomo el concepto de grupos a que me voy a referir, ¿a pequeños o agrandes grupos? Lo que
decida deberé mantenerlo siempre.
2-Deben estar definidos con precisión.
3-Deben tener una referencia empírica. Deben directa o indirectamente referirse a algo aprensible
u observable.
¿Que es definir los conceptos?
Dijimos que un concepto es un contenido figurativo designado por un término concreto, por tanto
definirlo es indicar cual es el contenido que atribuimos a un concepto.
Definir es enumerar de forma descriptiva el contenido figurativo que caracterizado por una
palabra.
Definiendum: La palabra que significa ese contenido.
Definiens: La enumeración descriptiva de ese contenido.
Ej: Termino: Termo
Contenido: Objeto que se utiliza para mantener líquidos en su temperatura, ya sea esta fría o
caliente. Existen de distintos materiales, plástico, metal o carne.

3- Definición Nominal o conceptual de la variable:


En una investigación, según las pretensiones de la misma y según el estado de arte del tema (o
sea lo que se haya investigado hasta el momento sobre ese tema), el investigador, primero se
construye una Imagen de lo que pretende.
El investigador primero se da una representación literaria, esboza una construcción abstracta, o
sea, crea un concepto de la variable.
Primero se debe crear un concepto de la variable, o sea definirla. Esta primera definición se llama
Nominal o Conceptual. Esta definición establece exclusivamente el significado que en adelante
ha de corresponder a un determinado término, o sea, la palabra con que en lo sucesivo
designaremos a un objeto que tiene determinadas características o que tiene las propiedades
indicadas en el definiens (el significado de esta palabra esta explicado antes).
La definición Nominal establece el significado que le daremos de ahora en adelante a la variable,
así se establece una convención lingüística.
Esta Definición no puede ser falsa ni incompleta por que es una convención a los fines de una
investigación determinada, a lo sumo puede ser inútil.
En cuanto a lo anteriormente mencionado, esto es cierto, pero uno debe tratar de que la definición
sea lo mas completa posible y que tome la mayor cantidad de elementos de la realidad que
pueda. Uno debe tener muy en cuenta el estado de arte sobre esta variable. No sirve de nada
definir una variable como a mi se me canta argumentando que es una convención para mi
investigación y luego definir NBI como la falta de agua potable y nadad mas. Esta definición sin
duda seria no solo incompleta si no también sesgada y tendenciosa.

4- Definiciones Reales de las Dimensiones y Subdimenciones


La variable luego de ser definida Nominalmente o Conceptualmente, puede ser Abstracta o
Compleja o las dos cosas.
Las Abstractas son las que en su definición (Nominal o Conceptual) no tienen referencia
empírica precisa o la referencia empírica es indirecta, por tanto no pueden medirse directamente y
dijimos que las variables Complejas son las que, en su definición (Nominal o Conceptual) pueden
reconocerse más de una dimensión.
Los conceptos casi siempre son un conjunto complejo de fenómenos, así que tengo que deducir
analíticamente sus componentes o dimensiones.
¿Que son las dimensiones?
Las dimensiones son aspectos, conjuntos de aspectos o características de la variable que se
desprenden de la definición Nominal de la variable.
Las dimensiones también son variables.

62 de 107
¿Que es la definición Real?
Si en la definición Nominal de la variable, reconocemos más de una dimensión, debemos definir
las dimensiones.
Si en la definición de las dimensiones, podemos desagregar subdimensiones, o sea, sub. aspectos,
debemos definirlos también.
Las definiciones de las Dimensiones y Subdimensiones se llaman Definiciones Reales.

Recordemos que la lógica de la operacionalizacion es reducir la variable a conceptos medibles,


registrables o empíricos, la decisión de donde se termina de sacar o desagregar dimensiones y
subdimensiones es hasta que uno alcance a tener conceptos empíricamente registrables. Uno debe
preguntarse ¿ya puedo salir a buscar esto? ¿Si salgo puedo encontrar esto?

Las definiciones Reales son enunciados sobre las propiedades estimadas como esenciales del
objeto, son afirmaciones sobre la naturaleza de un fenómeno.
Exigen una validez empírica y por tanto pueden ser falsas. Se supone que las características que
incluye deben existir realmente, deben ser observables o registrables y tomadas de la realidad.
Son definiciones que toman sus componentes de la realidad y deben ser definiciones completas y
exhaustivas. Por tanto a medida que se descubran nuevas cualidades del objeto deben agregarse a
dicha definición.
Lo importante de estas definiciones es que pueda medirse a través de ellas directamente la
variable.
La lógica: Variable- Definición Nominal- Dimensiones- Subdimensiones- Definición Real,
consiste en siempre ir reduciendo la complejidad teórica y poder llegar a medir la variable.

Ejemplo:
Variable: Nivel de educación Sexual:
Definición Nominal: El nivel de educación sexual esta dado por el conjunto de conocimientos
adquirido sobre las enfermedades de transmisión sexual (ETS) y los métodos anticonceptivos.

Dimensiones: a) Conocimiento sobre enfermedades de transmisión sexual


b) Conocimiento sobre métodos anticonceptivos
Definiciones reales: a) Conocimiento sobre enfermedades de transmisión sexual: Es el
conocimiento adquirido relativo a tipos de enfermedades vinculadas a los órganos genitales o
transmitidas sexualmente, a las formas y mecanismos de transmisión de estas enfermedades, a las
formas de prevención del contagio, y qué enfermedades previene cada estrategia de prevención.
b) Conocimiento sobre métodos anticonceptivos: Es el conocimiento adquirido relativo al
proceso biológico de embarazo, a distintas estrategias y dispositivos de anticoncepción, a su
forma correcta de utilización, y al proceso específico por el que cada método previene la
concepción.

5-Indicadores:
¿Que son los indicadores?
Los indicadores son variables pero de menor complejidad teórica que la variable original o que
las dimensiones. Son variables de nivel empírico, o sea directamente medibles. Son variables con
una sola dimensión, o sea, variables simples.
Son el último grado de desagregación que va desde la variable original, pasando por las
dimensiones y subdimensiones.
¿Cuales y de donde?
Un una investigación se debe tomar la decisión sobre que indicadores seleccionar, ya que dado el
caso las posibilidades pueden ser muchas, pero siempre es aconsejable revisar el estado de arte de
la cuestión que se investiga.

63 de 107
Los indicadores deben obtenerse de las dimensiones o si tengo subdimensiones, de ellas. Deben
obtenerse de las definiciones Reales.
¿Cuantos?
Hay que tener en cuenta que la relación de los indicadores con el concepto original (definición
Nominal y Real) siempre es probable, por tanto es aconsejable tener un gran numero de
indicadores. Si poseo un solo indicador para una dimensión dada, puedo caer en sesgos o ese solo
indicador me puede condicionar la clasificación de las unidades de análisis. Pero tampoco es
bueno tener una gran cantidad de indicadores que no sirvan para medir lo que deseo. “la cantidad
no significa calidad” (Igual que el sexo)

Ej: De cantidad de indicadores que me condicionan la clasificación: Si pretendo clasificar las


unidades de análisis en la variable “Nivel socio- Económico” y tengo solo como indicador
“ingresos”, esto me condiciona la clasificación, ya que dado el caso por ejemplo una persona
puede estar experimentando un ascenso social económico por haber conseguido un empleo que le
pagan mucho, pero vivir en condiciones paupérrimas y poseer un nivel de educación muy bajo;
esta persona puede quedar clasificada en la categoría “Alto” de la variable solo por sus ingresos.
Ej: De cantidad de indicadores que producen sesgos: Puede suceder que posea muchos
indicadores, pero que varios de ellos se refieran a un mismo aspecto, y otros aspectos no sean
tenidos en cuenta. Por ejemplo si pretendo medir NBI y tengo 5 indicadores, pero 3 de ellos se
refieren a Condiciones habitacionales, 1 se refiere a educación y otro a ingresos. Lo que sucede es
que estoy ponderando mas a las condiciones habitacionales que a los demás aspectos.
Otro error se suele cometer en la desagregación de los indicadores: por ejemplo, si tenemos una
dimensión definida de tal manera que de ella se desprenden 4 indicadores obvios, y yo solo
desagrego 3 indicadores, estoy incurriendo en un error. (Un ejemplo se encuentra en NBI,
explicado por Moreno)
EJ: Definición Real de la dimensión “Conocimiento sobre enfermedades de transmisión sexual”:
Es el conocimiento adquirido relativo a tipos de enfermedades vinculadas a los órganos genitales
o transmitidas sexualmente, a las formas y mecanismos de transmisión de estas enfermedades, a
las formas de prevención del contagio, y qué enfermedades previene cada estrategia de
prevención.
De esta variable yo saco 3 indicadores: Conocimiento sobre Enfermedades de transmisión sexual,
Conocimiento sobre formas de contagio y formas de prevención del contagio. Me falta
conocimiento sobre que enfermedades previene cada método.

6- Construcción del Índice.


¿Que es un Índice?
Después que definimos la variable, reconocimos y definimos sus dimensiones y obtuvimos los
indicadores con sus correspondientes categorías, debemos construir una medida única a partir de
los datos que tenemos.
El índice es una medida única, que sintetiza los datos y le otorga a cada unidad de análisis un
puntaje que nos permite clasificarla en una de las categorías de la variable original.
¿Como se construye?
El índice otorga un puntaje a las unidades de análisis entre 0 y 100.
La decisión sobre en que categoría de la variable quedara clasificada la unidad de análisis de
acuerdo con el puntaje que obtenga, depende de una decisión teórica- metodologiíta del
investigador y de la variable en cuestión.
Ej: Si pretendo medir “precariedad laboral”, cuanto menos puntaje obtenga mi unidad de análisis
(o sea más cercano a 0) tendrá menor precariedad laboral y cuanto más puntaje trabajo más
precario.
0= Trabajo no precarizado
100=trabajo precario

64 de 107
Ahora, si pretendo medir “Nivel de educación sexual”, la relación es inversa a la variable
anterior.
0= Bajo nivel
100= Alto nivel.

¿Se puede construir un índice en 4 pasos desde la comodidad de mi casa?


Si señora, se puede, solo preste atención a los siguientes consejos.

1º- Primero deberá desidirce si se construirá un índice sumatorio o de otra clase. Luego se
decidirá si el mismo será Ponderado o simple, esta ultima decisión se toma en base a la definición
de la variable. Ej: si en la definición de la variable “clase” dijese que es “fundamentalmente” la
posición que ocupa en el proceso productivo y el nivel de educación; seguramente el índice
ponderara la primera dimensión.
El índice sumatorio ponderado: Es aquel que asigna mas valor o pondera mas algunos aspectos
que otros. Por ejemplo que en una variable con 3 dimensiones, por una desición teórica en base a
su definición, se considerara que sumara mas puntos o tendrá mas valor una dimensión en
especial. Lo mismo sucede con los indicadores de cada dimensión, si la definición Real de la
dimensión pondera algún aspecto.
Pueden estar ponderas las dimensiones, lo cual implicaría que los indicadores sumen mas puntos,
pero los indicadores entre si tendrían el mismo valor, o seas los indicadores no estarían
ponderados.
El índice sumatorio simple: Es el índice en donde todos sus aspectos y dimensiones valen lo
mismo, suman lo mismo, pesan lo mismo. No hay ponderación de ningún aspecto sobre otro.
Estro sucede tanto para las dimensiones como para sus categorías.

2º- Lo primero que debe hacer el investigador, luego de tomar las decisiones anteriores, es
construir los rangos de puntaje para cada categoría de la Variable principal. Deberá distribuir los
100 puntos, en distintos rangos según la cantidad de categorías que la variable posea.
Esto consiste en estipular entre que puntajes deberá obtener una unidad de análisis para quedar
clasificada en una determinada categoría.
Esta es una decisión teórico metodologiíta.

Ej: Variable:
Alto: 68 a 100
Nivel de educación sexual: Medio: 34 a 67
Bajo: 0 a 33

Así las unidades de análisis que adquieran un valor entre 0 y 33 quedaran catalogadas como de
nivel de educación sexual bajo, las que sumen entre 34 y 67 puntos serán de nivel medio y las que
sumen entre 68 y 100 serán de nivel alto.

3º- Luego deberá distribuir los 100 puntos entre las dimensiones.

Ej: Índice simple:


Valor de las dimensiones:
La variable posee dos dimensiones las cuales le asignamos un valor de 50 puntos a cada una:
-Conocimiento sobre enfermedades de transmisión sexual: 50 puntos
-Conocimiento sobre métodos anticonceptivos: 50 puntos

Ej: Índice ponderado:


Valor de las dimensiones:

65 de 107
La variable posee dos dimensiones las cuales le asignamos un valor de 70 puntos a la primer
dimensión y 30 a la segunda, por que...... (Explicar por que)....
-Conocimiento sobre enfermedades de transmisión sexual: 70 puntos
-Conocimiento sobre métodos anticonceptivos: 30 puntos

4º- Llegado este momento se deberá asignar valores a los indicadores, y deberá tener en cuenta si
se ponderara algún indicador sobre los demás, o si será simple.
En el caso de ser simple se dividirá el total de puntos de la dimensión, por la cantidad de
indicadores:
Ej: La dimensión “conocimiento sobre enfermedades de transmisión sexual” vale 50 puntos y
contiene 4 indicadores; el puntaje máximo que asumirá cada uno será de 12,5 puntos y
corresponderá a la categoría Alto; la categoría Medio sumará 6 puntos y la categoría Bajo no
sumará puntos.

Alto 12,5 puntos


1- Conocimiento de ETS Medio 6 puntos
Bajo 0 puntos

Y así, de la misma forma los otros 3 indicadores de este ejemplo.

Si se ponderara algún indicador sobre otro deberá especificarse.


Ej: La dimensión “conocimiento sobre enfermedades de transmisión sexual” vale 50 puntos y
contiene 4 indicadores; el indicador “conocimiento de ETS” asumirá un valor máximo de 20
puntos y corresponderá a la categoría Alto, Medio valdrá 6 y bajo 0. Los restantes 3 indicadores
asumirán un valor máximo de 10 puntos y corresponderá a la categoría Alto, la categoría medio
valdrá 6 puntos y bajo sumara 0.

Alto 20puntos
1- Conocimiento de ETS Medio 6 puntos
Bajo 0 puntos

Alto 10 puntos
2- Conocimiento sobre métodos de prevención de las ETS Medio 6 puntos
Bajo 0 puntos
Igual a este ultimo los otros 2 indicadores, con 10 como máximo.
20 del 1º indicador + (10 x 3 de los otros 3 indicadores) = 50 (esto es por si alguno no entiende)

Unidad 6
Producción de datos en la estrategia cuantitativa
Técnicas e Instrumentos

1-¿Que es la Encuesta?
2- Errores que se pueden cometer en el desarrollo de una Encuesta
3- Ventajas de la Encuesta
4- Desventajas de la Encuesta
5- Modalidades de Encuesta
6- Diseño del cuestionario
7- Tipos de preguntas
8- La formulación de Preguntas

1-¿Que es la Encuesta?

66 de 107
La encuesta es una estrategia de investigación basada en las declaraciones verbales de una
población concreta.
La encuesta se define como la aplicación de un procedimiento estandarizado para recabar
información (oral o escrita) de una muestra amplia de sujetos.
La Técnica o Estrategia es la Encuesta, el Instrumento es el Cuestionario.
Puede ser utilizada sola o en conjunto con otras estrategias, siempre es aconsejable triangular.
¿Sola o triangulada?
Pueden utilizarse con otras técnicas, ya sea antes de la ejecución de la encuesta, como por
ejemplo se puede realizar un Focus Group, o entrevistas individuales para poder diseñar el
cuestionario y así prever incongruencia semántica (esto se explica mas adelante) o otros motivos
de no respuesta.
También puede combinarse con otras estrategias después de realizada la encuesta, por ejemplo
para la validación e interpretación de los resultados de la encuesta.

Características definitorias de la encuesta:


A- La información que de ella se obtiene, se hace mediante observación indirecta, a través de las
repuestas verbales de los sujetos.
B- Se pueden obtener información diversa, por ejemplo aspectos objetivos tales como hecho, o
subjetivos como opiniones y actitudes, y tanto del presente como del pasado.
C- Comparación: Para poder comparar las respuestas, la información se recoge de forma
Estructurada. Se formulan las mismas preguntas y en el mismo orden a cada uno de los
encuestados. Por que se basa en el supuesto del mismo y constante estimulo para todos los
encuestados.
D-Cuantificación, Generalización: Las respuestas se agrupan y cuantifican para posteriormente,
de forma estadística, ver las relaciones entre ellas. Al investigador le interesa generalizar los
resultados a la población, por eso la muestra debe ser representativa de dicha población.

2- Errores que se pueden cometer en el desarrollo de una Encuesta


Existen 2 clases de errores en la encuesta: A- Errores de muestreo y B- Errores ajenos al
muestreo.
A- Errores de muestreo: Son los que se cometen cuando se diseña la muestra:
- La Cobertura, está referida al tamaño, puede pasar que cubra a toda la población o que sea muy
pequeña.
- La heterogeneidad que tenga, por ejemplo si es demasiado heterogénea y eso no se pretende en
la investigación. Ej: En una investigación se puede buscar distintos puntos de vista, por tanto la
muestra requerirá heterogeneidad; en cambio en otra podrá buscarse solo el punto de vista de
algún sector especifico requerirá ser homogénea.
- La representatividad, esta dada si no se cometen los errores anteriores. Si la muestra posee el
tamaño adecuado que se pretende y si contiene la heterogeneidad, o no, que se requiere.
-Otro error que se comete es cuando se selecciona una muestra de difícil acceso. Ej: Si selecciono
a personas que viven en barrios privados u otros lugares de difícil acceso para el encuestador.
Esto produce mucha no respuesta por que no puedo localizar a los encuestados.
B- Errores ajenos al muestreo:
-Errores en el diseño del cuestionario: si las preguntas están mal formuladas (esto lo vemos mas
adelante) o el orden de las preguntas es inadecuados. Esto produce no respuesta.
-Errores en el modo de administración de la encuesta: si la encuesta es personal, telefónica o por
carta.
-Errores producidos por el encuestador: Errores en la grabación o anotación de la encuesta; por
no respetar el orden de la encuesta; mal formulación de las preguntas etc.
-Errores producidos por el entrevistado: Si no responde las preguntas, si esta mal predispuesto a
colaborar, si miente etc.

67 de 107
3- Ventajas de la Encuesta
-Es flexible: puede utilizarse para obtener información diversa, de un conjunto amplio de
personas ubicadas en lugares diversos.
-Es muy fiable: alcanza un elevado grado de fiabilidad por la alta estandarización de las
respuestas y por la claridad de las preguntas. Se supone que un instrumento es fiable si lo aplico
reiteradamente a distintas unidades de análisis y obtengo los mismos resultados, la encuesta se
basa en el supuesto de estimulo homogéneo, las mismas preguntas, de la misma forma y orden
para todos, si sumamos la claridad de las preguntas, siempre se obtienen los mismos resultados.
-Permite comparar: se pueden comparar datos obtenidos en fechas pretéritas, de otros países o
áreas geográficas distintas.
-Permite la generalización: Si aplicamos la teoría de la probabilidad y un buen muestreo, permite
calcular la significatividad estadística de la encuesta.

4- Desventajas de la Encuesta
-No se aconseja aplicar la encuesta a personas con dificultades para la comunicación verbal, por
ejemplo a niños pequeños, personas analfabetas o con escasos recursos lingüísticos (Sordos y
mudos se complica)
- La información que se obtiene esta condicionada por la formulación de las preguntas y por la
veracidad de las respuestas. Están condicionada por la variedad de opciones de respuestas, por la
redacción de las preguntas (si son muy largas, si poseen lenguaje que el entrevistado no conoce,
si el entrevistado no entiende la pregunta, si la pregunta es vaga o ambigua etc.)
-La presencia del entrevistador puede generar reacciones del entrevistado y provocar no
respuestas o respuestas sesgadas.
-Es muy costoso en tiempo y dinero, si se pretende encuestar una muestra muy amplia,
especialmente si la encuesta es personal.

5- Modalidades de Encuesta
Existen 3 modalidades de encuesta, según la forma de administración del cuestionario.
Aplicación del cuestionario mediante entrevista “personal”, “Telefónica” y “por correo”

A- Encuesta personal o entrevista cara a cara:


Consiste en la aplicación del cuestionario en una entrevista personal con cada uno, y por
separado, de los miembros de la muestra seleccionada.
Es el entrevistador quien formula las preguntas y quien anota las respuestas.

El papel del Encuestador es fundamental, debe:


-Formular las preguntas correctamente
-Anotar correctamente las respuestas
-Y ser capaz de tomar dediciones en el campo sin la ayuda de un supervisor.
-Aclarar cuestiones no entendidas cundo son temas complejos. Le puede dar tarjetas de respuestas
al entrevistado.
-Comprobar la comprensión de las preguntas y la consistencia de las respuestas.
-Puede recoger otra clase de información sobre el entrevistado. (Información cuali)
-Debe motivar y despertar el interés del entrevistado. Lograr empatía con el entrevistado y lograr
su cooperación

La presencia del Entrevistador puede causar Problemas:


-Bebido a la inseguridad, se le puede complicar el acceso a los entrevistados. (No le abren por
que tiene cara de chorro, como todo sociólogo)
-La presencia del entrevistador puede generar rechazo y las respuestas pueden aparecer sesgadas.
Pueden darse respuestas socialmente aceptadas y no respuestas verdaderas.

68 de 107
-Otro problema de la entrevista personal, es la localización de las personas. Si voy por la mañana,
voy a encuestar muchas amas de casa, ya que los maridos trabajan. O no encontrar a nadie por
que todos trabajan. O Encuestar muchas amas de casa y sus correspondientes amantes (por que el
cornudo esta trabajando), así existirá una sobrerepresentacion de amas de casa, jubilados,
desocupados y patas de lana.

Ventajas:
-Se obtiene mayor cantidad de respuestas.
-Es mejor para tratar temas complejos
-Se obtienen respuestas de mayor calidad y espontaneidad.
-Se puede recabar información ajena al cuestionario.

Desventajas:
-Es más costoso en tiempo y dinero
-Se dificulta el acceso a determinados domicilios y determinados grupos sociales (por la
localización o por la inseguridad)
-La presencia del entrevistador puede provocar reacciones adversas.

B- La Encuesta Telefónica
La diferencia con la anterior es que la relación entrevistado entrevistador ocurre a través del hilo
telefónico.
Ventajas:
-Reduce el coste de tiempo
-Se requieren pocos encuestadores, los cuales en poco tiempo hacen muchas encuestas.
-Permite abarcar núcleos de población dispersos.
-Facilita el acceso a domicilios, que personalmente seria difícil
-Se puede insistir hasta encontrar a alguien, y esto puede hacerse en poco tiempo y sin moverse
-Permite que se supervise en el mismo momento que se esta realizando la encuesta
-Inhibe menos al entrevistado que la entrevista personal
-Puede realizarse la encuesta y directamente cargarse en un sistema digital (en la compu). Este
mismo sistema tira los números (muestreo), llama y te va dando las preguntas en orden.

Desventajas:
-En cuanto a la encuesta por medio de Compu. Sucede que la pantalla es chica, o se mira
cortantemente el teclado, los espacios para escribir son chicos Etc.
-Se excluyen de la muestra a los que no tienen teléfono.
-Que te puede atender un contestador o dar ocupado
-No se le pueden dar ayudas visuales al entrevistado (como tarjetas de respuestas)
-Exige que el entrevistador sea muy capaz para motivar al entrevistado, ya que la comunicación
es solo verbal y no presencial.
-Le exige al entrevistado una mayor capacidad de memoria para retener las preguntas y las
opciones de respuestas.
-No se puede recabar información suplementaria
-El cuestionario debe ser mas corto por que la entrevista debe ser corta.

C- Encuesta por Correo


En esta encuesta, que es un tipo de encuesta auto-administrada, es el propio encuestado quien lee
el cuestionario, anota las respuestas y remite el cuestionario.
Se caracteriza por la total ausencia de entrevistadores e investigadores.

Para obtener un buen porcentaje de respuestas es aconsejable:


-Hacer un diseño de cuestionario corto, atractivo y fácil de llenar.

69 de 107
-Incluir una carta de presentación
-Enviarle un sobre con contrareembolso (el tipo no tenga que garpar el reenvío)
-Enviar continuos recordatorios, con copias del cuestionario.

Ventajas:
-Alcanza áreas aisladas y de difícil acceso o localización
-Abarata los costes del trabajo de campo
-Evita los sesgos que se producen por la presencia del entrevistador
-Ofrece privacidad para responder el cuestionario, es bueno para temas delicados.
-El encuestado dispone de más tiempo para reflexionar sus respuestas y comprobar la
información.

Desventajas:
-Elevado numero de no respuestas
-No se puede asistir o aclararle dudas al encuestado
-Muchos cuestionarios incompletos o mal completados
-El que respondió el cuestionario puede no ser la persona seleccionada.

6- Diseño del cuestionario


1º- Para diseñar un cuestionario hay que tener en cuenta:
-Los Objetivos de la investigación: para hacer preguntas pertinentes y así saber lo que quiero.
-Las características de la población que se analiza: Para adecuar las preguntas a dicha población,
y así evitar la no respuesta producto de no entender las preguntas. (¿Son estudiantes, amas de
casa o jubilados?)
-Revisar bibliografía: esto me puede ayudar ya que puedo encontrar preguntas ya hechas o formas
creativas de preguntar. (Leer otras investigaciones)
-Tener en cuenta los recursos económicos, materiales y humanos
-Y el tiempo de que se dispone

2º- Luego de tener en cuenta esto, se decide sobre que tipo de encuesta se realizara (Telefónica,
por Correo o Personal)

3º- Es aconsejable antes de diseñar el cuestionario, realizar entrevistas grupales o individuales


cualitativas, con personas de iguales características a la de nuestra población, para así conocer el
universo cultural, simbólico y socioeconómico; para así adecuar el cuestionario a sus capacidades
de respuestas y prever reacciones o no respuesta. Esta estrategia nos provee también de conceptos
y criterios para formular las preguntas.
4º- Luego de terminado el cuestionario se debe realizar el Pretest. Esto es realizar la encuesta, o
sea, aplicar el cuestionario a una pequeña muestra igual a la de la investigación. Esto nos permite
comprobar la utilidad del mismo y reconocer no respuestas producto de preguntas mal
formuladas o por incongruencia semántica.
Luego del pretest podemos corregir el cuestionario y así salir a realizar la encuesta.

7- Tipos de preguntas
Existen 2 clases de preguntas, las Cerradas y las Abiertas.
A- Preguntas Cerradas
Las preguntas cerradas (o precodificadas o de respuesta fija) son aquellas cuyas respuestas ya
están acotadas, cuando se diseña el cuestionario.
El investigador determina previamente cuales son las diversas opciones de respuesta posible.

70 de 107
Las categorías de respuesta deben cumplir los requisitos de Exhaustividad, Precisión y Exclusión.
Si el investigador prevé la posibilidad de que existan otras opciones de respuestas, deberá incluir
la opción “Otros” y pedirse la “Especificación”.
En cuanto a las opciones “No sabe” “No contesta”, es aconsejable no incluirlas (salvo que se
estime de interés formularlas). Es mejor no poner esta opción, ya que el entrevistado poco
motivado responderá siempre esta opción.

Respuesta Única y Múltiple: El investigador deberá especificar en el cuestionario, si el


entrevistado deberá elegir una respuesta de las posibles o barias. Se debe especificar si la
respuesta es múltiple.
Si se requiere algún número en especial de respuestas deberá especificarse (Ej: Indique las 3 que
prefiera)

Tarjetas de respuestas: Si la pregunta incluye muchas opciones de respuesta, es aconsejable


utilizar tarjetas de respuestas. Estas son tarjetas que contienen las opciones de respuesta, estas se
le dan al entrevistado y este elige una o las que correspondan. Esto ayuda a que el entrevistado no
tenga que memorizar todas las opciones, ya que generalmente, si tienen que memorizar muchas
opciones, solo recuerdan o la primera opción o la ultima.

La codificación: Cada pregunta deberá tener un código, se aconseja de que este sea alfanumérico
(letras y números). El código de preguntas se pone a la izquierda de las preguntas.
Las opciones de respuestas también se codifican, con números. Si las opciones son menos de 10,
beberá ponerse números de una cifra (1, 2, 3, 4 etc.). Si las opciones son 10 o mas, se ponen
números de dos cifras (01, 02, 03, 04 etc.).
Es aconsejable seguir siempre las mismas pautas durante todo el cuestionario (Ej: “Si”= 1; “No”=
2)
El código de opciones de repuestos se coloca a la derecha de las respuestas.

Ventajas:
-La comodidad y rapidez para anotar las respuestas.
-Se pueden centrar las respuestas en aquellas opciones consideradas relevantes y relacionadas con
la cuestión que se investiga.
-La facilidad y rapidez para pasar las respuestas a la computadora.
-Elimina la vaguedad y ambigüedad de las respuestas.
-Permite una mayor comparación.

Desventajas:
-Coartan las opciones de respuesta (las opciones no siempre se ajustan a la variedad de respuestas
posibles)
-El diseño de preguntas cerradas es bastante mas laborioso que una abierta.

B- Preguntas Abiertas:
Son preguntas en donde no hay opciones de respuestas previamente estipuladas.
El entrevistado debe expresarse con sus palabras.
Las preguntas Abiertas se utilizan cundo:
-Son estudios exploratorios y no se conoce mucho el tema que se investiga
-Cuando el investigador no prevé todas las opciones de respuestas o enumerar todas las opciones,
arrojaría una lista muy larga de opciones.
-Cuando se busca una mayor especificación de una respuesta.

El cierre de las preguntas abiertas: Una ves completados los cuestionarios, las respuestas beben
cerrarse ya que existirán muchas clases de respuestas posibles.

71 de 107
Para esto, se extraerá una muestra de cuestionarios (entre el 20% y el 50% de los cuestionarios).
De cada pregunta se observará, en las distintas clases de respuestas, buscando categorías,
conceptos o términos comunes a varias respuestas. Y Así se clasifican todas las respuestas bajo
esos conceptos que comparten.
1º-Se saca una muestra de cuestionarios
2º-Se transcriben, de cada pregunta, las distintas respuestas
3º-Se buscan conceptos, categorías o términos comunes
4º-Se agrupan las respuestas bajo esos conceptos comunes
5º-A los grupos de respuestas cerradas bajo un mismo concepto se le asigna un código numérico
igual al de las preguntas cerradas.
Las categorías de respuestas que así quedaran conformadas (cerradas) deben cumplir con el
requisito de exhaustividad, exclusión y precisión.

Ventajas:
-Proporcionan una mayor información y mas especifica
-Su formulación resulta más sencilla
-Suelen ocupar menos espacio en el cuestionario
-Ofrece al entrevistado la posibilidad de expresarse en sus propias palabras

Desventajas:
-La codificación es más costosa y laboriosa
-Están más expuestas a errores en el registro de la respuesta
-Para contestarlas se necesita mas tiempo y esfuerzo por parte del encuestado

8- La formulación de Preguntas

Consejos para elaborar preguntas:


-Formular preguntas relevantes a la investigación: Siempre preguntare por la utilidad de la
pregunta ¿por que estoy preguntando esto?
-Equivalencia semántica: Preguntas breves y fáciles de comprender por las personas a las que van
dirigidas: Para esto hay que tener en cuenta el nivel educativo y el vocabulario de la población a
encuestar.
-Evitar palabras ambiguas y vagas
-No utilizar palabras que comprendan una visión esteriotipada o que susciten una reacción del
entrevistado.
-No hacer preguntas que incomoden al entrevistado o atenuar esa reacción
-Formular la pregunta de forma objetiva (neutra) con objeto de no influir en la respuesta.
Ej: si pregunto: ¿No llevaría usted a su madre a una residencia de ansíanos?, lo insito a que
responda que No
-No redactar preguntas en forma negativa
-Las preguntas no deben referirse a varias cuestiones al mismo tiempo
-No hacer preguntas que obliguen al entrevistado a hacer cálculos mentales o recurrir a la
memoria
-Rotar el orden de lectura de las alternativas de respuestas.

Disposición de preguntas en el cuestionario


Diseño del formulario:
-El cuestionario debe tener un formato de libro
-Espaciar las preguntas unas de otras
-En las preguntas abiertas, dejar suficiente espacio para anotar la respuesta
-El cuestionario debe ser color blanco

72 de 107
-Evitar que las preguntas queden cortadas por un salto de página
-Poner instrucciones para el entrevistador a lo largo de todo el cuestionario
-En los filtros (deben ser claros y ponerles flechas)
-Los pases deben ser claros y ponerse inmediatamente después de la respuesta. También poner
flechas.
-Dejar espacio para que el entrevistador anote el tiempo de duración de la encuesta y para otras
anotaciones.
-Codificar las preguntas y las respuestas
-Siempre terminar el cuestionario con un gracias

Orden de las preguntas:


-Comenzar el cuestionario con un mensaje de presentación
-Las preguntas iniciales beben despertar el interés del entrevistado y ser sencillas de responder.
-Luego poco a poco introducir preguntas más complejas
-Las preguntas claves (Las más importantes para la investigación) beben ponerse en el centro del
cuestionario.
-Las preguntas que se perciben como amenazantes para el entrevistado, deben colocarse al final

Unidad 7: Muestreo estadístico

Universo: Conjunto total de unidades de análisis que pretendemos estudiar y que coinciden en
determinadas características. La unidad de análisis delimita el universo de observación y, por lo
tanto, recortan el problema a investigar. Si la referencia es a individuos, el universo será la
población total de la humanidad, de un país, de un área, etc. Pero uno puede referirse a naciones,
objetos, etc.
Población: Conjunto de unidades de análisis que se va a estudiar. Puede coincidir con el universo
(ej: censo) o con una muestra.

Muestra: Subconjunto del conjunto total –universo- que debe satisfacer dos condiciones:
- en ella debe ser posible poner a prueba hipótesis.
- debe ser posible poner a prueba hipótesis de generalización –de la muestra al universo- sobre las
proposiciones establecidas en la muestra. (Tiene que ver con la posibilidad de establecer
generalizaciones. Para eso es necesario una muestra probabilística).
La muestra se extrae cuando el universo a estudiar es demasiado grande, y cuando se dispone de
tiempo y presupuesto escasos. Es más rápido, más económico, se obtiene mayor cuidado en la
precisión de las observaciones, mayor entrenamiento y supervisión.
Tipos de muestras
Muestra predispuesta: Se seleccionan para probar hipótesis
Ventajas: La comprobación o refutación de la hipótesis pasa a ser resultado de procedimiento de
muestreo
Desventajas: Exigen conocimiento previo del universo y del tipo de análisis que se utiliza. A
veces no se puede generalizar.
Ejemplo: Para comprobar una hipótesis acerca del comportamiento político de todos los votantes,
usamos sólo individuos que por pertenecer a un grupo específico presentan peculiaridades que no
son típicas del conjunto de la población.

Muestras probabilísticas: Todos los elementos que componen el universo tienen una posibilidad
conocida de ser incluidos en la muestra. Veremos cuatro tipos: 1) muestra simple al azar, 2)
muestra sistemática, 3) muestra estratificada, 4) muestra por conglomerados.

1) Muestra simple al azar: Todas las combinaciones tienen igual probabilidad de darse en la
muestra. La probabilidad depende del tamaño del universo.

73 de 107
Procedimiento: Lista completa del universo y asignar un número a cada individuo.
A través de una tabla de números aleatorios, o algo similar se seleccionan los individuos de la
muestra. El tamaño depende de la disponibilidad de recursos y la precisión deseada.
Ventajas: Técnicas: Igual probabilidad de inclusión de todos los individuos en la muestra. Permite
la generalización. Proporciona base para calcular el grado de disparidad entre las medidas de la
muestra y el universo. Económicas: Las derivadas de no tomar al universo entero.
Desventajas: Técnicas: No hay un número suficiente de casos de grupos especiales. Puede haber
distorsiones en cuanto a la representatividad. Económicas: Alto costo monetario y de tiempo.

2) Muestra sistemática: No todas las combinaciones tienen igual probabilidad de darse en la


muestra.
Procedimiento: Lista completa del universo. Sólo se selecciona el primer individuo por un
método aleatorio. El resto se selecciona a partir del primero, por ejemplo, cada 20 números (en la
muestra simple al azar todos los casos se seleccionan aleatoriamente)
Ventajas: Técnicas: Igual que en la muestra simple al azar. Económicas: Más fácil obtener la
muestra
Desventajas: Técnicas: Una vez que salió el primer número, la muestra dejó de ser estrictamente
probabilística, y puede arrastrar algún sesgo que haya en el listado. Económicas: igual a la
muestra simple al azar.
3) Muestra estratificada (proporcional o no): No todas las combinaciones tienen igual
probabilidad de darse en la muestra. Sirve cuando el universo puede ser dividido en grupos o
categorías (sexo, edad, nivel educativo). Se logra una mayor homogenización de la muestra final.
La muestra estratificada proporcional es aquella en que la fracción de muestreo es igual para cada
estrato, en la no proporcional hay diferentes proporciones.
Procedimiento: Dividir el universo en estratos homogéneos (proporcionales o no). Dentro del
estrato seleccionar individuos de modo aleatorio. Las fracciones en cada estrato pueden ser
distintas o iguales.
Ventajas: Técnicas: Igual que las anteriores, sumado a que garantiza la representatividad y
elimina los errores entre estrato. La proporcional, además, posibilita conocer mejor a los grupos
pequeños. Económicas: Facilidad de obtener la muestra. En la proporcional, si los estratos son
homogéneos, la muestra es más económica y menor.
Desventajas: Técnicas: Supone conocimiento previo de las características que estratifican a la
población. La no proporcional puede obtener pocos casos para los estratos pequeños. La
proporcional exige estadística compleja. Económicas: El costo monetario es mayor que en la
muestra simple y de conglomerado. Alto costo temporal.

4) Muestra de conglomerados: No todas las combinaciones tienen igual probabilidad de darse en


la muestra. Se usa cuando el universo está disperso en extensas áreas geográficas.
Procedimiento: Dividir el universo en conglomerados o clusters, lo más homogéneos posible.
Seleccionar cuales deben constituir la muestra. Tomamos todas las unidades dentro de cada
conglomerado seleccionado
Ventajas: Técnicas: Igual que en los dos primeros tipos de muestra. Económicas: Ahorro de
dinero, sobre todo porque permite la concentración de entrevistadores en áreas próximas. Ahorro
de tiempo.
Desventajas: Técnicas: Exige estadística compleja. Se pierde precisión y el carácter aleatorio del
muestreo. Económicas: Mínimas.

Ejemplo: Busco determinar ciertas características sociopsicológicas en la Argentina. La unidad de


análisis es un país. Podemos utilizar varios escalones. En el primero, uso la división política del
país (las provincias). Seleccionamos al azar, digamos 10 de esas provincias. Si se tratara de una
muestra de un escalón, censaría a todos los habitantes de las provincias seleccionadas. Si quiero

74 de 107
agregar más escalones, puede seleccionar dentro de las provincias, algunas ciudades… y así
seguir. Lo importante es que una vez que definimos los conglomerados, en su interior tomamos
todas las unidades.

Muestras no probabilísticas: No se conocen las probabilidades de cada elemento o individuo, de


ser incluido en la muestra. Tienen poco valor en términos de estimación, porque en ellas no es
posible calcular el error de estimación de parámetros. Sin embargo, muchas veces sirven para
que el investigador se inmersa en un tema. Veremos tres formas de muestras no probabilísticas: 1)
muestra causal, 2) muestra intencional, 3) muestra por cuotas

1) Muestra casual: Es la técnica preferida por los reporteros y algunas agencias de investigación
de mercado.
Procedimiento: Entrevistar a individuos de formas casual, hasta cierto número. Por ejemplo, uno
de cada 8 que pasan caminando por esta esquina, durante determinada cantidad de tiempo.
Ventajas: Exige personal menos entrenado, y por ende de menor costo.
Desventajas: Es casi imposible hacer una generalización válida que vaya más allá de las
características de los individuos que, de casualidad, dieron su testimonio.

2) Muestra intencional: Pueden ser útiles en etapas exploratorias.


Procedimiento: Se seleccionan casos típicos del universo, según el criterio de un experto. Pueden
ser informantes clave que den información que guíe el resto de la investigación.
Ventajas: Exige personal menos entrenado, y por ende de menor costo.
Desventajas: Es casi imposible hacer una generalización válida que vaya más allá de las
características de los individuos que, por ser señalados por el experto, dieron su testimonio.

3) Muestra por cuotas: Son en alguna medida muestras estratificadas, y son muy usadas por
agencias de investigación de mercado.
Procedimiento: A una serie de entrevistadores le es fijado un grupo de individuos, con sus
características especificadas (hombres, casados, menores de 50, propietarios de auto) Cada
entrevistador selecciona por su cuenta y entrevista según un cuestionario, hasta completar su
cuota.
Ventajas: Exige personal menos entrenado, y por ende de menor costo.
Desventajas: Es casi imposible hacer una generalización válida que vaya más allá de las
características de los individuos que dieron su testimonio. Puede aparecer el sesgo del
entrevistador.

Técnicas de investigación aplicadas a las ciencias sociales, Muestreo. Jorge Padua.

MUESTREO

Universo o población refieren al conjunto total de elementos que constituyen una area de interés
analítico. Estos elementos NO necesariamente tienen que ser personas (naciones, edificios, bla).
Se denomina muestra a un subconjunto del total (universo o población). La teoría del muestreo
tiene como propósito establecer los pasos o procedimientos a través de los cuales sea posible
hacer generalizaciones sobre la población a partir de un subconjunto de la misma, con un grado
minimo de error. No toda muestra tiene como propósito obtener conclusiones a cerca de la
población.
Los parámetros poblacionales caracterizan las distribuciones en la población o universo. Los
valores muestrales son los estadísticos computados a partir de las muestras y con los cuales se
buscara estimar los parámetros poblacionales.

75 de 107
Según Galtung una muestra debe satisfacer dos condiciones:
1) Debe ser posible poner a prueba hipótesis sustantivas, es decir que la muestra sea lo
“suficientemente buena” para permitirle al investigador extraer conclusiones en cuanto a las
relaciones entre sus variables.
2) Posibilidad de establecer generalizaciones (de la muestra al universo) sobre las proposiciones
establecidas en la muestra; es decir inferencias validas con un grado de incertidumbre conocido.
Para esto es necesario que las muestras sean probabilísticas, ya que la determinación del grado de
incertidumbre (o de “confianza”) que pueda atribuirse a las inferencias depende en sus computos
de la teoría de las probabilidades.

DISTINTOS TIPOS DE MUESTRAS

El problema del muestreo surge cuando la población a estudiar es demasiado numerosa como
para implicar costos en energía y dinero insuperable. Se trata entonces de seleccionar a un
subconjunto que minimice esos costos al mismo tiempo que no se produzca perdida de presicion.
La teoría del muestreo establece las condiciones mediante las cuales las unidades o las muestras
son seleccionadas de manera tal que el subconjunto (la muestra) contenga el minimo de sesgos
posibles.

Muestras predispuestas: Son aquellas que han sido seleccionadas de manera tal que la
comprobación o la refutación de las hipótesis pasa a ser el resultado de procedimientos de
muestreo.
Muestras no predispuestas: Son aquellas cuya de probabilidad de extracción es conocida. Hay dos
muestras de este tipo: muestras cuya probabilidad de ser extraídas es cero o uno (finalistas); o
muestras cuya de probabilidad de ser extraídas es diferente de cero o uno (probabilísticas).

La muestra que vamos a considerar son:

A) MUESTRAS PROBABILÍSTICAS
En este tipo de muestra todos los elementos que componen el conjunto total o universo, tienen
una probabilidad conocida de ser incluidas en la muestra.

1- Muestra simple al azar.


Todas las muestras y todos los elementos tienen la misma probabilidad de ser seleccionados (la
probabilidad es conocida y diferente de cero y de uno). Es el más sencillo de todos los tipos de
muestreo. Además, cualquiera que sea el tipo de muestro probabilístico, en algún nivel de este
hay que recurrir al muestro aleatorio simple.
¿Cómo se decide el tamaño de la muestra? El problema es el siguiente: A medida que la muestra
es más pequeña la probabilidad es mayor. Entonces la idea es compatibilizar la disponibilidad de
recursos (que normalmente son escasos) con la precisión deseada en las estimaciones. Es decir
lograr un máximo de precisión con un tamaño mínimo de muestra. Galtung nos presenta un
estrategia “el principio de las utilidades decrecientes”, es decir aquel que resulta del siguiente
razonamiento: no interesa tanto el tamaño exacto de la muestra como “la ganancia” en términos
de nivel de significación que el investigador puede tener aumentando un número determinado de
unidades. Luego de una serie de ecuaciones inentendibles el flaco llega a la “conclusión”
siguiente: aumentos sucesivos en el tamaño de la muestra, producen disminuciones cada vez
menores en el nivel estándar del estimador. En otras palabras el decremento del error estándar
cuando el tamaño de la muestra crece de 50 a 100 por ejemplo, es mayor que cuando la muestra
crece de 100 a 150. Esto quiere decir que a partir de un tamaño de muestra dado, los decrementos
del error de estimación requieren tamaños de muestras mayores.

76 de 107
Ventajas y desventajas del muestreo aleatorio simple:
Ventajas:
A) No supone el conocimiento previo de ninguna de las características de la población de la cual
se va a extraer la muestra. Esta libre de los sesgos que se pueden introducir por el uso de
ponderaciones incorrectas en las unidades muestrales como en el muestreo estratificado.
B) Es relativamente simple determinar la precisión de las estimaciones que se hacen a partir de
las observaciones muestrales porque los errores estándar de los estimadores siguen distribuciones
de probabilidad conocida.
C) Tiende a reflejar todas las características del universo (muestra mas grande, mas representa
población).

Desventajas:
A) Supone un listado completo de todas las unidades que componen la población. Y si no se
cuenta con esta lista no se puede emplear este diseño muestral.
B) Aun cuando se cuente con este listado su numeración requiere mucho tiempo y trabajo.
C) Supone un tamaño de muestra mayor que otros diseños para obtener un mismo nivel de
confiabilidad.
D) Es probable que las unidades muestreadas (si son individuos que viven en una ciudad por
ejemplo) queden muy distantes unas de otras con lo cual el costo para obtener la información de
estas unidades crece con la dispersión espacial de las mismas.

2-Muestreo sistemático.
Es muy similar al muestro aleatorio simple. También hay que confeccionar un listado de todos los
elementos que incluye la población; una vez hecho el listado, la diferencia estriba en el método
para la selección de los casos. Aquí la selección de los casos se realiza por un procedimiento más
mecánico que representa un gran ahorro de tiempo.
Copio literal el ejemplo sino no se entiende: Supóngase que la población sea de 50 mil casos. Una
vez hecho el listado y determinado el tamaño de la muestra (supóngase q sea de mil casos) se
procede de la siguiente manera: a) se selecciona al azar un número comprendido en la cantidad q
resulte de dividir el tamaño de la población entre el tamaño de la muestra (en nuestro caso entre
01 y 50) y a partir de ese número se seleccionan las unidades de la siguiente manera: b)
supóngase que el número seleccionado haya sido el número 15; entonces voy a extraer los casos
15, 65, 115, 165, 215…etc. (es decir cada 50 casos) hasta completar las mil unidades. Si
estuvieran utilizando el directorio de teléfonos , enumeraría todos los sujetos listados;
seleccionaría una primera fracción que incluya todas las páginas con personas listadas, y a partir
de la primera página extraería mis sujetos con un número fijo (cada 20, cada 87, o cualquier otro),
hasta completar la cantidad de casos.

VENTAJAS:
a) las ventajas técnicas son similares a las del muestro aleatorio simple,
b) tiene una gran ventaja económica ya que facilita la selección de la muestra, sobre todo en
aquellos casos donde ya existe un listado.

DESVENTAJAS:
a) No es estrictamente probabilístico ya que si bien una vez iniciado el muestreo las
probabilidades son las mismas para la primera selección, una vez elegido este número, la muestra
pasa a ser finalista (en el ejemplo la probabilidad de q los sujetos 15,65,115,165, etc, es 1,
mientras la probabilidad de cualquier otro sujeto del listado es 0).

77 de 107
b)Puede haber sesgos en el listado utilizado (por ej la guía telefónica)

3- Muestreo estratificado:
Este es conveniente cuando la población puede ser dividido en categorías, estratos o grupos que
tienen un interés analítico y que por razones teóricas y empíricas presentan diferencias entre
ellos. Por ej se puede estratificar una población según sexo, edad, status socioeconómico, bla. La
estratificación en sí, la definición de cada uno de los estratos, es un problema de propósitos de
investigación, tipo de preguntas q se quiere responder y teoría sustantiva. Una vez definidos los
estratos y dividido el universo en estratos o valores según una o varias variables, es posible
diferenciar dos tipos de muestra estratificada: LA MUESTRA ESTRATIFICADA
PROPORCIONAL en la cual la fracción de muestro es igual para cada estrato; si existen
diferencias en las fracciones de muestreo llamamos a esta NO PROPORCIONAL. Es decir que la
muestra no respeta las proporciones originales del universo. Una vez seleccionada la proporción
se seleccionan las muestras DENTRO DE CADA ESTRATO según los procedimientos del
muestreo aleatorio simple.

VENTAJAS: (las del muestro aleatorio simple también)


A) La muestra es más homogénea, garantizando la representatividad.
B) elimina los errores en la estimación q son producto de la diferencia entre los estratos.
C) una ventaja del no proporcional es q posibilita un mejor conocimiento de grupos pequeños (en
relación a la cantidad total de casos)

DESVENTAJAS:
A) supone el conocimiento PREVIO de las características de la población, a partir de las cuales
se estratifica,
B) son de costo más elevado en dinero y energía,
C) la proporcional a veces puede no proveer de un número suficiente de casos pa análisis
comparativos inter-estratos, etc.

3- Muestreo por conglomerados:


Se utiliza en aquellos casos en los cuales la población a estudiar está dispersa a lo largo de áreas
geográficas extensas o situaciones similares, donde los costos para alcanzar las unidades resultan
ser muy elevados. Los procedimientos para la elección de la muestra son :
A) Es necesario dividir a la población en conglomerados lo más homogéneo q sea posible. Esta
división puede hacerse a varios niveles, varios escalones.
B) una vez determinados los conglomerados, se selecciona al azar del primer nivel de
conglomerados a una proporción determinada de los mismos (si se seleccionan todas las unidades
dentro de los conglormerados, se llama “muestra de escalón ” o de una sola etapa),
C) dentro de los conglomerados seleccionados en b procedemos a otra selección de cong al
interior de cada uno de ellos (“muestra de 2 escalones”) si procedemos por el mismo método a
seleccionar dentro de un tercer o cuarto nivel, se llama “muestra de escalones múltiples”

Hay q tener claro q una vez determinados los cong, se procede a una selección aleatoria ENTRE
cong, y una vez seleccionados estos, tomamos todas las unidades al interior de cada
conglomerado seleccionando. Esta es la diferencia con la muestra estratificada, en la cual, una
vez determinados los estratos seleccionábamos los casos al interior de cada estrato.

VENTAJAS:

78 de 107
la principal es la concentración de unidades en áreas, lo q evita el desplazamiento a lo largo de
áreas muy extensas, representando consecuentemente una economía de gastos en términos de
energía, costos y tiempos.

DESVENTAJAS:
A) exige tratamientos estadísticos algo complejos,
B) en comparación al muestreo aleatorio simple o al estratificado, representa perdidas en
precisión,
C) la muestra pierde carácter de probabilística, en la medida q una vez seleccionados los cong, en
la medida q una vez seleccionados los cong primeros, la probabilidad de ser extraídos q tienen los
individuos del resto de los cong es cero.

Estas 4 tipos de muestras se aplican en situaciones diferentes, y se pueden combinar…cuando la


cantidad de casos es abundante, es preferible la aleatoria simple, cuando es posible estratificar
hay q hacerlo y a pesar de sus deficiencias en la inferencia, cuando los recursos no alcanzan es
preferible una muestra por conglomerados.

B)MUESTRAS NO PROBABILÍSTICAS:

1-Las muestras casuales: consiste en entrevistar a sujetos de forma casual, por ej uno de cada 10
individuos q pasan por determinada esquina. Es simple, más barato, pero es casi imposible hacer
generalizaciones válidas.

2- Las muestras intencionales. Son el producto de una selección de casos según el criterio de
algún experto, q selecciona casos q son “típicos”

3- Las muestras por cuotas. A una serie de entrevistadores le es fijada una cuota de individuos a
entrevistar, especificándole sus características (ej: varones, solteros,20 años, trotskos come
panchos)y cada entrevistador selecciona por su cuenta a los entrevistados. Desventaja: sesgo del
entrevistador q selecciona..

C) MUESTRAS PARA PROBAR HIPÓTESIS SUSTANTIVAS

Estas deben ser seleccionadas de un modo tal q contengan el tipo de elementos sobre los cuales
hacen referencia las proposiciones en q el investigador está interesado. Es decir en este caso, el
investigador no esta tan interesado en la generalización como en la relación específica entre
variables, de manera q quiere garantizar q su muestra contenga unidades suficientes de un tipo
determinado. Es decir q la muestra debe ser lo suficientemente heterogénea. En
general para Galtung, el investigador para elegir el tamaño de su muestra debe responder A)
¿cuántas variables quiere el investigador analizar simultáneamente?
B) ¿cuál es el número máximo de valores q desea analizar por variable?
C) dadas las técnicas analíticas a utilizar, ¿cuál es el valor mínimo por celda q necesita?
Por medio de las 2 primeras, va a establecer el tamaño de la matriz de datos y por la última va a
satisfacer los requisitos de las pruebas de hipótesis estadísticas. Entonces hacer la matriz de datos
depende de la cantidad de variables y del número de valores en cada variable.

Unidad 8
Organización y ejecución del trabajo de campo

79 de 107
1- La formación de los entrevistadores
La administración de los cuestionarios (excepto por correo) exige la preparación de los
entrevistadores.
La calidad de la recogida de datos depende de como los entrevistadores hayan cumplido su
trabajo.
Las funciones del entrevistador son:
- Localizar a los entrevistados
- Motivar a los entrevistados. Logre empatia y confianza.
- Leer las preguntas en su exacta formulación y orden.
- Comprobar si la respuesta se adecua al objetivo de la pregunta, si no es así deberá volver a
formular y hacer las aclaraciones pertinentes.
- Anotar las respuestas lo más exactamente posible.

En la formación de los entrevistadores, se los preparara en todos los aspectos del trabajo de
campo, desde como seleccionar a los entrevistados hasta como registrar las respuestas.
El periodo de formación no debe ser corto, generalmente dura entre 2 y 5 días, dependiendo del
cuestionario.

2- La supervisión del trabajo de campo


En la encuesta telefónica la supervisión es más directa y fácil, ya que se encuentran los
entrevistadores y supervisores en un mismo edificio.
En las encuestas personales se incluyen espacios para los datos de control: Nombre del
entrevistado, dirección, teléfono, localidad etc.
Las funciones del supervisor son:
- La revisión de los cuestionarios: comprueba el porcentaje de respuestas, la calidad de las
mismas, la omisión de preguntas, el seguimiento de las preguntas filtros etc.
- Conversar con el jefe de campo y los entrevistadores para conocer cualquier incidencia en la
administración del cuestionario.
- Si la muestra es estadística se controla si se entrevisto a quien correspondía

Unidad 9: Organización y procesamiento de los datos

Análisis e interpretación

El análisis es para resumir las observaciones para que den respuesta a los interrogantes de la
investigación. Gran parte del análisis se hace antes de recoger los datos, y se anticipa lo que se va
a concluir.
La interpretación busca un significado más amplio a las respuestas mediante la relación con otros
conocimientos disponibles. Es esfuerzo por la continuidad de la investigación social a través de la
conexión entre estudios, por un lado, y además establece conceptos aclaratorios.
Los procedimientos en el análisis e interpretación son: establecimiento de categorías;
codificación; tabulación de respuestas; análisis estadístico de los datos; extracción de relaciones
causales, y el uso de datos no cuantificados.

1. Establecimiento de categorías

Se selecciona un principio de clasificación, a partir de las preguntas de investigación. Ej: estudio


sobre el conocimiento de los negros que tiene una comunidad; categorías según una entrevista:
mencionó negros – no mencionó negros.
Cada categoría reúne una serie de categorías que tiene que ser exhaustiva y mutuamente
excluyentes.

80 de 107
Además, se sumas otras series de categorías, ya que la anterior no es suficiente para determinar su
conocimiento de los negros. Hay que tener en cuenta qué grupos nombró, diferenciar entre grupos
nacionales, raciales…

2. Codificación

Es el procedimiento técnico para categorizar los datos, que son transformados en símbolos
numéricos que pueden ser tabulados y contados. La transformación supone un juicio por parte del
codificador, que no es el mismo que encuesta o entrevista.
Para que el juicio sea fiable, hay que controlar dificultades que provienen de los datos:
exhaustividad (que no haya ítems en blanco), legibilidad (letra clara), comprensión (explicación
clara), uniformidad (en el seguimiento de las instrucciones). Otras dificultades surgen de las
categorías: se deben distinguir con exactitud las fronteras de las categorías.

3. Tabulación de respuestas

Su operación esencial es el recuento para determinar el número de casos que encajan en las
distintas categorías. Los términos tabulación cruzada o encuentro son usados para referir a los
casos que ocurren en más de una categoría. Es un paso esencial para descubrir relaciones entre
variables.
La tabulación manual suele ser menos costosa y laboriosa cuando son pocos casos o pocas series
de categorías. A medida que aumentan, los tabuladores mecánicos son más económicos.

4. Análisis estadístico de los datos

a- descripción de los datos: se debe hacer una o varias de estas cosas: determinar lo que es típico
en el grupo (indicación de la tendencia central); indicar con qué extensión varía los individuos
(medidas de variación); describir diferencias entre dos o más grupos de individuos; etc.

b- generalización de la muestra al universo: Para estimar si, en el caso de haber entrevistado a la


población total, hubiéramos tenido los mismos resultados, hay que comprobar la hipótesis nula
-es decir, la que niega la original-. Ej: hipótesis original: los de la ciudad van más al cine que los
del campo. Hipótesis nula: los del campo y los de la ciudad van con la misma frecuencia al cine.
Entonces se analizan el interior de uno de los dos grupos, para comprobar si puede haber
diferencias entre dos muestras extraídas de un grupo semejante.

5. Inferencia de relaciones causales

X es causa de Y
Como no hacemos estudios experimentales, no podemos seleccionar un grupo, exponerlo a x, y
otro no…
En estudios no experimentales el investigador recoge información sobre un número de variables
que podrían ser determinantes alternativas de y (variables de control).
Así se considera que pueden haber sido otras las causas de y, o se confirma la relación original, o
se especifica.

6. Uso de datos no cuantificados

81 de 107
Los datos que no fueron cuantificados se pueden usar en el análisis e interpretación. Aun en el
caso de que toda la información haya sido convertida en categorías, el volver al texto original
hace posible conocer los contextos. Pero normalmente no todos los aspectos de la información se
categorizar. En estos casos el material no elaborado tiene la ventaja adicional de no conocerse.
Esos datos sirven a lo largo del análisis para:
- ilustrar el rango de significación adjudicado a cualquier categoría
- estimular nuevos puntos de vista.

“La utilización de los datos disponibles” – Benjamín González Rodríguez

Muchas veces el investigador social se ve imposibilitado a la hora de investigar en producir sus


propios datos, sea por una cuestión financiera o temporal. El objetivo del análisis es sugerir pistas
para el manejo adecuado de los datos secundarios.
Ante todo la utilización de datos secundarios es una técnica o procedimiento de investigación, en
la cual se intentan obtener datos de documentos escritos o no escritos, con el propósito de ser
utilizados en una investigación concreta. Cuando se recurra a este procedimiento hay que evitar el
“hábito coleccionista” (recolectar información abundante sin un propósito definido) o una
“búsqueda a ciegas” (intentando que los datos hablen por si mismos).

1- Preguntas iniciales ante una investigación basada en datos secundarios.


La investigación basada en esta técnica debe partir de una evaluación de la información que vaya
a utilizar, ya que se si esta falla la nueva investigación también. Por eso el investigador debe
prestar atención a las siguientes consideraciones:
• Debe centrarse en si el análisis secundario es la estrategia adecuada para manejar el
problema de investigación que va a desarrollar. Para ellos recurrirá a su ingenio, preparación y
creatividad. Un buen análisis de los datos secundarios implica un amplio conocimiento de la
temática en cuestión, en cuanto a la situación y nivel de desarrollo de la misma.
• Importancia del análisis de los objetivos. Ahora debe preguntarse sobre cuestiones mas
especificas al tema de investigación que le compete. Preguntas a cerca del objetivos, si se trata de
algún estudio descriptivo, exploratorio, evaluativos. Una vez que estos estan claros, la elección de
los datos a utilizar poseerá un margen de error menor. Lo mejor sería una vez elegidos dichos
datos, poder reanalizaros utilizando tecnicas o estrategias distintas, para poder rectificarlos, e
inclusive enriquecer el análisis.
• También debemos preguntarnos por la credibilidad de la fuente de información. Hay
fuentes que son más fidedignas que otras. No serán los mismos datos los que provienes de
instituciones que poseen años, investigando, con profesionales especializados, que una consultora
nacida hace poco tiempo.
• Credibilidad de los datos secundarios. Evaluada la fuente, el investigador de datos
secundarios debe evaluar con detalle los datos como tales, planteándose las mismas preguntas que
el investigador de datos primarios. Tendrá que preguntarse si las categorías de respuestas fijadas
en la investigación primaria resultan adecuadas para la nuestra. Por otro lado preguntas a cerca
del muestreo: tipo de muestreo utilizado, marco muestral, tamaño de la muestra, unidad de ana, si
existen errores muestrales. Otra cuestión es la revisión del momento en el que se recogieron los
datos, el aspecto temporal, evaluando si estos datos son o no son útiles a nuestros fines.
• Triangulación como mecanismo para mejorar la validez. El investigador debe tratar de
utilizar varias fuentes para obtener la misma información, con el fin de comprobar si existe
concordancia en los datos. Aumenta la fiabilidad.

2- Ventajas e inconvenientes de la utilización de DS (datos seundarios)

82 de 107
VENTAJAS:
• Los DS constituyen un buen arranque para buscar ideas, hipótesis, mejorar su propio
proyecto, así como descubrir vacíos, lagunas para tratar de clarificarlos con los resultados de la
investigación.
• Los DS posibilitan estudios transculuturales, en los que las sociedades enteras son su
unidad de análisis. Ej: Investigación transnacional, en los que un investigador aislado se ve
imposibilitado de recolectar el mismo los datos.
• Muchas veces cuando fuimos nosotros mismo los recolectores de los datos, podemos
recurrir a DS para poder ver el nivel de representatividad de la muestra. EJ: Si queremos ver el
nivel socioeconómico de una población, para poder vislumbrar si es representativa o no
recurrimos a investigaciones de tipo demográfico (es decir utilizaremos los recursos brindados de
otra investigación).
• Siempre que necesitamos comprender el presente, en ciencias sociales recurriremos al
pasado. Dado que los estudios longitudinales, muchas veces son complejos de llevar a cabo
utilizando fuentes primarias, recurriremos entonces a DS.
• A su vez la facilidad que tiene el investigador al acceso de investigación por la existencia
de bancos de datos. Sumado a que su costo es menor, y muchas veces la calidad de los datos es
mas fiable si recurrimos a organizaciones especializadas.
• Evitamos la “no reactividad o el efecto conejillo de indias”. Cuando los sujetos saben que
están siendo estudiados, el proceso mismo de mediación puede distorsionar los resultados
gravemente. El investigador se ve libre se este efecto teniendo tmb que examinar examinar
críticamente los datos con los que realizara su investigación desde este punto de vista.
• El investigador tiene la posibilidad de replicar y reanalizar los mismo datos desde
perspectivas diferentes, desde marcos teóricos distintos, y que con técnicas analíticas diversas
enriquecer a la disciplina científica que le compete.
• Progreso científico, por la existencia, desarrollo y utilización de grandes bases de datos.
Aparece la posibilidad de que los teóricos utilicen datos existentes para incorporarlos al
desarrollo de su teoría.

DESVENTAJAS:
* Sucede que muchas veces la información que uno necesite no este disponible.
* Muchas veces es duradero el proceso en términos temporales de la localización de DS, y tmb
problemas burocráticos pueden obstacularizar la investigación . Otra consideración es que los DS
están por definición desfasados en el tiempo, y esto muchas veces es conflictivo.
* Hay que tener en cuenta que los DS que han sido generados para unos determinados fines de
investigación, pueden no resultar útiles para otros. También el investigador tiene que ser
conciente de lo que elige y no tener la estrategia “cuanto mas mejor” o “cruzo los datos todo con
todo para ver que sale”.
* Tmb tiene que poseer requisitos mínimos de calidad, en términos de fiabilidad y validez. Por lo
tanto no esta de más poder corroborar y contrastar los datos.
* Puede existir un supuesto peligro de que si los investigadores de limitan a utilizar
sistemáticamente los mismos datos, sin incorporar nuevos índices, se corre peligro de repetir lo
mismo, con lo que no tendrían cabida ni la creatividad, ni la intuición, ni la innovación.
* Problema de la interpretación, cuando muchas veces las definiciones por ejemplo de un
cuestionario no están claras, y los integrantes de esa muestra interpretan cosas distintas, y por
ende los datos no son fiables, con lo cuál no nos servirán.

3- Guía básica para realizar una investigación basada en DS.

83 de 107
A) marco teórico: Se refiere al “que” de la investigación. Se debe definir cual es el problema
concreto de la investigación, cuales son las hipótesis mas importantes, que tipo de hipo son,
cuales son los conceptos que se intentan relacionar, definición de conceptos.
B) La medida: El investigador debe reconstruir el proceso que generó los datos
originalmente: cómo, cuándo, por quien fueron recogidos los datos.
C) Búsqueda y evaluación: El éxito de la investigación depende del cuidado que se ponga en
recoger datos serios, sólidos y de confianza. Para ello tiene que ser fiable y valido. ¿Cómo se
obtiene fiabilidad?:
• Tener buena familiaridad con la institución que proveerá la información
• Cual fue el objetivo de la información que recogeremos, para ver si es coincidente o no
con nuestro estudio.
• Quien es el responsable del estudio, ya que hay fuentes mas fidedignas que otras.
• El factor tiempo: para poder ver si los datos son valiosos o no.
• Como se obtuvieron los datos en relación al muestreo (tipo de muestra, etc)
• Que tan completa es la información recogida. Que es lo que desde nuestro de punto de
vista esta ausente.

¿Cómo es que se logra la validez?


• hay que intentar observar si los indicadores miden realmente lo que se suponen que miden
• Tmb observar si se corresponde la definición del concepto del autor de los DS con su
definición de ese concepto
• Si se están utilizando series temporales hay que preguntarse si el concepto que queremos
medir sigue siendo el mismo o ha variado su significado con el paso del tiempo.
• Y Sobre todo siempre debe interrogarse si los DS elegidos cubren las dimensiones
relevantes en su propia investigación.
D) Análisis e interpretación de resultados. El investigador puede analizar los DS combinando
la información de modo que nos permita obtener nuevas variables a partir de las existentes y
representar un nuevo concepto. Esta es la parte creativa de la investigación. También hay que
revisar si se ha calculado el error de muestreo , o si existe falacia ecológica. Una vez realizada la
tarea de revisión se pueden aplicar distintas técnicas analíticas que no difieren demasiado de las
utilizadas con datos primarios.

84 de 107
TECNICAS DE LA INVESTIGACION
INVESTIGACION: es un proceso que nos brinda conocimiento científico (cierto y provisional,
público y transmisible).
DISEÑOS DE INVESTIGACION: El diseño de investigación consiste en la planificación de
los procedimientos necesarios para responder a tres preguntas: ¿Desde qué perspectiva teórica se
abordará el asunto?, ¿Qué metodología se utilizará para producir la evidencia? Y, ¿Cuál será la
estrategia de análisis? Estas tres preguntas son la tarea central del diseño en Ciencias Sociales.
El diseño es el protocolo e el cual se especifican las tareas que demandará la ejecución de una
investigación; con un propósito, el objetivo de estudio, el diseño combina teoría metodología y
técnicas. Las tres primeras etapas de un diseño son: la construcción de un marco teórico, la
deducción de objetivos a partir de ese marco y la elección de una metodología que articule teoría
y objetivos para la producción de la evidencia empírica.
CLASIFICACION
 Según el grado de cumplimiento de los supuestos de la experimentación

Esta tipología de diseños responde a los siguientes criterios de clasificación:


- Como se seleccionan las unidades de observación
- El numero de observaciones realizadas
- El grado de intervención del investigador en el proceso de inv
- El control de posibles variables explicativas a las variables analizadas (validez interna)
- Posibilidad de generalización de los resultados de la investigación a otros conextos espacio-
temporales (validez externa)

1. Diseños preexperimentales o correlacionales: entre sus características distintivas destacan:


a) La ausencia de manipulación de las variables intervinientes en la investigación. El investigador se
limita a la observación del fenómeno que analiza
b) Se efectúa una única medición del fenómeno
c) Falta de control de posibles fuentes de invalidación de la investigación, lo que le resta poder
explicativo.

Ejemplo: encuesta usual (no la encuesta panel) en la que se produce una única medición de la
realidad social.
2. Diseños experimentales: cabe definirlos como “observación controlada”, gracias a una serie de
actuaciones del investigador dirigidas al control de posibles fuentes de invalidación de la investigación.
Entre las actuaciones destacan:
a) La manipulación experimental: el investigador puede manipular a priori (antes de recoger la
información) las variables cuya influencia en la ocurrencia de determinados fenómenos trate de medir
b) La formación de grupos de control q sean equivalentes al grupo experimental. Los individuos se
asignan de forma aleatoria a los grupos experimentales y de control.

Estas actuaciones favorecen las relaciones causales al cumplirse la exigencia de validez interna:
el control de las explicaciones alternativas a las analizadas pero tiene una desventaja: la mayoría
de estos diseños carecen de validez externa debido a la manipulación experimental ( a la
alteración que el investigador introduce en la realidad que analiza)
(Texto Hayman): El modelo científico para el estudio de relaciones causa-efecto es el
experimento controlado. En este se comparan las respuestas de un grupo experimental
expuesto a un estimulo con las de un grupo control equivalente que no ha sido sometido
al estimulo.
3. Diseños cuasiexperimentales: están n el medio de los dos anteriores. Puede haber (o no)
manipulación experimental de la variable independiente pero se distancia de lo experimentales en que
en general acontecen en un contexto de la vida real y no en el marco de un laboratorio y en que la

85 de 107
distribución de las unidades de observación (la muestra del estudio) al grupo experimental y al de control
no se realiza de forma aleatoria. Por lo cual no puede garantizarse esa equivalencia.

 Según el tratamiento de la variable tiempo (marco temporal)

Esta clasificación responde a cómo se haya planificado a recogida de información.


1. Diseños seccionales o transversales: se caracterizan por circunscribir la recogida de información
a un único momento en el tiempo.

2. Diseños longitudinales: esta modalidad se caracteriza por plantear el análisis del problema de
estudio a lo largo del tiempo, con el propósito de estudiar su dinámica. La re-cogida de información se
planifica en varias fechas que el investigador especifica en el proyecto de investigación. la amplitud del
periodo de observación y su cronología se halla relacionada con el objetivo. Obviamente el n° de
personas en la muestra disminuirá cuanto mayor sea el periodo de tiempo considerado. Un problema de
este diseño es el costo económico.
a. De tendencias: el estudio se enfoca a la descripción de la población total, no de una parte de ella.se trata
de analizar su evolución prestando atención a las tendencias y cambios de tendencias. Ej: cuando se
comparan los datos registrados en los censos de población (1960, 1970, 1981 y 1991) para analizar su
evolución. Ej 2: cuando se cotejan las respuestas emitidas a una misma pregunta e diferentes encuestas
hechas en fechas diferentes.
b. De cohorte: el interés no se halla en la población total sino en una subpoblación o cohorte. La cohorte
estará constituida por individuos que comparten misma características. La más común, es la edad pero la
cohorte puede fijarse a partir de una experiencia concreta (mujeres que estuvieron en prisión 10 años).
Ej: si se desea analizar como varían las relaciones e/padres e hijos a medida q se van independizando, se
elige una cohorte compuesta por personas q nacieron en el año 55 y se pasa una encuesta cada 5 años a
personas que integren la cohorte seleccionada.
c. Panel: la atención se dirige a analizar la evolución de unos mismos individuos que se eligieron al inicio de
la investigación. Por lo que no se procede a nuevas selecciones muestrales en cada fase posterior de la
investigación. Este diseño es de gran utilidad para indagar en causas de cambio. Las personas son las
mismas, lo que cambian son las circunstancias. 2 problemas del diseño: el desgaste de la muetsra con el
consiguiente aumento de la no respuesta y que el proceso de medición puede sucitar sesgos en
mediciones posteriores por efecto del aprendizaje (esto lleva a la no veracidad de las rtas)
Ej: si se quiere comprobar como incide la situación económica de n país en los habitos de consumo el
diseño sería:
Transversal: si se hiciera una encuesta aplicada una vez en varios países y de forma simultanea
Longitudinal: si se hiciera la misma encuesta en fechas diferentes. El obj seria estudiar la evolucion de los
habitos en el tiempo.

 En función de los objetivos de la investigación

Una misma investigación puede incluir objetivos de diverso rango, en consonancia con las distintas fases
en su desarrollo.
1. Diseños exploratorios: este tipo de diseño se lleva a cabo para cubrir alguno de los siguientes proposits:
familiarización con el problema de investigación para deducir (a partir de la info reunida) que aspectos
requieren un análisis pormenorizado, comprobar que estrategia se adecúa mas a su análisis y verificar la
factibilidad de la investigación.

86 de 107
2. Diseños descriptivo: al igual que el anterior constituye un paso previo en cualquier proeso de
investigación. Antes de indagar en la explicación de cualquier evento hay que proceder a su descripción
mediante alguna o varias estrategias de inv (encuesta, estadísticas, etc) Ej: censo de población (en els e
describen características sociodemograficas de una población determinada)

3. Diseños explicativos: después de la descripción procede la explicación: buscar posobles causas o razones
de los hechos, acciones o cualquier fenomneo que se analice. Ej: describir el perfil de una población
delincuente juvenil es decriptivo pero analizar las causas que convergen en la delincuencia juvenil implica
un diseño explicativo.

4. Diseños predictivos: la predicción forma un objetivo en si mismo aunque lleva consigo a uno o varios de
los objetivos anteriores. Para poder predecir cual será la evolucion futura de un determinado fenomento
habrá que previamente analizarlo en su vertiente descriptiva y explicativa.

5. Diseños evaluativos: en él se busca la aplicación de procedimientos de investigación (estrategias,


técnicas) de manera sistematica y rigurosa. Con ello se pretende alcanzar conclusiones validas y fiables
sobre la creatividad del programa cuya actuación se evalua. Modalidades de evaluación:
a. Evaluación del impacto: evaluación de resultados, de efectividad y sumativa.
b. Evaluación del proceso: busca la descripción del programa: en q consiste y como fx?
c. Valoración de las necesidades: el objetivo especifico de la investigación lo constituye la identificación de
las necesidades primarias que el programa debe atender
d. Evaluación mediante análisis de sistemas: considera al programa como conjunto de subsistemas
relacionados y vinculados, busca el análisis de esas interrelaciones.
e. Análisis coste-beneficio: se estudia la relacion entre los costes del programa y sus resultados, expresados
(gralmente)en términos monetarios
f. Evaluación del conjunto comprende tanto las metas del programa como su repercusión, las alternativas
disponibles y/o los costes de su actuación.

Tiene una lógica articulatoria enter la teoría , el método y la metodología. Estos delimitan o
problematizan determinada cuestión. Importancia de la coherencia interna en el proceso de
investigacion.

 ETAPAS DE LA INVESTIGACION

1° DEFINICION DEL TEMA


Acotado espacio temporalmente xq facilita la busqueda de antecedentes.
2° PREGUNTA PROBLEMA
Toda investigación parte de una pregunta problema, un interrogante, incógnita. No es un
problema de la realidad es una falta de informacion sobre algo .Éste debe tener posibilidades de
ser trabajado, Debe ser factible de investigación. Se establece entonces un objeto de estudio.
“falta de participacion de los alumnos en la uade” no es una PP.
Como delimitamos o problematizamos determinada cuestióna? Teoría, método y
metodología.
3° PERSPEECTIVA TEÓRICA
Apelamos a la teoría (Marco teórico: fundamentos teóricos de nuestra investigación. Es el punto
desde dnd nosotros problematizamos determinada cuestión. A partir de allí se asa a la
Este proceso constituye una de las etapas de la investigación una vez definido y acotado el
problema o cuestión a estudiar.
La TEORIA puede ser definida como un conjunto de conceptos lógicamente relacionados que
representan lo que creemos que sucede en el mundo.

87 de 107
Busqueda de antecedentes: Estado del arte: es lo que hay hasta ahora sobre la hipótesis. Es diferente al
marco teórico que tiene que ver con los conceptos que toma de todo eso, hay que tomar una decisión. El
marco teórico constituye mi definición de las variables. Dentro de esta búsqueda encontramos el primer
elemento que se debe tener en presente a la hora de elaborar teorías es la Revisión bibliográfica, es
decir deben tener en cuenta la elaboración teórica y la evidencia empírica anteriores sobre la cuestión, ya
que una de los objetivos esenciales de una investigación es contribuir al conocimiento ya acumulado. La
revisión crítica de la literatura es el cimiento sobre el que se construye cualquier trabajo de investigación
y contribuye a delimitar el problema de investigación, elaborar un marco teórico adecuado (donde
juegan un papel relevante las teorías elaboradas por otros) e identificar posibles hipótesis alternativas,
definir conceptos y medir variables, organizar una estrategia de investigación y obtener datos.

 Inducción y deducción

La elaboración teórica no es una actividad que se desarrolle únicamente en la primera etapa de la


investigación y que quede sellada sino que el marco teórico y la obsevación interactúan
relacionándose entre sí.
El proceso de elaboración teórica donde a partir de la observación de unos hechos específicos se
elabora una teoría explicativa general se denomina Inducción. Otra forma de elaboración teórica
consiste en el proceso inverso: a partir de supuestos teóricos que establecen relaciones entre dos o
mas fenómenos, se indican predicciones sobre lo que se espera encontrar en la realidad. Las
investigaciones basadas en la teoría de la elección racional son un buen ejemplo de este
razonamiento deductivo.
 Caracterísiticas o condiciones para una buena teoría

Las teorías deben reunir una serie de características esenciales.


a) Contrastabilidad. Es una primera condición que deben cumplir las teorías. Esto significa
que al menos a priori una teoría debe poder ser incorrecta. Esto no significa que se deseen
encontrar observaciones contrarias a la teoría elaborada sino que se debe permitir la posibilidad.
Una teoría contrastable es capaz de generar muchas implicaciones observables, es decir, está
formulada de tal manera que la realidad ofrezca numerosas formas de verificarla. De allí que hay
que evitar las teorías demasiado abstractas, o futuribles, o cuestiones de fé porque no son
empíricamente contrastables.

b) Claridad en la elaboración conceptual: la claridad exige que los conceptos que forman
parte de la teoría estén concreta y claramente definidos, de manera que sean fácilmente
observables empíricamente.

c) Carácter general/generalidad: en tanto el sentido de que no se trata de sacar


conclusiones únicamente válidas para los casos estudiados sino que éstas deben ir mas allá. El
investigador debe intentar encontrar un equilibrio, es decir teorías que respeten al mismo tiempo
los criterios de validez externa (generalidad de las conclusiones) y de validez interna (calidad en
la Operacionalización y medición de los conceptos y de las relaciones de los mismos).

d) Satisfactoria: en el sentido de proponer explicaciones que no originen nuevos


interrogantes, que no deja pendiente una nueva explicación que aclare la causa propuesta por la
teoría.

 Elementos de una teoría

a) Conceptos y Variables

88 de 107
Un CONCEPTO consiste en tres elementos relacionados entre sí: término, significado y
referente y su relacion viene dada por el consenso entre los miembros de una comunidad. La
utilidad de los conceptos depende de que cumplan dos condiciones fundamentales: ser
inequívocos y claros. Los conceptos ambiguos y vagos impiden la comprensión.
Los conceptos constituyen una teoría bien definida de forma tanto:
- Declarativa: términos que se encuentran en el lenguaje coloquial (como organización,
cultura, clase social) no son lo suficientemente inequívocos ni claros sino que requieren
una definición mas detallada.

- Operacionales: son aquellas definiciones que incluyen la especificación del referente


empirico de un concepto.

Una vez formulados los objetivos los conceptos contenidos en las hipótesis o proposiciones que
los conforman deben ser transformados en variables, las que pueden ser definidas como aspectos
o dimensiones de los fenómenos o procesos estudiados.
Una VARIABLE es una característica empíricamente observable de algún concepto que puede
tomar más de un valor. Cuál es su utilidad? Las variables, constituyen un atributo de las unidades
de análisis que permiten pasar de la teoría, que relaciona dos o más conceptos a la observación
empírica de los datos con los que se espera contrastar la teoría formulada y Permiten además
estructurar la investigación, según el papel que desempeñen las hipótesis.
- Al igual que los conceptos pueden ser relativamente sencillas (género) o complejas
(gobernabilidad de un sistema político, nivel de desarrollo económico, discriminación por
sexo)

Tres niveles de medición de variables: (corresponderá al investigacod determinar cuál es la que


mas se ajusta a sus necesidades):
 Según el análisis

- Variables de intervalo: utilizan criterios de medición en los que se pueden identeificar


unidades y por lo tanto calcular distancias entre un caso y otro. Ej: nivel de ingresos,
numero de partidos de un sistema político.

- Variables ordinales: utilizan criterios de medición basados en conjuntos de categorías que


pueden ordenarse de mayor a menos y q por lo tanto también permiten ordenar los casos
analizados. Ej: grado de interés por la política. (mucho, poco, bastante). Son aquellas que
hablan de grados de aprobación.

- Variables categóricas o nominales: prceoden de clasificaciones o tipologías cuyas clases


o tipos no se se pueden ordenar. Ej: nacionalidad, religión, genero.

Luego el investigador es libre de definir las categorías que se incluyen en cada variable
siempre respetando los criterios de exclusividad y exhaustividad.
 . Según la hipótesis (ver mas adelante)
a) Dependientes
b) Independientes
c) De control (condicion) contextuales (solo en tal -...)

b) Hipótesis

Para poder contrastar una teoría empíricamente es necesario formular una HIPOTESIS es decir,
un enunciado declarativo que indica explícitamente las relaciones que se esperan encontrar

89 de 107
entre las variables. Las hipótesis constituyen el vínculo entre teoría y datos. Ej: “ cuanto mayor
es el nivel de proporcionalidad de un sistema electoral mayor es la fragmentación del sistema de
partidos”. Ligado a la pp damos una posible hipotesis: supuesto que guia la investigacion Una
hipótesis debe contar y relaciona como mínimo una variable dependiente y otra independiente a
través de un nexo. Esta es su estructura básica, luego debe contener. las variables, las UDA,
recote espacio temporal y nexo logico
Nexo: influye en- depende de- condiciona a- se relaciona con 8asimetrica)

Variables: conceptos que van a ser medidos en la investigacion.

La variable dependiente es de una importancia crucial en la investigación y se trata de una


varibale cuyo valor se piensa que varía en función de los valores que toman otras variables.
Siguiendo el Ej: el grado de fragmentación sería la VD.
La variable independiente es aquella cuyos cambios o variaciones influyen en los valores de la
VD. Ej: nivel de proporcionalidad del sistema electoral es la VI. Estas a su vez se distinguen en:
Interviniente: son aquellas que se encuentran entre la principal variable explicativa y la
dependiente. Ej: “ un alto grado de proporcionalidad en el sistema electoral conduce a una
elevada fragmentación en el sistema de partidos, lo que contribuye a reducir la estabilidad
gubernamental” – la fragmentación constituye la interviniente.
Antecedente: intervienen con anterioridad a las variables explicativas
V. de control: son variables independientes que influyen tanto en otras variables
explicativas incluidas en el modelo como en la variable dependiente.
En este sentido, las hipótesis pueden ser mas o menos complejas, incluyendo únicamente dos
variables o bien especificando cadenas causales con variables antecedentes o intervinientes.
Las hipótesis nula es la mas sencilla y es aquella que postula que no hay relacion entre dos
variables.
La hipótesis explicativas mas sencillas incluyen al menos una variable dependiente (fenómeno a
explicar) y una independiente (fenómeno que explica)
Las hipótesis causales implican no solo que ambas variables co-varían sino que además
identifican a la independiente como la causa de un efecto en la dependiente. Estas son las mas
difíciles de contrastar empíricamente, no solo se debe probar empíricamente que existe una
relación entre 2 variables sino también argumentar teóricamente porque se da tal relación.
Una Condicion suficiente es aquella causa cuya presencia garantiza la aparición del
efecto, aunque esta pueda aparecer en otras circunstancias, es decir sin que la causa que se estudie
esté presente. Ej: la lluvia (causa) es CS para que las calles estén mojadas (efecto). Pero las calles
pueden mojarse por otras causas. Para poder determinar que una variable (causa) es condición de
otra (efecto) se deben ver todos los casos (o un nº suficientemente elevado) en los que la causa
este presente.
Una Condicion necesaria es aquella causa sin la cual no se verifica el efecto. Ej: el
oxigeno es CN del fuego. Pero la causa puede existir sin que se de el efecto. (el oxigeno no
produce siempre fuego). Para verificiar empíricamente el carácter de CN se deben observar
TODOS los casos.
Las relaciones causales en forma de condiciones necesarias o suficientes son poco frecuentes en
ciencia poltiica. Este tipo de relaciones se da en forma de condiciones facilitadoras, la presencia
de la causa facilita (pero no garantiza) la presencia del efecto.
 Relaciones causales que pueden establecerse entre las variables de una hipótesis o
proposición.

- Una relación puede ser reversible (si X, entonces Y; y si Y entonces X) o irreversible (si
X, entonces Y; pero si Y, entonces ninguna conclusión acerca de X). Ejemplo reversible: cuanto
mayor la frecuencia de interacción entre dos o más personas, tanto mayor su simpatía, y
viceversa, cuanto mayor la simpatía entre dos o más, tanto mayor la frecuencia de interacción.

90 de 107
- Una relación puede ser determinista (si X, entonces siempre Y) o estocástica (si X,
entonces probablemente Y). Las relaciones deterministas parecen ser muy raras en sociología, las
estocásticas son más comunes. Ejemplo determinista: si hay un aumento en el número de
miembros de un grupo completamente inestructurado, siempre hay un aumento en el anonimato
de as acciones del grupo. Ejemplo estocástica: Si una persona debe elegir entre conformarse a una
norma y abandonar una alta posición, lo más probable es que quede con alta posición.

- La relación puede ser de secuencia (si X, entonces mas tarde Y) o coexistente (si X,
entonces también Y). Ejemplo secuencia: si los votantes están sujetos a influencias
contradictorias de sus grupos primarios durante una campaña electoral, posiblemente demores en
tomar una decisión. Ejemplo coexistente: cuanto mayor es el porcentaje de movilidad social,
menor es la medida en que las clases bajas aceptan ideologías clasistas militantes. Las relaciones
de coexistencia reversibles se han llamado muchas veces “funcionales”.

- Una relación puede ser suficiente (si X, entonces Y, independientemente de cualquier otra
cosa) o contingente (si X, entonces Y, pero sólo si Z).

- Una relación puede ser necesaria (si X, y sólo si X, entonces Y) o sustituible (si X,
entonces Y; pero si Z, entonces también Y).

- Los sociólogos se toman el trabajo de identificar un tipo adicional de relación, que es una
combinación de atributos reversibles, secuenciales y coexistentes. Son relaciones
interdependientes, entonces un pequeño incremento de una variable tiene como resultado un
pequeño incremento de una segunda variable; luego el incremento sobre la segunda variable hace
posible un ulterior incremento en la primer variable, que a su vez afecta a la segunda y el proceso
continua. Una variación importante en una relación interdependiente se produce a través de una
serie de cambios pequeños que interactúan.

- Proposiciones funcionales. Muchas veces los sociólogos usan la palabra “función” para
significar solamente “resultado”, y el término “prerrequisito funcional” para significar solamente
“determinante”. En un marco más estricto, “función” tiene un significado más específico: “Son
aquellas consecuencias observadas que contribuyen a la adaptación o ajuste de un sistema dado”.

- Proposicones comunes y teóricas. Definir a las proposiciones según el valor informativo


de la proposición. En general cuanto más modos distintos de probar que una proposición es
incorrecta. Tanto mayor es su valor informativo. Es decir, cuanto mayor el valor informativo de
una proposición, tanto mayor la variedad de hechos que puede explicar. Las proposiciones de
bajo valor informativo las llama comunes, y las de alto valor informativo las llama teóricas. Todo
sociólogo debe saber extraer proposiciones comunes de las proposiciones teóricas, es decir,
descomponerla. (si quieren vean los ejemplos en la pag 57, 58, 59).

Una buena hipótesis debe comprender entonces:


- La definición operacional de las variables que se incluyen (dependientes y explicativas, y
en su caso tmb intervinientes y antecedentes)

- La especificación del tipo de relacion que se espera encontrar entre esas variables: se es
positiva o negativa, lineal o no,

91 de 107
- En el caso que sea relevante, la especificación de las interacciones que se esperan
encontrar.

4° OBJETIVOS
Es el rumbo que vamos a llevar adelante y que va a determinar el tipo de investigacion.
Las fuentes de inspiración
Procedimiento que se lleva a cabo en la práctica para formular un objetivo de investigación
científica a partir de un tema o problema que se ha planeado el equipo de investigación. El primer
paso para el objetivo de investigación es discutir el contexto socio-histórico. El segundo paso es
definir los términos claves de nuestro estudio para lo cual la búsqueda de bibliografía constituye
la herramienta central.
Es importante llevar a cabo lecturas con dos propósitos: una lectura general informativa y la
forma de abordarlo y la lectura pormenorizada que da lugar al fichado del material. La elección
de la bibliografía especializada es una etapa crucial para la elaboración de los objetivos.
Los objetivos de investigación
La condición del objetivo es que se derive de la teoría y sea factible de ser desarrollado a lo largo
de una metodología. Teoría-objetivos-metodología deben estar articulados entre sí. Las teorías
tienen implicaciones metodológicas. Éstas son dimensiones generales que trascienden las teorías
o posiciones epistemológicas específicas.
Esas dimensiones giran alrededor de la definición de; el enfoque macro o microsocial de la
realidad social, las relaciones entre ambos y las implicaciones metodológicas; segundo, la
construcción del objetivo focalizado en el estudio de la estructura social o la acción social;
tercero, la cuestión del rol que se le asigna al orden social y/o a la agencia en la explicación de la
realidad social.
Clasificación:
Pueden ser:
- Generales: mas bien teóricos y debe abarcar a los específicos
- Particulares: ya eben tener en claro ciertos tipos de análisis. Despliega el contenido del marco
teórico: todo lo discutido en el marco teórico debe estar reflejado en estos obj.

Tipos: cada uno de ellos tienen diferentes estrategias.


- Explicativos: explican las cauisa del fenomeno en cuestión. Clave: control estadístico.
- Descriptivo: se propone describir u estado de cosas en el mundo.

La lógica que utilizan los enfoques de investigación es cuasi-experimental, es decir que


controlamos ciertas variables
- Explorativo: objetivo cualitativo. Diseño que se utiliza cuando no hay informacion sobre tal
cuestion.
- Evaluativo: evalua la eficacia.

No es lo mismo la Justificacion: “para asesorar al gobierno”, para colaborar, para dar info. Por
qué considero que me tienen que financiar o lo tienen que leer?
5° METODOLOGÍA
Diferencia entre método, metodología y técncias
Metodología: es el estudio de los métodos desde sus fundamentos epistemológicos hasta los
problemas de medición, es una rama de la lógica que se ocupa de la aplicación de los principios
de razonamiento a la investigación científica y filosófica. Discute los fundamentos
epistemológicos del conocimiento: el papel del investigador, el papel de los valores, la idea de
causalidad, el papel de la teoría, etc. Tiene un nivel de jerarquia mas bajo que el método. Son
estrategias que implican 3 preguntas: donde a quien y como voy a preguntar
Método: Es una forma de hacer, un procedimiento regular y ordenado. “son una seria de pasos
que el investigador sigue en el proceso de producir una contribución al conocimiento” .

92 de 107
procedimiento que determina como el proceso lleva o va ahacoa adelante. Implica como
implementas ese enfoque teórico? Que procedimientos van a utilizar para responder a esa
pregunta problema.
La función de los métodos justamente es adecuar los principios generales de las orientaciones
teórico-metodológicas a los requerimientos de la producción de la evidencia empírica.
Técnicas: “complejo mas o menos codificado de normas y formas de proceder reconocido por
una comunidad y transmisible”
Tiene, por lo menos, dos significados más. Ambos tienen una relación instrumental entre su
referente y la ciencia:
a. una técnica se sirve del conocimiento adquirido por las ciencias sobre la realidad para
modificar una parte de esta.
B. la ciencia se sirve de una técnica para estudiar mejor algún aspecto de su objeto
Elección del método:
Enfoques metodológicos:
- Cualitativo (hermeneuta comprensivo)
- Cuantitativo (hipotetico deductivo)

Integracion o triangulación metodológica: punto de disputa sobre la validez de los enfoques


metodologicos en ciencias sociales.
Jerarquía: paradigma (conjunto de teorías)- epistemología- teoría (conjunto de enunciados)-
método- metodología- estategia (como lo implementamos)- técnica (aplicación)- instrumento (ej,
formulario)
6° CONTEXTO
Se define la poblacion y los criterios de selección/ muestra estos criterios varian mucho de
acuerdo a sis se trata de cuali/cuanti) Tiene mayor nivel de especificidad respecto del objeto de
estudio
Una tarea laboriosa es la definición teórica de las unidades de análisis, se selección empírica y
la decisión acerca de cuáles serán los observables que definitivamente serán medidos para cada
una de las variables incorporadas al diseño. Es necesario un nexo teórico y lógico entre los
significados conceptuales asignados a la variable y el emergente observable que se utiliza en su
medición. La medición de las variables está afectada por el tipo de unidad de análisis incorporada
a la investigación.
Se especifican las Unidades de análisis: sujeto u objetos de estudio.
Colectiva: instituciones escuela, universiad, congreso), Paises, localidades
Individual: las personas, los barrabravas.
La suma de las unidades de análisis se llama UNIVERSO O POBLACION.
7° INSTRUMENTOS DE MEDICION Y TECNICAS DE RECOLECCION de info
Las variables pertenecen al dominio de la teoría, para observarlas o medirlas es necesario
encontrar un nexo con el plano observacional. Este nexo se denomina definición operacional, la
que está formulada en términos de los procedimientos que permiten captar sus expresiones o
manifestaciones externas. Las preguntas que se intentan responder mediante una investigación se
formulan a través de conceptos que, en general, no es posible medir empíricamente de manera
directa, pues no son directamente observables (términos teóricos o conceptos abstractos). Por
ello, lo que necesitamos es operacionalizarlos para así poder observarlos o medirlos.
 PROCESO DE OPERACIONALIZACION o Construccion del dato” :

Proceso, mecanismo que permite pasar de conceptos abstractos a indicadores directamente


observables, al dato empírico, que pueden ser medidos, para luego comprobar la validez de las
hipótesis desarrolladas. Se pasa entonces de la variable mas abstracta al indicador.
Operacionalizar: Especificar una serie de procedimientos u operaciones que se deben realizar
para obtener indicadores empíricos de la manifestación de una variable en un caso determinado.

93 de 107
Conceptos abstractos  Operacionalización  Indicadores observables 
Observación/Medición  Comprobación validez hipótesis
Variable: Propiedad de la udea que varían de una unidad a otra. Característica empíricamente
observable que puede asumir más de un valor
Indicador: variable observable /empirica.
El proceso de operacionalización incluye varias fases. Un concepto complejo puede desdoblarse
en una serie de dimensiones, que sirven de indicadores del concepto inicial, pero que a su vez
necesitan de operacionalizaciones sucesivas para poder ser directamente observables.
Dependiendo del grado de abstracción de un concepto el proceso de operacionalización es más o
menos largo y dificultoso.
La operacionalización de los conceptos se debe formular por escrito, con una indicación
pormenorizada de los pasos seguidos, de manera que otros autores puedan utilizarla. Es
importante operacionalizar bien los conceptos porque las investigaciones sólo pueden ser exactas
si los indicadores escogidos reflejan adecuadamente los conceptos que se tratan de medir.
Puede que un solo indicadores sea insuficiente para medir un concepto. Qué se hace?
a) Se utilizan diferentes indicadores del concepto “desarrollo eco” y se los utiliza por separado
b) Se construye un índice a partir de varios indicadores. De aquí se obtiene un valor único,
configurado por una serie de indicadores, es decir, un índice compuesto.

 Proceso de observación y medición

Creación de variables e indicadores. Este proceso se refiere a la creación de reglas para la


observación de los casos (no es necesariamente cuantificar. Podemos decir tmb que se refiere a la
aplicación de un instrumento de medida para asignar valores a los casos observados con respecto
a cada una de las variables. Este proceso exige la elección de uno o varios indicadores para cada
variable y de formas de obtener info.
Todos los tipos de medición proporcionan un medio de clasificar y ordenar los fenómenos,
pero no producen distinciones igualmente precisas y detalladas entre los objetos observados. Por
ello se habla de diferentes niveles de medición, haciendo referencia a la cantidad de info que
proporcionan sobre los fenómenos que se miden.
Medir: establecer criterios para la observación y clasificación de los conceptos, de acuerdo con
la presencia/ausencia de las propiedades que contenga cada concepto.
Niveles de medición
Conocer los tipos de medición ayuda a saber exactamente cuánta info están proporcionando
los datos y cómo se puede analizar esa info.
Medición nominal o categórica: Produce un conjunto de categorías separadas que agrupan los
casos similares entre sí de acuerdo con el criterio elegido. Si se utiliza un criterio único para
separar los casos en grupos, se trata de una clasificación. Si se utiliza más de un criterio, se trata
de tipologías.
Para que las clasificaciones y tipologías sean correctas deben estar basadas en conjuntos de
categorías mutuamente excluyentes y colectivamente exhaustivas (requisito del sistema de
categorías)
Excluyentes: Significa que un mismo caso no puede pertenecer a dos categorías de la clasif o
tipología al mismo tiempo.
Exhaustivas: Significa que todos los casos existentes deben ubicarse en alguna de las
categorías, de manera que ninguno se quede fuera de la clasif o tipología (para eso se suele incluir
el “otros”)
Medición ordinal: Su característica fundamental es que no sólo se puede clasificar los casos
sino tmb ordenarlos de mayor a menor. Entonces, aporta más info que la nominal (porque no sólo
permite clasificar los objetos o eventos x categorías sino tmb ordenarlos x grados).
En las variables ordinales los códigos numéricos asociados a ellas indican orden, pero no
cantidad. No existe la misma distancia entre una categoría y otra.

94 de 107
Medición de intervalo (intervalar): A diferencia de la medición ordinal, la intervalar sí utiliza
una unidad normalizada de la prop que se mide y asume una equidistancia entre categorías. Por
tanto, las medidas de intervalo proporcionan más info que las ordinales, ya que tmb señalan la
distancia que existe entre dos valores de una variable y se consigue un grado de precisión mayor
en as observaciones.
Tmb en este caso se pueden aplicar códigos numéricos a las categorías, con la diferencia de
que aquí los números adquieren significado cuantitativo, ya que representan la cant exacta de la
prop o variable que posee el caso que se este midiendo.
La ventaja fundamental de este tipo de medición es que los fenómenos pueden ser sometidos a
operaciones matemáticas, y los resultados de estas operaciones tienen significado, no como en el
caso de las variables nominales y ordinales.
 Técnicas de Recolección de info: encuesta, entrevista, grupos de discusion /hay cuali y
cuanti)

 Instrumentos de Medición: indices y tipologias

INDICE
Las informaciones recogidas tienen que ser sintetizadas para reconstruir de alguna manera la
unidad del concepto que interesa. La operación con la que se realiza esta síntesis se llama
CONSTRUCCIÓN DE UN ÍNDICE y es la tarea más delicada de toda la investigación social que
sigue una aproximación estándar.
INDICE: Instrumento de medicion que me permite a partir de una variable compeja seleccionar
un conjunto de indicadores que combinados mne permiten medir otra variable. Indice: combionar
indicadores para poder sacar una variable que sea medible. En el indice hay que asignar valores.
Herramienta cuantitativa. Suma los valores que tiene cada UDA en cada uo de los indicadores y
los resume en una medida. (resume los indicadores).
El análisis de componentes principales tiene tres funciones a las que correspondes tres fases en el
procedimiento:
1. seleccionar en la canasta inicial de indicadores los que resultan tener una estricta
relación empírica con los otros. Y por lo tanto se puede suponer que tengan una apreciable
relación semántica con el concepto que interesa;
2. estimar la fuerza de relación semántica(validez) entre el concepto y cada uno de
los indicadores seleccionados;
3. basándose en esta estimación, proporcionar un coeficiente parar ponderar los
puntajes de cada indicador, teniendo en cuenta las posibles superposiciones semánticas, es decir
el hecho de que dos o mas indicadores puedan representar aspectos muy cercanos de la intensión
del concepto.

Ej: participacion politica: Alta media baja (variables abstractas):


MILITAS? - VOTASTE? - PARTICPA ORG? - MARCHA?
Todo esto se resume en alta media baja (índice)
Ej: nivel socioeconomico: tienen todo un proceso hasta llegar a los indicadores.
Indicadores de NSE:
-ingreso
- ocupacion
- Bienes poseidos
Dimensiones:
- Eco: las anteriores
- Social: educacion
- Cultural

Indice de pobreza: no es compleja. Es un coeficiente entre canasta y salario.


Tasas, indices son Variables colectivas.

95 de 107
Ej: INIDCE ESTANDAR

A B C1 C2, sin instrucion / univ: son Categorias de las variables.


TIPOLOGIAS
Medir: encontrar las formas de llegar a los observable concretos para analizar la realidad.
La tipoliogia es un instrumento de medicion que consiste en la construccion de tipos .TIPO
IDEAL: Construccion basado en una teoria sustantivaque puede ser totalmente teorico o basado
en resultados empiricos. Son variables nominales
Durkheim trata el suicidio como un fenomeno social tipos: altruistam egoista, anomico, fatalista.
Tipologia de pobreza: toma como base datos censales, secundarios relevados por organismos

LA tipologia trabaja con variables cualitativas y los indices co cuanti.


Ej participacion politica

ESCALA DE ACTITUDES: otra forma o instrumento de medición


 VALIDEZ Y CONFIABILIDAD DE INVESTIGACION

 El proceso de medición: Validez y Confiabilidad

Mediante el proceso de medición se asignan valores a los casos observados con respecto a cada
una de las variables. Las diferencias en los valores asignados pueden reflejar diferencias reales en
la presencia de variables en cada uno de los casos. Pero dicha diferencia también puede ser
resultado de la elección de indicadores inapropiados o de su aplicación en contextos inadecuados.
Cuando se diseña y lleva a cabo un proceso de medición, el investigador debe intentar

96 de 107
aproximarse lo más posible a la perfección de forma que pueda estar seguro de que la variación
de los valores obtenidos en cada variable responde a diferencias realmente existentes y no son un
artificio producido por el propio proceso de medición.
La validez y la confiabilidad son dos propiedades deben ser tenidas en cuenta en todo tipo de
estudio ya que son las propiedades que se utilizan para establecer la calidad de los indicadores.
Ser consciente de sus implicaciones permite estar alerta ante posibles errores de medición que
puedan invalidar o contaminar los resultados de una investigación.
CONFIABILIDAD: es el grado de precisión con el que el instrumento de medida o indicador
mide el concepto que interesa al investigador. Un instrumento de medición es confiable cuando,
al usárselo reiteradas veces, produce los mismos resultados (fiables). La confiabilidad de las
medidas se incrementa al eliminar el error aleatorio o no sistemático. Es decir que la fiabilidad se
refiere al instrumento independiente del investigador que reiteradamente da resultados fiables.
Correspondencia entre situaciones reales y datos en la matriz
La VALIDEZ es el juicio acerca de la proximidad semántica entre un concepto y su indicador. Se
refiere al proceso de investigación y no al instrumento, se quiere corroborar que efectivamente
estemos midiendo lo que queremos, que los indicadores se refieran a lo que queremos medir. La
validez es una propiedad del concepto X en cuanto posible indicador del Concepto Y en un
ámbito espacial-temporal determinado con una unidad de análisis dada. Validez interna (tener en
cuenta todas las dimensiones que engloban esa variable) y externa (relacionar los resultados con
algo externo). Este juicio se a teniendo en cuenta los conocimientos del problema, de la población
estudiada, los resultados de las investigaciones previas, la literatura científica sobre el tema, etc.
El juicio debe tener en cuenta la fuerza y la forma de relaciona de aquella variable con otras.
2 tipos:
1. Interna: en relación con una variables, tenemos que tener en cuenta todas las dimensiones.
Tiene que ver con la calidad en la Operacionalización y medición de los conceptos y de las
relaciones de los mismos
2. Externa: correlacionar los resultados con el afuera. Tiene que ver con la generalidad de las
conclusiones).

DATO: es el valor que asume una unidad de análisis en la categoría de una variable.
MUESTREO

Tengo que saber a quienes les voy a aplicar los indicadores. En la hipótesis ya determine las UDA pero
ahora tengo que especificar. Pasos del muestreo:

1. Selección de unidades de muestra


2. Marco muestral: de donde se extrae la unidad elemental. El marco muestral es el mecanismo
o material que permite delimitar o identificar en forma apropiada los elementos de una
población

La selección de las unidades: cuántos casos?


Es esencial definir tanto la muestra como el universo. El universo es el conjunto de de
unidades sobre el cual se interesa el investigador, mientras que la muestra consiste en un
subgrupo de esa población.
Universo: Conjunto de unidades de análisis, tanto observadas como no observadas. Es lo mismo que
“población”. Son palabras utilizadas técnicamente para referirse al conjunto total de elementos que
constituyen un área de interés analítico. Universo: debe ser finito, conocido.

Muestra: Unidades observadas. Definición: subconjunto del conjunto total que es el universo o
población. Su propósito es establecer los pasos o procedimientos a través de los cuales sea
posible hacer generalizaciones sobre la población a partir del subconjunto de la misma con el

97 de 107
mínimo grado de error. Si la muestra está bien hecha el resultado se puede extrapolar al general.
En las muestras probabilísticas sino se puede establecer tendencias.
A la hora de decidir el número de unidades de análisis que han de incorporarse a la muestra, es
decir la determinación del tamaño de muestra se realiza teniendo en cuenta tres aspectos
fundamentales: el error admisible en la estimación, la confiabilidad e información auxiliar para el
cálculo de la varianza estimada y los siguientes:
 La magnitud del universo a estudiar: Para el estudio de algunos aspectos es posible conseguir info
sobre muchas unidades, mientras que en otros casos esta posibilidad está más restringida por la propia
naturaleza del estudio.
 El objetivo de la investigación
 El nro de variables que se incorporan en el marco teórico: Según si el objetivo es describir o
explica, y si se desean considerar muchas o pocas variables, el investigador debe observar o no muchos
casos.
 El papel de la variación a través del tiempo: Se distingue entre estrategias de investigación que
analizan variables medidas en un momento en el tiempo (sincrónicas) y estrategias que incorporan
observaciones a lo largo de diferentes momentos en el tiempo (diacrónicas).
 Los recursos eco y e tiempo disponible para la realización de la investigación

La selección de las unidades: cuáles?


Una vez que el investigador ha decidido cuántas udea van a compone su muestra, debe
seleccionar cuáles en concreto formas parte de ésta. De lo que se trata es de encontrar un método
de selección de casos que no produzca sesgos en las estimaciones, es decir, que per mita, a través
del estudio de unos pocos casos o unidades (la muestra) inferir generalidades válidas sobre
muchos (el universo).
Tres procedimientos de selección de casos que minimizan la probabilidad de llegar a
resultados sesgados: selección aleatoria, selección a partir de la variable independiente, selección
a partir de la variable dependiente (no los explico xqe ni lo vimos)
Los valores muestrales son los datos estadísticos a partir de las muestras y con los cuales se
buscara estimar los parámetros poblacionales. En general debe cumplir con dos condiciones: a)
en ella debe ser posible poner a prueba hipótesis sustantivas, es decirm proporciones acerca de
relaciones entre variables. B) Debe ser posible poner a prueba hipótesis de generalización sobre
proporcione establecidas por la muestra.
Las muestras pueden ser probabilísticas o NO probabilísticas (hay un tercer tipo pero no se
explico en clase y no está en la guía de preguntas chicos)
 Muestras Probabilísticas

Pueden ser : a) de simple azar b) muestra sistemática y c) muestra por conglomerados


a) DE SIMPLE AZAR:

Muestreo simple: Para obtener una muestra, se numeran los elementos de la


población y se seleccionan al azar los n elementos que contiene la muestra
Todas las combinaciones tienen igual probabilidad de darse en la muestra.
Procedimiento:
1) Hacer una lista completa del universo
2) Asignar un numero a cada individuo del universo
3) A través de una tabla de números aleatorios o procedimiento similar seleccionar un numero de
individuos que van a constituir la muestra.
Ventajas: Igual probablidad de inclusión en la muestra de todos los individuos. Permite la
generalización. Proporciona base para calcular el grado de dispariedad entre las medidas de la
muestra y del universo.
Desventajas: No provee un número suficiente de casos de grupos especiales. Puede haber
distorsiones en cuanto a la representatividad.

98 de 107
Conglomerados, Estratificada y Sistemática:
En todos estos casos no todas las combinaciones tienen igual probabilidad de darse en la muestra.
b) Muestreo sistemático: se hace por rango

Procedimientos :
1) Hacer un listado completo del universo.
2) Seleccionar el primer individuo a través de un método aleatorio
3) Seleccionar cada mismo individuo seleccionado a partir del primero (es decir, cada 10-
20 o algún numero)

Ventajas: Igual que en las muestras de azar simple


c) Muestreo Estratificado: se hace por estratos.

Procedimientos:
1) Dividir el universo en estratos internamente homogéneos

2) Seleccionar dentro de cada estrato los individuos de manera aleatoria

3) Las fracciones de cada muestra en cada estrato deben ser proporcionales.

Ventajas: Garantiza la representatividad y elimina los errores entre estratos. Posibilita


conocimiento de grupos pequeños del universo
Desventajas: Puede no proveer un número suficiente de casos para estratos pequeños Dificultad
para determinar estratos homogéneos. Exige tratamientos estadísticos más complejos. Dificulta
para determinar la homogeneidad.
d) Conglomerados

Procedimiento
1) Dividir el universo en diversos grupos
2) seleccionar primer que grupos deben constituir la muestra
3) dentro de cada grupo seleccionar individuos de la muestra de modo aleatorio.
Ventajas: Las mismas ventajas que en los otros dos puntos. Además ahorra dinero sobre todo
porque permite la concentración de los entrevistadores en áreas próximas.
Desventajas: Exige tratamiento estadístico muy complejos. Se pierde la precisión y el carácter
aleatorio del muestreo.
 Muestras NO probabilísticas:

Estas muestras tienen poco valor en términos de estimación ya que no es posible a partir de ellas
calcular el error de estimación de parámetros. Resultan de utilidad en términos de inmersión por
parte del investigador en el tema.
Muestras Causales: Entrevistar a los individuos de una forma causal. Por ejemplo los que pasan
por una esquina, una entrevista televisiva.
Muestra intencional: Seleccionar casos típicos del universo según el criterio de un experto.
Muestreo en Cuotas: Cada entrevistador debe entrevistar a una cierta cantidad de individuos de
cada categoría (por ejemplo hombres y mujeres)
8° ANALISIS

99 de 107
Unidad 4
Introducción (sacado de los dos textos de Cohen que están en la unidad, más apuntes de clase)
“En las ciencias sociales contamos con diferentes métodos y técnicas para pasar de del concepto
definido teóricamente al concepto definido operacionalmente y, de esta manera hacer de un
concepto un instrumento (variable) apto para la producción de datos” (Cohen; pág. 13). Es decir
que contamos con diferentes técnicas que permiten medir, entendiendo la medición en un sentido
amplio, superando la concepción estrictamente cuantitativa de la misma. En clase y en la
bibliografía (Unidad 4) se trabajan tres técnicas de medición: 1) los índices sumatorios; 2) las
tipologías y 3) las escalas de actitudes.
- Medición: no se restringe a la asignación de números a las propiedades de los objetos (como
lo plantea la mirada convencional- Campbell y Stevens), se pueden también representar
cualidades de los objetos mediante categorías cualitativas. Es el proceso por el cual se van
encontrando maneras de reflejar una determinada situación, no solo a través de números, sino
también mediante expresiones, que son categorías de respuesta. Consiste en registrar en qué
categoría de la variable se ubica la unidad de análisis. La medición tiene que cumplir con dos
requisitos:

a) Validez: el registro de medición tiene que registrar aquel concepto que pretende medir. Tiene
que ver con el grado de abstracción del concepto con el cual se está trabajando, y tiene que ser
siempre consecuente con la definición teórica en la cual se basa.

b) Fiabilidad: significa que bajo circunstancias observacionales parecidas debieran reflejarse


los mismos resultados, por eso hay que trabajar con instrumentos/ herramientas de medición
fiables (que respondan siempre igual, que no se deformen).

- Variables: construcciones teóricamente fundadas, no están en la naturaleza, se


construyen y tiene valor en tanto variables de acuerdo al contexto de la investigación. Son
características observables que pueden cambiar de valor, es decir, tienen la capacidad de asumir
por lo menos dos categorías. Entre las categorías de respuesta de una variable se construye un
sistema clasificatorio, que debe cumplir con tres condiciones: 1) ser exhaustivo; 2) ser
mutuamente excluyente y 3) ser preciso.

A su vez las variables entre sí se pueden clasificar entre los distintos tipos de variables:

100 de 107
- Clasificación de las variables según el nivel de medición: refiere a la relación que se puede
encontrar entre las distintas categorías de una misma variable.

a) Nivel nominal: para comprar en términos de “igual- diferente”

b) Nivel ordinal: para comparar en términos de “mayor- menor”

c) Nivel intervalar: para establecer un intervalo de distancia

d) Nivel de cociente o de razón: es igual que el intervalar pero con la particularidad de que tiene
un valor cero absoluto de cociente o razón (el cero implica la ausencia de una determinada
característica).

Lazarsfeld: De los conceptos a los índices empíricos


- Para la determinación de variables capaces de medir objetos complejos, hay que seguir casi
siempre un proceso más o menos típico. Este proceso que permite expresar los conceptos en
términos de índices empíricos, comprende cuatro fases principales: 1) la representación literaria
del concepto; 2) la especificación de las dimensiones; 3) la elección de los indicadores
observables y 4) la síntesis de los indicadores o elaboración de índices.

1) La representación literaria del concepto: la fase creativa empieza en el momento en que,


después de observar una serie de fenómenos dispares, intenta descubrir n ellos un rasgo
característico fundamental, y explicar así las regularidades constatadas.

2) La especificación de las dimensiones: comprende el análisis de los componentes de esta


primer noción elaborada en la etapa anterior, de sus aspectos o dimensiones. Dichos componentes
pueden ser deducidos analíticamente a partir del concepto general que los engloba, o
empíricamente, a partir de la estructura de sus intercorrelaciones. Por regla general, la
complejidad de los conceptos utilizados en sociología es tal que su traducción operativa exige una
pluralidad de dimensiones.

3) La elección de los indicadores observables: consiste en seleccionar los indicadores de las


dimensiones anteriormente definidas. Es necesario utilizar, en la medida de lo posible, un gran
número de indicadores, dado que la relación entre cada indicador y el concepto fundamental
queda definidos en términos de probabilidad, no de certeza.

4) Formación de los índices: consiste en sintetizar los datos obtenidos en las etapas anteriores.
Se trata de estudiar las relaciones entre indicadores, y deducir de ellas algunos principios
matemáticos generales que permitan definir la potencia relativa de un indicador respecto a otro, a
fin de determinar su peso en la medida específica que se intenta llevar a cabo. Al construir los
índices se elige un número de ítems relativamente limitado.

- Los índices poseen un rasgo fundamental: su correlación con las variables exteriores suele
manifestarse sensiblemente estable, cualquiera sea la muestra de ítems escogida. Este fenómeno
se denomina <intercambiabilidad de los índices >

Cohen, Gomez Rojas: Las tipologías y sus aportes a las teorías y la producción de datos
- Las tipologías son un puente, una conexión, entre la teoría, los conceptos y los datos.
Ordenan el corpus teórico a la vez que otorgan coherencia analítica a la compleja y a veces

101 de 107
caótica realidad con la trabaja el científico social. Este recurso metodológico tiene raíz en el
tiempo, ha sido utilizado por ejemplo por Durkheim y Weber.

- La tipología orienta la investigación hacia la producción de teoría, comparando lo que


ocurre empíricamente con la construcción heurística.

- Cohen resalta dos cuestiones implicadas en la utilización de tipologías: 1) la centralidad de la


teoría y 2) cómo el dato resulta de un proceso productivo que involucra tres instancias: la
conceptual, la metodológica y la empírica.

- Las tipologías permiten ordenar una porción de la realidad a partir de la combinación de las
categorías de los indicadores. Se trata por lo tanto de un orden teóricamente guiado (dado que
las variables, categorías e indicadores son construcciones teóricas).

Existen dos tipos de tipologías:


1) Tipología de tipo empírico/ teórico

- Cohen ejemplifica es tipo de tipología con el trabajo de Eric Wright. El cual parte de la
variable: posiciones de clase en la sociedad capitalista, luego la operacionaliza buscando sus
indicadores y estable un sistema dicotómico de categorías para cada uno. De esta manera arma un
espacio de propiedades (tipología), un cuadro, en el cual se combinan las dos categorías de los
dos indicadores. Queda conformada una tipología de cuatro tipos (ya que partió de de dos
indicadores dicotómicos).

- Cada uno de los tipos (en este caso son cuatro) representa una categoría de la variable
original: “posiciones de clase en la sociedad capitalista”.

- Wright agrega luego tres indicadores nuevos (dicotómicos), estableciendo así una tipología
de doce tipos.

- “Wright recorre las tres instancias que nos referíamos como intrínsecas a la producción del
dato: la conceptual- partiendo de la noción de explotación-, la metodológica- optando
estratégicamente por la tipología como recurso- y la empírica- obteniendo los registros de la
realidad en la que se involucra- “ (pág. 54)

- La tipología construida por Wright tiene un carácter gradacional, ya que pretendo no sólo
tipificar situaciones extremas, si no también intermedias.

- La tipología al permitir hacer combinaciones entre las categorías, permite hacer un trabajo
más analítico, es decir de mayor riqueza teórica, para así ir armando tipos empíricos (que existen
como tales).

2) Tipología de tipo teórico/ ideal

- Cohen ejemplifica es tipo de tipología con el trabajo de Bauman, quien recurre a la


construcción de tipos ideales para describir el fenómeno del consumo en las sociedades actuales.
Bauman hace uso de los tipos ideales en tanto aportan un ordenamiento teórico, los utiliza para
ordenar la teoría más allá de la producción de datos.

102 de 107
- “Los tipos no reproducen la realidad, para Bauman lo caótico de la realidad es irreproducible,
sino que facilitan el trabajo interpretativo del investigador y contribuyen a la producción de
teoría” (pág. 54)

- La tipología elaborada por Bauman está emparentada con cierta tradición en las Ciencias
Sociales de tipificar entidades de manera antagónica, es decir que tiene un carácter polar.

Ambas tipologías tienen en común una cosa: hay una decisión de llegar al dato desde el
concepto, en ambos tipos las referencias teóricas son las que dan sustento a las tipologías
elaboradas.
Cohen, Gomez Rojas: Un enfoque metodológico para el abordaje de escalas aditivas
¿Por qué construir una escala?
- Se busca un instrumento como la escala, que pueda ordenar las unidades de análisis, que
establezca diferencias y jerarquías entre ellas, cuando se necesita registrar grados de acuerdo y
desacuerdo respecto de determinados juicios de valor acerca del fenómeno que se estudia. Se
recurre a la construcción de escalas cuando se tiene como objetivo la medición de actitudes.

- La escala de actitudes permite ordenar las unidades de análisis según las variaciones
predisposicionales, constituyéndose este procedimiento en el principal objetivo de un
investigador cuando recurre al uso de esta técnica. Hay que tener en cuenta que no se están
midiendo opiniones ni relatos sobre una experiencia, sino aquellos componentes latentes que para
hacerse manifiestos, no dependen sólo de la voluntad del individuo, sino que es necesario apelar a
un recurso metodológico que los haga visibles.

- El proceso de construcción de una escala de actitudes, no es otra cosa que el de una variable
compleja tanto teóricamente como en cuanto a su abordaje empírico. En el mismo se reconocen
tres etapas:

1) Elaborativa: en ésta se procede a la organización proposicional, es una etapa formula como


hipótesis

2) Constructiva: en la que se pone a prueba empíricamente el resultado de la etapa anterior por


medio del trabajo de campo y el posterior control de confiablidad y validez estadística. Se llega
así al universo definitivo de proposiciones.

3) De aplicación: se hace uso de la escala como instrumento de medición: la variable ha


quedado construida y formará parte del sistema de variables, de las relaciones entre ellas, tal
como el investigador lo haya decidido teóricamente.

- En la medida en que una escala de actitudes mide disposiciones –lo que predispone a- las
proposiciones deben expresar juicios de valor antes que juicios de hechos. Para esto Cohen señala
(poniendo como ejemplo su investigación sobre los panes de viviendas) que el mejor camino para
construir juicios o sentencias valorativas, es indagar en el discurso de quienes deberían evaluar
tales juicios, privilegiando el discurso del actor social que se estudia y no el del investigador. Para
acceder al mismo se pueden realizar “entrevistas grupales”.

1- El PROCEDIMIENTO de realización de escalas

103 de 107
- Elección del escalograma: la cantidad de alternativas que puede ser planteada a los
entrevistados para responder a las proposiciones puede variar entre una e infinitas. Lo ideal es
que no sean demasiadas, como para que el entrevistado pueda discernir entre unas y otras, pero
tampoco que se trate de una opción dicotómica, ya que se correría el riesgo de agrupar en una
misma alternativa actitudes distintas.

- Nivel diferenciador de las proposiciones: las proposiciones deben tener un alto nivel
diferenciador, ya que si no se corre el riesgo de homologar respuestas que devienen de actitudes
diferentes. Esto ocurre cuando la propuesta del enunciado es de tal naturaleza que conduce a
inexorablemente a responder de un solo modo.

- Evaluación semántica de las proposiciones: es importante emplear un lenguaje de uso


cotidiano para la población estudiada (que no siempre es el cotidiano para el investigador), para
esto es muy útil la etapa exploratoria inicial. El significado unívoco de las proposiciones es otra
condición relevante para la construcción de escalas.

- El concepto de equilibrio en la construcción de escalas: en cuanto a la orientación de las


proposiciones, se recomienda formular proposiciones de manera tal que se equilibren las
expresiones favorables con las desfavorables. Al mismo tiempo se recomienda contemplar
proposiciones con diferente intensidad (nivel de afirmación o negación), para detectar las
actitudes extremas pero también las moderadas.

- Reiteración conceptual: hay que controlar la posibilidad de que haya en la escala


expresiones diferentes que signifiquen lo mismo, dado que si no se le estaría otorgando un peso
diferencial a una determinada proposición, sin haberlo decidido teóricamente.

2- HACIA LAS ESCALAS DEFINITIVAS

- La etapa constructiva –última en la elaboración de las escalas y previa a la aplicación de las


mismas- se inicia cuando el investigador ya habiendo decidido cuáles son los ítems que
teóricamente supone apropiados a lo que pretende medir, debe someterlos a contrastación
empírica.

- El procesamiento de la información y su análisis se atraviesan entre sí, configurando una


instancia, cuyo objetivo es definir uno o más conjuntos de proposiciones (factores), que como
tales se deriven conceptualmente de la variable de origen y que mantengan un adecuado
equilibrio entre las relaciones formales (estadísticas) y teóricas de los ítems involucrados en cada
factor. (pág. 74 del cuadernillo)-

Padua: Técnicas de investigación aplicadas a las ciencias sociales


- Se dice que existe escala cuando a partir de una distribución de frecuencias multivariada de
un universo de atributos, es posible derivar una variable cuantitativa con la cual caracterizar los
objetos de un modo tal que cada atributo sea una función simple de aquella variable cuantitativa.

- Una escala es una forma particular de índice, construir una escala implica una seria de
procedimientos mediante los cuales se selecciona ítems y se adjudican números a un conjunto de
ítems (juicios o sentencias), número que va a expresar la intensidad que un sujeto o grupo de
sujetos manifiestan en la variable.

104 de 107
- Las actitudes en el contexto individual representan un estado mental que es un puente entre
estados psicológicos y objetos exteriores. Las actitudes serían entonces procesos claves para
entender las tendencias del individuo en relación con objetos y valores del mundo externo; la
tendencia individual a reaccionar positiva o negativamente a un valor social dado.

- Existe una serie de conceptos relacionados con las actitudes, como por ejemplo: la creencia,
el sesgo, la doctrina, la fe, la ideología, el valor y la opinión (pág. 87)

Algunas propiedades de las actitudes que tienen que ver con los problemas asociados a la
medición de las mismas a través de escalas:
Dirección, intensidad, estabilidad, fortaleza, importancia, visibilidad, relevancia interna,
involucramiento del ego, integración y aislamiento, especificidad o precisión y verificabilidad
- Muchas de las propiedades de las actitudes están correlacionadas. Alta intensidad
frecuentemente significa: estabilidad, fortaleza, alta relevancia externa e interna y alto grado de
ego.

La escala de Likert (nivel de medición ordinal)


- Es un tipo de escala aditiva que corresponde a un nivel de medición ordinal, consistente en
una serie de ítems o juicios ante los cuales se solicita la reacción del sujeto. El estímulo (ítem)
que se presenta al sujeto, representa la propiedad que el investigador está interesado en medir, y
las respuestas son solicitadas en términos de grados de acuerdo y desacuerdo que el sujeto tenga
con la sentencia.

- Pág. 89 (comparación dos tipos de escala- leer-)

- El sujeto en la escala de Likert a través de su conducta se sitúa a lo largo de la variable. Es un


tipo de escala centrada en el sujeto: el supuesto subyacente es que la variación en las respuestas
será debida a diferencias individuales entre los sujetos.

Construcción de una escala de Likert, implica los siguientes pasos:


1- Es necesario construir una serie de ítems relevantes a la actitud que se quiere medir

2- Los ítems deben ser administrados a una muestra de sujetos que van a actuar como jueces:
Los jueces deben ser seleccionados al azar, de una población de características similares a
aquella en la cual queremos aplicar la escala final

3- Se asignan puntajes a los ítems según la dirección positiva o negativa del ítem: con este
paso comienza efectivamente el análisis de la escala. Hay que clasificar a cada ítem según
sea positivo o negativo y luego ponderar las alternativas de respuesta. las escala mide a
nivel ordinal y los valores de escala simplemente implican posiciones de rango

4- Se asignan los puntajes totales a los sujetos de a acuerdo al tipo de respuesta en cada ítem
(la suma es algebraica): este paso consiste simplemente en la adjudicación de los puntajes
totales para cada individuo en la muestra de jueces. Esta suma resultara de la división de
los puntajes ponderados para cada ítem.

5- Se efectúa un análisis de ítems: una vez computados los puntajes totales para todos los
jueces, hay que ordenarlos de manera que el sujeto con el puntaje total más alto ocupe el
primer lugar, el segundo puntaje más elevado a continuación, etc. Hasta llegar a la

105 de 107
persona con el puntaje más bajo. Una vez ordenados los sujetos, vamos a operar
únicamente con los cuartiles (25%) superiores e inferiores. Del 50% del centro no nos
vamos a preocupar más. Formamos de esta manera un grupo alto y un grupo alto con
respecto a la variable y a los puntajes totales. Se procede a seleccionar los ítems que
discriminen mejor.

6- Se construye con base en los ítems seleccionados la escala final: la cantidad de ítems
seleccionados de acuerdo a su poder discriminativo, constituirá la escala final a ser
aplicada a sujetos o grupos como versión final. Los puntajes finales a adjudicar a los
individuos serán entonces el producto de la suma de los puntajes obtenidos en cada ítems,
divididos entre el total de ítems.

Ventajas y desventajas de escala de Likert comparada con la Thurston:


Ventajas
- Permite la utilización de ítems que no se encuentran relacionados en forma manifiesta con
la actitud que se desea estudiar (es decir, se pueden utilizar ítems con contenido latente).

- Es más rápida y fácil de construir

- A mismo número de ítems es más confiable

- La cantidad de alternativas de respuesta permite una información más precisa de un sujeto


en un ítem particular

Desventajas
- Por tratarse de una escala ordinal, no permite apreciar la distancia que hay entre pares de
sujetos con respecto a la actitud.

- Con frecuencia dos puntajes iguales pueden ocultar pautas de respuesta diferentes de los
individuos.

- No hay garantía de unidimensionalidad, pueden mezclarse distintas dimensiones, no


estando seguro el investigador de cuál de ellas realmente se trata.

106 de 107
107 de 107

Вам также может понравиться