Вы находитесь на странице: 1из 76

Trabajo final de

máster
El tema y la pregunta de investigación.
Recursos y cuestiones metodológicas de
la investigación

Albert Padró-Solanet
© FUOC PID_00228045

Índice

Índice 2
Introducción 3
¿Cuáles son los compromisos del estudiante de TFM? 5
1. Plan y mecánica general de la asignatura: las entregas parciales obligatorias no
evaluables 8
Los contenidos de las entregas parciales obligatorias no evaluables 8
2. La selección del tema de investigación y la formulación de la pregunta de
investigación 12
La importancia sustantiva y la importancia teórica del tema 12
¿Cuál es la importancia de la motivación personal? 16
El papel de la motivación personal en el informe de la investigación 19
Limitaciones en la selección del tema de investigación 20
3. El planteamiento del problema y la pregunta de investigación 22
La pregunta de investigación 23
4. Estrategias para la búsqueda de información 26
5. La metodología de la investigación 31
La investigación anterior como guía para los métodos de investigación 31
La conveniencia para el estudiante de TFM de conocer los debates sobre los métodos 32
Los desacuerdos fundamentales de la metodología social y política 33
Desacuerdos ontológicos y epistemológicos 34
Los elementos básicos del método estadístico 37
La estadística y el tratamiento del error de medida 37
La estadística como modelo de la complejidad 38
La inferencia estadística y las unidades de análisis 39
La medición de los conceptos: variables, indicadores e índices 41
¿Existe una convergencia entre los métodos cuantitativos y cualitativos? 45
El pluralismo metodológico: los objetivos comunes en las dos tradiciones 47
Las diferencias entre el análisis cuantitativo y el cualitativo 53
Los métodos cualitativos desde la corriente principal (mainstream) de la ciencia política
60
Apéndice I: Preparación y supervisión de una tesis en ciencias sociales 65
La preparación y supervisión de una tesis de investigación en ciencias sociales 65
1. El encaje entre el estudiante y el supervisor (director) 65
2. Preparación de un proyecto de investigación 65
3. Investigación y desarrollo del esquema 66
4. La escritura de la tesis 67
Conclusión 68
Apéndice II: La importancia de la estupidez en la investigación científica 69
Apéndice III: Pistas útiles para escribir tesis en política comparada 71
Bibliografía 73

2
© FUOC PID_00228045

Introducción

El objetivo de la asignatura Trabajo final de máster (TFM) es que el estudiante sea


capaz de llevar a cabo una investigación básica o aplicada original de forma
independiente.

Un trabajo de investigación es un informe que presenta y justifica una tesis, una opinión
o una propuesta que hace el autor respecto de un determinado tema científico. Se trata
sobre todo de un ejercicio retórico que pretende convencer a los lectores de que el
argumento expuesto por el autor es válido o merece ser tenido en cuenta. Pero, al
hacerlo, tiene que adoptar o partir de los criterios que se utilizan en un campo científico
específico. Es un ejercicio creativo, en el que el autor ha de demostrar suficiente
inventiva para decidir cuáles son los hechos que usará para apoyar su argumento. Y lo
tendrá que hacer teniendo en cuenta lo que ya se ha estudiado anteriormente en el
campo que quiera investigar.

Es importante reconocer que lo fundamental de un trabajo de investigación es hacer


algún tipo de propuesta o interpretación de algún tema. Una investigación no es hacer
una simple recogida y empaquetamiento de hechos relacionados con un tema. Tampoco
es el resumen de la información que proporcionan una o más fuentes, ni redactar un
informe de lo que han dicho otros sobre un tema. Muchas veces en las asignaturas de
secundaria y de grado se pueden haber planteado ejercicios que pedían este tipo de
resultado, pero se ha tener claro que este no es el tipo de investigación admisible en el
TFM.

Toda investigación consiste en desarrollar un argumento. Cualquier investigación


empírica, cuantitativa o cualitativa, introduce de forma sistemática evidencias empíricas
junto al argumento que presenta para responder a las preguntas, probar las hipótesis o
construir una teoría que explique o que permita la comprensión de un fenómeno social o
político. Tal como dice Punch (1998), la investigación puede ser entendida como la
realización de un conjunto de elecciones para formular unas preguntas e intentar darles
respuesta. El informe de investigación es precisamente la justificación de estas
elecciones. El investigador tiene que explicar qué elecciones ha hecho en cada momento
y por qué.

Esto implica que no todas las investigaciones tienen que ser iguales; no hay una única
forma de hacerlas. Esta indeterminación de la investigación, la necesidad de decidir y la
incertidumbre en los resultados que se obtendrán, explica que toda investigación ha de
ser inevitablemente original. También explica que hacer investigación normalmente
comporte una tensión emocional, tanto en investigadores experimentados como, sobre
todo, en los investigadores noveles.

Si al presentar la investigación se tiene en cuenta, en todo momento y de forma


coherente, este punto de vista, se explican y se justifican las decisiones tomadas, la
investigación parecerá esmerada, bien planteada, bien ejecutada y bien explicada.

No se espera que el TFM consista necesariamente en una investigación empírica, en la


que los resultados obtenidos sean generalizables. Los TFM profesionales consistirán
normalmente en investigaciones empíricas orientadas a resolver un problema particular

3
© FUOC PID_00228045

o a explicar un caso a base de aplicar los conocimientos teóricos existentes, es decir,


consistirán en una investigación aplicada.

Por otro lado, tampoco se supone que el TFM se tenga que desarrollar siguiendo una
determinada metodología. Puede variar y combinarse de acuerdo con las características
del tema o cuestión que se quiere estudiar. Se puede basar en encuestas, en estudios de
caso o en estudios de documentos de texto.

A menudo, en las notas de introducción sobre el tipo de trabajo de final de grado o de


programas de posgrado, se pone énfasis en que se tiene que tender más a un trabajo
explicativo (causal o contrafactual) que simplemente a uno descriptivo. Pero esta
cuestión es producto de una comprensión superficial de las verdaderas implicaciones de
una buena descripción. Las investigaciones explicativas exploran o quieren comprobar
cuáles son las razones o las causas de nuestros fenómenos de interés. Inevitablemente
están vinculadas a la teoría, pero no menos que en un análisis descriptivo de calidad,
donde el esfuerzo se encuentra en la operacionalización de los conceptos teóricos
(convertirlos en indicadores observables y medibles de los fenómenos) y en la
descripción de los indicadores que se obtienen, de sus características y de sus
implicaciones para la teoría de los fenómenos políticos sociales que queremos estudiar.
Toda buena investigación descriptiva parte de la teoría, del mismo modo que lo hace la
investigación explicativa. La teoría (la explicación de los fenómenos) nos dice qué
tenemos que observar y tiene alguna expectativa de cómo tienen que ser estos
fenómenos. Ver cómo son estos fenómenos puede hacer variar y mejorar nuestras
explicaciones teóricas. Por otro lado, toda buena teoría parte de una (no es posible sin
ella) buena descripción de los hechos o fenómenos que quieren ser explicados.

Establecer cuál es la realidad de ciertos fenómenos, ser capaces de describirlos, es en sí


mismo un trabajo duro en cualquier campo científico. Solo si tenemos una cierta
acumulación de descripciones válidas de los fenómenos podremos proponer
explicaciones a cerca de estos (es decir, establecer relaciones causales). Por ejemplo, el
estudio descriptivo de las dimensiones espaciales ideológico-políticas donde se sitúan
los partidos políticos no es precisamente un esfuerzo pequeño; parte de planteamientos
teóricos y tiene implicaciones teóricas. Sirve para probar una gran variedad de teorías,
por ejemplo, sobre la forma en que compiten los partidos en las elecciones, cómo se
forman las coaliciones de gobierno, o si los gobiernos cumplen las promesas
electorales... De hecho, uno de los mayores proyectos interuniversitarios europeos en
ciencia política –el estudio de los party manifestos inciado por Laver y Budge, y que ha
tenido diferentes ramificaciones– se centra precisamente a responder a la pregunta sobre
las posiciones de los partidos políticos en las dimensiones político-ideológicas. Del
mismo modo, un estudio sobre la medida de la corrupción política a nivel local puede
ser muy relevante para, más adelante, poder llevar a cabo estudios sobre las
implicaciones políticas y sociales de la corrupción. En las ciencias naturales, una de las
tareas que requiere más esfuerzo es crear instrumentos de medida que permitan medir
los fenómenos previstos por las teorías y someterlos a pruebas. Por ejemplo,
instrumentos tan costosos como el telescopio Hubble o el sincrotrón de protones del
CERN permiten medir fenómenos que pueden ser cruciales para confirmar las teorías
existentes o falsificarlas, y hacerlas cambiar.

Así pues, la investigación descriptiva no es inevitablemente una investigación de


segundo orden o de poco recorrido: en función del estado de desarrollo de un campo de

4
© FUOC PID_00228045

estudio, puede ser crucial en el avance de la ciencia. Depende de los razonamientos


teóricos que explican los fenómenos y es determinante en la tarea que permitirá
comprobarlos. No se trata solo de resumir datos de forma ateorética (ver las distinciones
que hacen King y Powell, 2008, pág. 5).

La distinción principal se
Objetivos de la
investigación encuentra en los dos polos, entre
empírica
empírico y teórico, entre los que
cualquier trabajo tiene que
Resumen de
Inferencia
datos moverse. Lo que caracteriza a
cualquier empresa científica es la
conexión y el diálogo entre la
Inferencia
Inferencia
descriptiva
explicativa
(contrafactual)
observación empírica y el
desarrollo teórico.
Preguntas "¿Y Inferencias
Predicción
sí?" (what if) Cuando el estudiante de máster
causales
elabora el TFM, tanto en su
vertiente de investigación como
Figura 1 profesionalizadora, se espera que
Fuente: adaptado de King y Powell (2008, pág. 6).
mejore su capacidad para editar y
ajustar sus propios trabajos. El TFM requiere poner en práctica todas las competencias
adquiridas durante el estudio de la maestría: esencialmente, el análisis de situaciones
complejas y la capacidad para asesorar en la toma de decisiones relacionadas con la
política y las políticas. No obstante, la prioridad del TFM es adquirir la capacidad de
escribir de forma directa, simple y, por tanto, eficaz. El desarrollo de esta competencia
debe servir para realizar ensayos, editoriales de diarios, artículos de investigación o
estudios de asesoramiento para organizaciones o instituciones, y generalmente
incrementa la probabilidad de que nuestros escritos sean leídos con atención por gente
desconocida.

¿Cuáles son los compromisos del estudiante de TFM?

En términos de créditos, el TFM equivale a un par de asignaturas del máster. Pero a


diferencia otras asignaturas, implica un trabajo individual coordinado con el tutor o
director de investigación. Implica responsabilidad. Un cambio clave de actitud respecto
a lo que es típico en estudio de otras asignaturas.

El equipo de gestión de la asignatura de TFM se compromete a buscar un director de


investigación cercano a las preferencias e intereses expresados por los estudiantes. Este
es un aspecto clave del funcionamiento del TFM y tiene que ser tratado detenidamente
para evitar malentendidos.

Parte de la responsabilidad del estudiante que tiene que llevar a cabo el TFM es trabajar
conjuntamente con su director de investigación para sacarla adelante. La realización de
un trabajo de investigación es más que simplemente elaborar un documento. Se tendría
que convertir en una aventura intelectual, y esta puede ser bastante gratificante cuando
se comparte con alguien que tiene unos intereses cercanos a los nuestros. El director de

5
© FUOC PID_00228045

investigación tiene que facilitar que el estudiante viva esta experiencia; pero, para
poderle ayudar tiene que tener un contacto frecuente y fluido con él. La peor conducta
que puede mostrar el estudiante es desaparecer y presentarse únicamente cuando crea
que se encuentra suficientemente preparado. El estudiante se tiene que comprometer a
mantener una relación constante con el director de investigación durante la elaboración
del TFM.

En el planteamiento y realización de los trabajos de investigación resulta muy útil


explicar lo que estamos haciendo a gente con la que tenemos contacto, compañeros de
estudios, vecinos o familiares, y que no conocen el tema que estamos estudiando. Dar
explicaciones es un ejercicio muy útil porque nos fuerza a hacer explícito y precisar en
pocas frases lo que queremos estudiar y de qué manera vamos a hacerlo. Este ejercicio
nos ayuda a formular de forma clara y concisa la orientación de nuestra investigación en
muy poco tiempo (cómo veremos más adelante, son la base de la formulación de la
pregunta de la investigación).

Si esto resulta útil, aún puede serlo mucho más comentar nuestras preocupaciones,
intereses y lagunas de conocimiento al director de investigación, dado que se trata de
alguien especializado en el área en la que hemos decidido centrar nuestra investigación
y, por tanto, nos puede orientar hacia temas y tratamientos que sean interesantes y
viables. Ya ha “visitado” el área de conocimiento en la que queremos centrar nuestro
estudio y conoce cuáles son los temas que han atraído la atención de los especialistas y
qué limitaciones presenta la investigación. Además, sabe también cuáles son las
restricciones temporales y las capacidades y conocimientos del estudiante.

Por otro lado, es conveniente que el estudiante sea consciente de que el director de
investigación está genuinamente interesado en que el estudiante avance en su trabajo. El
interés prioritario no es evaluar al estudiante (cómo es frecuente que suceda en las
asignaturas normales), sino en hacerlo crecer intelectualmente. La investigación que
dirige le ayuda a ser todavía más especialista en un tema, a tener un impacto al orientar
las preguntes que se formulan y que tiene curiosidad al responder. El estudiante y el
director de investigación comparten intereses comunes. Per tanto, la mejor estrategia del
estudiante es confiar, tratar de ser lo más transparente en sus limitaciones y con las
dificultades que encuentre. De hecho, la mejor manera de entender la pareja director de
investigación / estudiante es que forman un equipo, en el que una mayor circulación de
información hace más probable que se elabore un mejor trabajo.

Es imprescindible que el estudiante mantenga una relación regular con el director de


investigación. Habría que explorar la posibilidad de realizar encuentros presenciales,
pues estos son muy útiles para aclarar incertidumbres y malentendidos en la elaboración
de la investigación y de los TFM que pueden conducir a bloqueos. Si los encuentros
presenciales no son posibles, los nuevos medios de comunicación síncronos (como
Skype u otros medios on-line gratuitos que permiten simultáneamente la elaboración de
un documento compartido, el chat y la comunicación oral y visual; un ejemplo de ello
es la herramienta de conferencias Webex). Naturalmente, la utilización de estos
instrumentos no es obligatoria y se deberían usar únicamente para resolver los bloqueos
puntuales en una comunicación forzosamente compleja, como es la que se plantean en
la dirección y realización de un trabajo de investigación.

6
© FUOC PID_00228045

Hacer una asignatura como TFM es difícil porque tanto la dinámica de la asignatura
como la actitud necesaria del estudiante son bastante diferentes a las actitudes y los
incentivos de las asignaturas “normales” cursadas en el máster. Estas últimas consisten
en asimilar una serie de contenidos a través de actividades de evaluación bastante
medidas y pautadas. Todo se mueve en un mundo de certezas donde la actitud del
estudiante puede ser meramente reactiva ante los estímulos que va recibiendo por parte
del profesor a lo largo del curso. Los incentivos son de tal manera que se recompensa la
asimilación no crítica de los contenidos de las asignaturas.

En cambio, el objetivo del TFM es realizar una investigación original. Esto quiere
decir que se tendrá que encontrar un tema de investigación, acotarlo y diseñar una
estrategia de estudio viable que nos permita, finalmente, llevar a cabo una investigación
científica empírica. Es decir, la cantidad de alternativas de acción son inmensas, la
incertidumbre es muy grande y, por lo tanto, es inevitable que aquellas personas que no
se hayan embarcado antes en una investigación puedan experimentar tensión y parálisis.
De hecho, incluso las personas que están avezadas a la investigación experimentan en
cierta medida esta presión ante unos resultados inciertos. Esta situación también explica
por qué es tan frecuente que se produzcan episodios conflictivos entre los directores de
investigación y los estudiantes investigadores (sobre esta cuestión, ver el Apéndice II de
estos materiales: “La importancia de la estupidez en la investigación”).

Así pues, una vez más, la mejor manera de enfrentarse a esta situación es, precisamente,
siguiendo los consejos de una persona que ya la ha experimentado previamente. Por eso
es importante que, después de haber encontrado un tema más o menos general o un área
sobre la que nos interesa realizar la investigación, se disponga del consejo de alguien
con experiencia y con conocimiento especializado en el tema que hemos elegido, que
nos permita mitigar parte de estas incertidumbres y avanzar en la investigación desde el
mismo momento de la definición del tema.

El director de investigación puede ofrecer al estudiante un acceso más centrado, fácil y


rápido a la literatura relevante sobre el tema en cuestión. También puede aportar
ejemplos de investigaciones cercanas o conectadas a la que quiere emprender el
estudiante y que puedan servir de “modelo”, ya sea por el tema o por la metodología
empleados. Como el abanico de temas y de metodologías que pueden ser empleados en
estas asignaturas es inmenso, es mucho mejor que sea el mismo director quien los
ofrezca al estudiante.

Es normal que el trabajo de investigación atraviese fases de más o menos intensidad de


trabajo, que hacen más fácil los encuentros que en otros momentos. Por eso se puede
entender que no haya un calendario prefijado o que este se adapte a las necesidades
tanto del estudiante como del director de investigación. Pero es conveniente desarrollar
una rutina de comunicación entre ambos que garantice que los dos se encuentran en el
mismo punto en el desarrollo del TFM. La mecánica de la asignatura en entregas
parciales obligatorias no evaluables sirven para este objetivo.

7
© FUOC PID_00228045

1. Plan y mecánica general de la asignatura: las entregas


parciales obligatorias no evaluables
El proceso de elaboración del TFM se estructura con unas entregas parciales
obligatorias no evaluables para poder superar la asignatura. El cumplimiento de las
entregas parciales es estricto. Resulta difícil hacer excepciones en estas entregas y los
directores de investigación poco tienen que añadir en relación con esta cuestión.

Una vez aclarado esto, hay que tener presente que, en realidad, las entregas parciales
son funcionales. Están pensadas para minimizar los típicos bloqueos que aparecen en la
elaboración de los trabajos de investigación (el miedo a la página en blanco). Además,
el cumplimiento es simple, puesto que no se pide que las entregas parciales satisfagan
un requerimiento mínimo de calidad o que estén perfectamente acabadas. Por ese
motivo no son evaluables. Lo importante es la entrega en los plazos establecidos.

Los contenidos de estas entregas parciales siguen generalmente las fases típicas del
proceso de elaboración de un trabajo de investigación y sus partes constitutivas.

Aunque el proceso real de elaboración de la investigación acostumbra a ser


desordenado, incluso caótico, y es normal saltar de forma no lineal entre las diferentes
fases de la investigación, es conveniente que exista un camino claro, con unos hitos
marcados, que permita que los esfuerzos que se están llevando a cabo para hacer la
investigación se materialicen en unos “prototipos” de las diferentes piezas de texto que
tendrán que formar parte del informe final de la investigación. Disponer de estas piezas,
a pesar de que sean provisionales y en evolución, permitirá que se pueda avanzar de
forma más efectiva en la investigación. Resulta obvio que, pese a que no exista la
obligación de lograr un determinado grado de desarrollo en las entregas parciales, el
mismo estudiante ha de estar interesado en que estas sean lo mejor y más completas
posible, puesto que cuanto más se cumpla este requisito, mejor calidad tendrá el informe
final.

Los contenidos de las entregas parciales obligatorias no evaluables

En la primera entrega se ha de definir cuál es la pregunta o problemática que quiere


resolver la investigación. La pregunta de investigación es como la brújula que nos tiene
que orientar durante toda la elaboración de la investigación. Por tanto, desde el primer
momento es necesario disponer de una elaboración mínima, aunque sea provisional, de
la pregunta de investigación. Esta tiene un significado técnico en el contexto de la
elaboración de la investigación: enuncia qué quiero estudiar en forma de pregunta (¿por
qué?, ¿cómo?, preguntas causales o de mecanismos causales) seguida de la forma en
que se piensa comprobar si esta pregunta es cierta o no (más adelante; lectura de Blaxter
y cols., 2005).

La segunda entrega parcial consiste en la elaboración del bloque de los antecedentes


en la investigación sobre el tema que queremos estudiar. Una parte central de cualquier
trabajo científico es realizar una reseña de la investigación que se ha realizado
relacionada con nuestra pregunta de investigación (la “revisión de la literatura” si
usamos la denominación anglosajona). La investigación científica se caracteriza por el
hecho de ser acumulable y discutible. Todo trabajo científico tendría que mostrar al

8
© FUOC PID_00228045

lector de qué manera se encaja la investigación llevada a cabo en el conjunto de los


hallazgos obtenidos previamente por la comunidad científica en su campo. ¿En qué se
asemeja y en qué difiere de la investigación hecha anteriormente? ¿Ha cambiado el
método? ¿Y el conjunto de casos estudiados? ¿Qué intentan añadir los nuevos hallazgos
a los anteriores? ¿Qué parte pone en entredicho? ¿Por qué razones? Responder a estas
preguntas implica determinar las cuestiones teóricas esenciales de nuestra
investigación: ¿cuál es la explicación que proponemos del fenómeno que estudiamos?,
¿qué hipótesis queremos contrastar empíricamente?

El estudio de la investigación relacionada es la guía fundamental que ha de tenerse


presente en la formulación y diseño de nuestra investigación. Hay que leer, en la medida
de lo posible, todo lo relacionado con nuestra investigación y organizar dicha lectura. A
partir de estas lecturas obtendremos información sobre las preguntas de investigación
que se han hecho previamente y las posibles lagunas, las diferentes explicaciones
teóricas que se han propuesto a las preguntas y de qué manera (qué métodos, diseños y
técnicas de investigación) se han usado para comprobarlas. Esta investigación previa
nos dará pistas sobre dónde encontrar fuentes de datos secundarias que pueden ser útiles
para resolver nuestra investigación (por ejemplo, páginas web de centros de
investigación o de administraciones donde hay encuestas o datos de registros en
diferentes niveles de agregación, estados, regiones o municipios).

Esto quiere decir que tenemos que utilizar todas las herramientas a nuestro alcance para
hacer un batida suficiente de la investigación conectada con la nuestra, para garantizar
que no nos hemos perdido una referencia clave o que, por ejemplo, existe alguna obra
que nos habría podido ahorrar mucho tiempo en el tratamiento o la operacionalización
de nuestras variables.

La tercera entrega parcial consiste en la presentación de los datos recogidos, del


método elegido para contrastar las hipótesis, las técnicas concretas que se han usado y
los resultados obtenidos. Un punto crucial en la elaboración de un trabajo de
investigación consiste en la forma en que se han mesurado las variables que aparecen en
las hipótesis que se han formulado para comprobar la teoría y que operacionalizan los
conceptos teóricos. La validez interna de la investigación depende, en parte, de la
validez y fiabilidad de las medidas que hemos hecho de nuestras variables. Se tienen
que explicar las características de las medidas, hasta qué punto podemos creer en ellas y
cuáles son los puntos débiles que pueden afectarlas. La validez interna de la
investigación también requiere utilizar las técnicas apropiadas para comprobar las
hipótesis, tanto si son descriptivas como explicativas. La elección de las técnicas de
análisis depende del nivel de medida de las variables que estamos utilizando (por
ejemplo, si la variable independiente o explicativa es cualitativa nominal y la variable
dependiente es cuantitativa de intervalo, la técnica más simple que se puede usar es la
comparación de medias). La gran variedad de técnicas de análisis concretas se han
desarrollado en parte para adaptarse a los diferentes niveles de medida de las variables.
La otra razón es el tipo de relación que se supone que existe entre las variables (el
modelo de relación entre las variables).

Las instrucciones sobre el contenido de la tercera entrega se hacen desde el punto de


vista del enfoque cuantitativo, porque los elementos que la componen son más claros.
El planteamiento típico hipotético-deductivo de los estudios cuantitativos supone que el
campo en el que queremos hacer el estudio ya está maduro: existe un desarrollo

9
© FUOC PID_00228045

razonablemente amplio de la teoría, las explicaciones de los fenómenos de interés están


relativamente bien establecidos. Como mínimo, existe un cierto número de trabajos
anteriores que tratan el tema y que tienen e reconocimiento de la comunidad científica.
Además, se conoce dónde y cómo se tienen que medir estos fenómenos: cuáles son las
unidades de análisis que se tienen que considerar (personas individuales, agregados
como países o vecindarios) y existen esfuerzos antecedentes de cómo podemos medir
estos fenómenos.

En las investigaciones cualitativas, en cambio, todas estas cuestiones son


problemáticas. Las explicaciones de los fenómenos todavía se tienen que desarrollar.
Queremos identificar cuáles son las variables clave en el hecho de que, por ejemplo, un
país haya declarado la guerra o un partido haya cambiado sus estatutos. Tampoco
disponemos de operacionalizaciones establecidas de las variables o de los conceptos y
estas no se han recogido sistemáticamente por parte de registros oficiales, organismos
internacionales o instituciones de estudios de opinión. Pero en la investigación
cualitativa se lleva a cabo un proceso de elección de las unidades de análisis o casos, de
elección de las pistas relevantes para explicar el fenómeno de interés, que son cruciales
en los resultados de la investigación. Por eso es tan importante exponer, documentar y
argumentar de forma convincente la elección de casos y de las variables que se tienen
en cuenta. Cuanto mejor se haga esta parte, mejor será la comprensión y valoración del
trabajo por parte de la audiencia. De hecho, la elección de casos y variables determina
en grande medida los resultados que se obtendrán en el análisis.

La cuarta entrega consiste en la edición de la investigación en un único documento


que tenga las características formales de un artículo académico (en el caso de los TFM
de investigación) o de un informe de evaluación o de recomendaciones en relación con
una política pública o de una organización o institución (en el caso del TFM
profesional). Las primeras partes del informe de investigación ya fueron revisadas en
una versión preliminar en las primeras entregas parciales y su contenido solo se tendrá
que ajustar a los hallazgos que finalmente se hayan logrado en la investigación. Las
partes completamente nuevas del informe, y por tanto no revisadas en las entregas
anteriores, corresponden al comentario de los hallazgos obtenidos, la discusión de los
resultados en relación con las preguntas de investigación planteadas a comienzos del
TFM y las conclusiones. El trabajo de edición consiste en hacer que todas las piezas de
la obra discurran como un argumento lógico en el que cada parte que se aporta tiene que
responder a las necesidades detectadas en la anterior. El interés del tema elegido pide
una pregunta de investigación enmarcada en la investigación anterior. Esta última
indicará cuál es el diseño de la investigación adecuado para responder a la pregunta de
investigación, las unidades de análisis y las medidas de las variables.

Las entregas se pueden hacer con más comodidad cuando la asignatura de TFM de
investigación se realiza en dos semestres consecutivos, cosa ya contemplada para los
TFM de investigación. En la modalidad anual, las dos partes clásicas en las que se
divide un informe de investigación se reparten entre el primero y el segundo semestres.

En el primer semestre se pasa de la pregunta o problemática general de la


investigación a la descripción del método de análisis empírico que se utilizará. Esto
significa que hay más tiempo para elaborar la revisión de la literatura relacionada,
plantear las preguntas de la investigación que se quiere llevar a cabo y empezar a
encontrar los datos empíricos que servirán para responderlas.

10
© FUOC PID_00228045

En consecuencia, en el primer semestre se realiza un proyecto o propuesta de


investigación que ya contiene de forma preliminar o provisional algunas partes del
informe de investigación final:

- La definición de la pregunta o la problemática de interés de la investigación.


- Una reseña preliminar de la literatura relacionada con el tema y las hipótesis de
investigación.
- Finalmente, se determinan los datos empíricos que se utilizarán y el modelo de
análisis.

En el segundo semestre, el resultado final será el informe de investigación completo.


Las entregas parciales se inician con la descripción de los datos empíricos recogidos y
los problemas de validez y fiabilidad que pueden presentar. Siguen con la descripción
de la aplicación del método de análisis utilizado para responder a las preguntas de la
investigación y acaban con el comentario de los hallazgos y sus implicaciones para las
preguntas de investigación o para la problemática planteada al inicio.

Como se puede ver, mientras que en el primer semestre se pasa de lo general a lo


particular (la forma en que la investigación encara los problemas planteados), en el
segundo semestre se pasa de lo particular (los hallazgos de la investigación) a su
importancia para el campo de estudio de la investigación y para la sociedad o la política
en general.

11
© FUOC PID_00228045

2. La selección del tema de investigación y la formulación de


la pregunta de investigación
Para que el trabajo de investigación tenga éxito, se tiene que encontrar –y no resulta
fácil– un tema que sea importante en su campo de estudio, que pueda motivar al
estudiante y que esté dentro de sus capacidades para ser llevado a cabo en los plazos
temporales establecidos. No resulta extraño que Krathwool y Smith (2005, pág. 46) se
refieran a esta cuestión como el problema del problema. Se tiene que encontrar un tema
con suficiente “agudeza” como para interesar, para ser algo más que un simple encargo
para obtener créditos en un programa de máster; que tenga ramificaciones que lo hagan
relevante desde el punto de vista práctico; que esté al alcance de las capacidades y
recursos del estudiante; que evite las áreas que se han convertido en un callejón sin
salida incluso para los más grandes investigadores. ¡Se tienen que cumplir muchas
condiciones simultáneamente!

El problema a tratar tiene que estar al alcance de las capacitados y habilidades del
estudiante y que pueda ser llevado a cabo con un enfoque razonable y factible, pero
tiene que ser lo suficientemente significativo para no ser una mera excusa para hacer un
trabajo. El estudiante se tendría que sentir suficientemente comprometido como para
continuarlo hasta su finalización. Llevar a cabo una investigación es un proceso de larga
duración; muchas veces tiene fases de trabajo rutinario y duro; inevitablemente hay
momentos de incertidumbre que pueden provocar el desaliento del estudiante:

“Vale la pena lo que estoy estudiando y cómo lo estoy haciendo?”. “Conseguiré


unos hallazgos que justifiquen los esfuerzos invertidos e interesen a los demás?”.

Es de suponer que si el tema de la investigación ya interesaba previamente e


independientemente de la asignatura al estudiante, se podrán superar mejor estos
momentos de baja moral y habrá más garantías de que se pueda acabar la investigación.

En segundo lugar, el tema de la investigación tiene que ser un tema “relevante” en su


campo de estudio; en nuestro caso, al tratarse del trabajo final del máster de Análisis
Político y del máster de Administración y Gobierno Electrónico, son dos los campos de
estudio: la ciencia política en general o los análisis de políticas públicas o de
organizaciones e instituciones políticas, y el estudio de las administraciones, proceso y
políticas de administración y gobierno electrónico.

La importancia sustantiva y la importancia teórica del tema

Irónicamente, podemos aprender algunas cosas sobre la relación entre importancia


sustantiva e importancia teórica del tema de investigación a través del contraejemplo de
las concesiones de los premios Ig-Nobel. Los Ig-Nobel son una réplica humorística de
los premios Nobel que se otorgan anualmente en la universidad de Harvard a
investigaciones reales pero estrafalarias. Tal como explica su página web:

“Los premios Ig-Nobel honran los logros que causan risa en un primer momento y que
después hacen pensar. El premio quiere celebrar lo inusual, honrar lo imaginativo”.
(http://improbable.com/ig/)

12
© FUOC PID_00228045

La primera lección es la enorme variedad de investigaciones y preguntas a las que se


quiere dar una respuesta científica. La curiosidad humana se hace una sorpresiva
cantidad de preguntas.

Solo tres ejemplos. En la edición de 2011, se concedió el premio de Medicina a un


estudio que se preguntaba si la necesidad urgente de orinar facilitaba que la gente
tomara decisiones sobre algunas cosas, pero dificultaba otras. El premio de Psicología
fue por el trabajo que se preguntaba por el significado de los resoplidos (el título del
artículo publicado era: “¿Es un resoplido solo un resoplido? Los resoplidos como señal
emocional y respuesta a tareas difíciles”). En 2005, el premio de Química fue para el
estudio que se preguntaba si “¿Nadan los hombres más rápido o más lento en jarabe?”.

Las investigaciones premiadas dan risa y parecen tan divertidas como inútiles. Pero el
único juez adecuado del interés y calidad de una investigación son los especialistas
dentro de su propio campo. Una mirada distanciada es incapaz de capturar el interés real
o una investigación.

Por ejemplo, en 1999 se concedió el premio Ig Nobel de Física a un artículo en el que


los profesores Vanden-Broeck y Keller estudiaban por qué rezuman las teteras.

http://pof.aip.org/resource/1/pfldas/v29/i12/p3958_s1

Seguramente el título le hizo mucha gracia al comité de los Ig Nobel. Era un caso
perfecto del tipo de interés simpático e inútil que adoran los excéntricos miembros del
comité de selección: “¿Por qué rezuman las teteras? ¡Encantador!”.

Pero entender la investigación desde este punto de vista más bien mostraba que el
comité de selección no tenía ninguna idea de la investigación en física de fluidos y
todavía menos de las implicaciones en el mundo real de d investigación básica.

De hecho, el trabajo de Vanden-Broeck y Keller se había publicado en una revista


especializada en la dinámica de fluidos y significó un importante avance en la
comprensión del funcionamiento de los motores de retropropulsión de los cohetes y de
los aviones que permitió hacerlos mucho más eficientes. Esta mejora ha tenido un gran
impacto en la industria de construcción de aviones (motores más potentes y con menor
consumo) y en la reducción de la polución producida por el transporte aéreo (los
motores más eficientes no contaminan tanto). ¡Realmente no parece que se trate de
temas irrelevantes! Solo quien sea muy avezado en un campo científico puede evitar ser
ridículo valorándolo.

Esta lección es importante: solo se puede reconocer un tema de interés científico y que
sea sustantivamente relevante a través del conocimiento profundizado de un campo
de estudio.

En general, se puede decir que el interés sustantivo de los temas de ciencia política está
garantizado. El estudio de temas relevantes de ciencia política, que producen un mejor
conocimiento de cómo funcionan los agentes o las instituciones implicados en el
funcionamiento del sistema político, es justificable sustantivamente (tiene unas
implicaciones prácticas que hacen que interese al conjunto de la sociedad, o bien, desde
un punto de vista menos altruista, puede ayudar en las estrategias de los partidos

13
© FUOC PID_00228045

políticos). Puede ayudar a mejorar el funcionamiento de nuestros sistemas políticos,


más o menos inmediatamente, puede contribuir a su estabilidad o a la calidad de las
decisiones que se toman y a las políticas que se derivan de ellas.

De todas maneras, en el debate de fondo sobre la orientación que tendría que tener la
investigación en ciencia política hay posiciones que ponen en duda la justificación
sustantiva de muchas investigaciones que se preocupan más por ofrecer un nuevo
refinamiento metodológico que por responder o formular preguntas relevantes. Esta es
la acusación contra la llamada investigación “dirigida-por-los-métodos” (method-driven
research) donde parece que el objetivo es elaborar procedimientos cada vez más
complejos y prolijos y que, por esta misma razón, se alejan del contacto con la realidad.

En los trabajos de investigación profesionalizadores que llevan a cabo una investigación


aplicada, la importancia práctica o sustantiva está implícita en el planteamiento, puesto
que normalmente se dedican a asesorar a instituciones u organizaciones públicas en sus
estrategias y políticas. De todas maneras, es importante explicitar esta importancia
sustantiva. El caso de las investigaciones que aparecen en los Ig Nobel en realidad
serían ejemplos de artículos en los que no se ha explicado la importancia del tema a un
público no especializado (al que probablemente no estaban destinados).

En los trabajos de investigación aplicada, el objetivo no es desarrollar el conocimiento


teórico en un campo específico, sino explicar un caso o resolver un problema específico.
Pero la conexión teórica siempre está presente. Todo trabajo aplicado requiere
precisamente la aplicación de alguna teoría (de alguna explicación de los fenómenos
que se están estudiando), a partir de la cual se tendrán que hacer las recomendaciones a
los clientes (en un sentido amplio). El dicho dice: “No hay nada más práctico que una
buena teoría”. Además, siempre es posible que un trabajo de investigación aplicada
presente algunas anomalías o descubra algunos aspectos de los objetos estudiados que
pongan en entredicho la teoría o que requieran explicaciones teóricas adicionales.

Sin duda, el mejor camino para encontrar un tema de investigación específico y que sea
teóricamente relevante es aprender más y mejor sobre un campo específico. Cuanto más
leemos y conocemos sobre un tema, más fácil nos será reconocer cuáles son los temas
interesantes, no respondidos, parcialmente respondidos o no lo suficientemente bien
respondidos. Los temas realmente interesantes no aparecen espontáneamente por
introspección. Se tiene que ir hacia el campo que nos resulte más interesante y
estudiarlos tan a fondo como nos sea posible.

En general, encontrar un buen tema de investigación, que sea teóricamente relevante,


requiere conocer cuáles han sido las principales preocupaciones, disputas y temas que
han centrado el interés de los especialistas de nuestro campo de estudio. La lectura
atenta de la literatura (la bibliografía) de un área potencialmente interesante nos permite
encontrar valoraciones e indicaciones de los especialistas y los profesionales más
reputados sobre los puntos o aspectos que no han sido suficientemente estudiados y que,
por tanto, pueden convertirse en los temas potenciales de una investigación.

Tenemos que encontrar los aspectos que nos llamen la atención en la bibliografía
relacionada y que puedan justificar hacer una investigación. Identificar los supuestos
teóricos aceptados y no verificados en una determinada área de conocimiento, encontrar
afirmaciones que no nos parece que están bastante probadas empíricamente, son vetas

14
© FUOC PID_00228045

para encontrar temas interesantes. Para Booth y cols. (2008) la búsqueda de problemas
interesantes se tiene que hacer durante la lectura crítica de las fuentes relacionadas con
la investigación.

Para encontrar desacuerdos con las fuentes, se pueden seguir sistemáticamente algunos
aspectos de las obras científicas. Primero, recomendamos fijarse en las clasificaciones y
definiciones que se utilizan en los artículos para ver si son sospechosas de sesgar de
alguna manera los resultados que se obtienen en la investigación. También se puede
criticar la lógica que se emplea en los argumentos usados en la investigación: puede
haber contradicciones de tipo parte/todo que pueden suscitar nuestras dudas (por
ejemplo, en la fuente se hace una afirmación del estilo: “aunque una parte parezca que
es parte de un todo, en realidad no lo es”); puede haber contradicciones históricas o de
causa/efecto; o, aún más grave, puede haber contradicciones de perspectiva, es decir, de
la forma correcta de afrentar un problema.

Las disputas teóricas o metodológicas existen en cualquier campo. En todas las


comunidades de investigación hay problemas o planteamientos que son intensamente
debatidos. Por ejemplo, proponerse estudiar si un modelo basado en los supuestos de un
método racional es mejor a la hora de predecir el comportamiento electoral que un
modelo alternativo basado en las premisas conductistas. O, también, proponerse hacer
un estudio cualitativo de la forma de organización de los militantes de un partido
político durante una campaña electoral. Otro ejemplo típico de disputa en los estudios
electorales es el tipo de información que usa el electorado para decidir su voto (por
ejemplo, su situación económica particular o su percepción sobre el estado general de la
economía del país). Identificar estos tipos de debates nos orienta para encontrar temas
interesantes y de alcance teórico.

Nos podemos apoyar en los objetos estudiados en las diferentes asignaturas de ciencia
política que hayamos cursado: las instituciones (como por ejemplo los partidos, los
sistemas políticos o los sistemas electorales) o bien los comportamientos o los procesos
políticos (como por ejemplo la participación o la formación de gobiernos). Los trabajos
se pueden inspirar en la impresión de que en determinadas asignaturas o en
determinados artículos que hemos leído hay algunas preguntas importantes que no han
sido formuladas. O también ¿qué respuestas se esperaba encontrar en un campo de
literatura nunca aparecieron? (Van Evera, 2002).

Las contribuciones teóricas más importantes en un campo provienen de los estudios que
se centran en los puntos debatidos, en los que no hay acuerdo entre los especialistas.
Pero tengamos en cuenta que para hacer aportaciones interesantes y valiosas en un
campo científico, no es necesario hacer un avance trascendental en la ciencia. A
menudo es mucho mejor escoger un tema menor y manejable sobre el que tenemos
información disponible. Este tipo de trabajo puede servir para ensanchar la aplicación
de un modelo general a un nuevo caso específico y, de este modo, contribuiremos a
afianzar la confianza en la teoría en la que nos hemos basado. Por otro lado, si en el
estudio empírico aparecen discrepancias, algo casi inevitable, con las previsiones de la
teoría, aunque sean pequeñas, ello nos tiene que inducir a refinar nuestras explicaciones,
completándolas o especificándolas. Naturalmente, estas discrepancias pueden provocar
una disminución de la confianza en las explicaciones teóricas de las que se partía en la
investigación y desviar el pensamiento hacia otros planteamientos que expliquen mejor
los fenómenos que nos interesan.

15
© FUOC PID_00228045

Una muestra de hasta qué punto es importante la conexión teórica de los trabajos
científicos es el tipo de ejercicios que el politólogo y metodólogo Gary King (King,
Keohane y Verba, 1994; King, 2006) propone plantear a su estudiantes: “repeticiones” o
“duplicados” (replications) de estudios publicados hechos por otros investigadores. Es
decir, partir de un artículo que ya esté publicado en una revista especializada en ciencia
política e intentar reproducir el análisis con una base de datos diferentes. Los resultados
obtenidos son mucho más informativos, dado que están vinculados al campo de
investigación que nos interesa. Esta necesidad de ligar nuestra investigación a los
trabajos llevados a cabo por el conjunto de la comunidad científica califica de una
manera muy clara la originalidad de nuestra investigación. Como vemos, no existen
investigaciones científicas que nacen de nuevo ni de la nada (ex novo y ex nihilo).

Para Barbara Geddes (2003, pág. 29) la recomendación de usar como guía las
investigaciones realizadas es útil solo en los campos de investigación desarrollados y
maduros. En estos campos científicos será posible encontrar temas de investigación que
completen las preguntas no respondidas o en disputa (es decir, que tengan una
imbricación con un cuerpo teórico).

Se trataría de una operación parecida a encontrar un buen lugar para una palabra en el
juego del Scrabble: ¿qué espacios quedan libres (no investigados)?, ¿qué posiciones son
más valoradas (reconocidas por la comunidad científica)?, ¿qué nueva palabra se
relaciona con otras jugadas (una investigación que vincula áreas de investigación ya
desarrolladas)?

En cambio, en otros campos más nuevos y controvertidos, donde no aún hay mucha
claridad, ni en las hipótesis ni en los argumentos, y donde las evidencias empíricas son
más bien débiles, no se puede esperar encontrar las lagunas de la teoría para poder
ubicar nuestra investigación. En estas situaciones, el consejo es que el estudiante elija
temas que le despierten la curiosidad y sobre los que tenga una cierta intuición de cuáles
son las explicaciones de los fenómenos que quiere estudiar.

¿Cuál es la importancia de la motivación personal?

A nadie le sorprende que haya muchos casos de investigaciones llevadas a cabo por
personas que estaban implicadas en el tema de investigación directa o emocionalmente.
Un caso que ha popularizado el cine es la investigación que realizaron Augusto y
Michaela Odone, los padres de Lorenzo Odone (el caso en el que se basó la película de
1992 Lorenzo’s Oil). Se negaron a aceptar el terrible pronóstico asociado a la
enfermedad que le habían diagnosticado a su hijo de cinco años, quien progresivamente
acabaría mudo, sordo, ciego y paralítico, hasta morir. Se embarcaron en una lucha
incansable para descubrir el tratamiento adecuado. Pese a que el matrimonio no tenía
formación previa en medicina, con la colaboración de algunos profesionales (pero
también teniendo que desafiar a otros), finalmente consiguieron encontrar el remedio
para la enfermedad de su hijo, que consistía en el consumo de un aceite (el aceite de
Lorenzo). Un caso parecido es el de Marlo Thomas, un niño de 15 años que
recientemente ha descubierto un nuevo test para detectar el cáncer de páncreas (más
fiable, rápido y barato que los existentes) gracias a la información especializada que
corre por Internet y que ha obtenido gracias a la ayuda de Google. Cuenta que se dedicó
a ello porque su tío murió de cáncer de páncreas. De hecho, uno de los cambios más

16
© FUOC PID_00228045

importantes en la investigación médica es producto de que las redes sociales de las


tecnologías de la información y comunicación (TIC) permiten que los pacientes (los
primeros interesados) puedan contribuir a la investigación y a la oferta de salud. Por lo
tanto, desde este punto de vista, es positivo encontrar temas de investigación que nos
impliquen emocionalmente.

Por otro lado, una idea muy difundida también es que precisamente el esfuerzo de la
ciencia consiste en desarrollar un conocimiento que vaya más allá de los
apasionamientos, los sentimientos o los prejuicios. Según este punto de vista, de hecho,
la ciencia se caracteriza por la forma en que consigue oponerse a estas formas de
conocimiento más inmediatas. De este modo, la neutralidad valorativa sería uno de
los rasgos distintivos de la ciencia según los planteamientos positivistas.

Estos dos puntos de vista respecto del papel de la pasión en el conocimiento se tratan en
una nota de La Gaya Ciencia de Nietzsche. Nietzsche comenta un adagio de Spinoza
que dice: “non ridere, non lugere, neque detestare, sed intelligere!”, es decir, “no se
tiene que reír, no se tiene que lamentar, ni detestar, sino ¡entender!” (Tractatus politicus
1, 4). Es decir, para Spinoza, dentro de la tradición estoica, el auténtico conocimiento
solo aparece en contraposición a las pasiones, cuando estas se apaciguan. Naturalmente,
Nietzsche está totalmente en desacuerdo: la chispa del conocimiento original se
encuentra precisamente en el odio, la risa y el lamento. El conocimiento filosófico o
científico, que solo aparece posteriormente, cuando la llama de la intuición provocada
por la pasión original ya se apaga, es menos interesante. Para entender mejor tenemos
que afilar nuestras pasiones, reconocerlas y utilizarlas. Los temas más interesantes (al
menos, para nosotros) y auténticos los encontraremos entre los que nos provocan las
emociones más intensas. Los tendríamos que buscar como las brasas que todavía
queman bajo las cenizas de lo que hemos ido aprendiendo.

En su ensayo-conferencia sobre la ciencia como vocación, Max Weber (1891) también


plantea la necesidad de estar implicado apasionadamente en el tema de la investigación
para poder hacer un trabajo científico de calidad.

Primero, el entusiasmo en lo que se hace es lo que da sentido a la vida:

“[...] quien no es capaz de ponerse, por así decirlo, unas anteojeras y persuadirse a sí mismo de
que la salvación de su alma depende de que pueda comprobar esta conjetura y no otra alguna, en
este preciso pasaje de este manuscrito, está poco hecho para la ciencia. Jamás experimentará en
sí mismo lo que podríamos llamar la «vivencia» de la ciencia. Sin esta extraña embriaguez
ridícula para todos los que la ven desde fuera, sin esta pasión, sin este sentimiento de que
«tuvieron que pasar milenios antes de que yo apareciera y milenios aguardaron en silencio a que
yo comprobase esta hipótesis», no se tiene vocación para la ciencia y es preferible dedicarse a
algo distinto. Nada tiene valor para el hombre en cuanto hombre si no puede hacerlo con
pasión”.

Weber (1891, pág. 191-2).

Y la pasión es indispensable para lograr la inspiración que ofrece calidad a la


investigación:

“[La pasión] [n] o es más que una condición previa de lo que sí es decisivo, de la «inspiración».
[…] está extendida la idea de que la ciencia se ha convertido en una operación de cálculo […]
frente a esta creencia hay que señalar, por de pronto, que parte de un conocimiento erróneo de lo
que ocurre en una fábrica y de lo que ocurre en un laboratorio. Para llegar a producir algo valioso

17
© FUOC PID_00228045

en uno u otro lugar es necesario que al hombre se le ocurra algo, aquello precisamente que es
adecuado. Esta ocurrencia, sin embargo, no puede ser forzada y no tiene nada de frío cálculo”.

Weber (1891, pág. 192).

Ciertamente, el desarrollo de una investigación científica no tendría que consistir en un


ejercicio meramente mecánico para resolver un encargo burocrático; todo lo contrario,
se tendría que parecer a emprender una aventura de exploración. La investigación
científica es un ejercicio relacionado con la resolución de enigmas donde, además, se
van a producir nuevos descubrimientos. El informe de la investigación tendría que
reflejar la sensación de que el autor se ha tenido que enfrentar a un desafío intelectual
que le ha interesado y que, por tanto, podrá interesar a sus lectores. La pasión intelectual
es clave para dedicar el tiempo necesario y poder mantener la tensión adecuada que
requiere hacer buen trabajo de investigación.

Si nos tomamos seriamente estas cuestiones, una buena forma de encontrar un tema de
investigación es hacer un ejercicio de introspección e intentar recordar aquellos puntos
o aspectos de nuestro estudio sobre ciencia política que nos han provocado algún tipo de
reacción emotiva.

Posiblemente, ha habido temas que nos resultaron antipáticos o incómodos cuando los
estudiábamos. Quizás pensamos que un tema era ninguneado o malentendido por los
teóricos o por el sentido común aplicado a la política. Por ejemplo, ¿como es posible
que se piense que las divisiones ideológicas son una cuestión del pasado y que la
modernización haya conducido a que esta cuestión pierda intensidad y sentido? Una
reacción lógica es intentar ignorar esta reacción, porque es más fácil aprender un tema
que nos es simpático y, en el momento de estudiar una asignatura, no es cuestión de
perder el tiempo. Pero ahora, en el momento de hacer una investigación, es conveniente
reencontrar los temas que nos provocaron estas reacciones, porque estos pueden ser los
precisamente los temas por los que podremos mantener el interés de forma más
duradera a lo largo de la realización del trabajo. Por simetría, las emociones contrarias,
las que hacen referencia a la simpatía o confort con los temas de estudio, también
pueden ser utilizadas como indicativo para temas de investigación, pero no es tan fácil
que los temas que producen estas reacciones estimulen la misma productividad o
incentiven un esfuerzo intenso y continuado para ser resueltos. En resumen, la
recomendación es reavivar las brasas de aquellos sentimientos y emociones
(especialmente de incomodidad) generados a partir de las primeras impresiones de
estudio de un tema, intentar entender estas impresiones y pulirlas para articular unas
preguntas de investigación interesantes (innovadoras, arriesgadas, agudas).

Un consejo para inspirarnos o desencallarnos a la hora de encontrar un tema es repasar


sistemáticamente los grandes temas o áreas temáticas que hemos estudiado en las
asignaturas de ciencia política (o de las ciencias sociales en general) e intentar recuperar
las primeras reacciones emocionales que nos produjeron y que posteriormente se
difuminaron. Identificar y reconocer por qué razón nos han producido estas reacciones
nos puede servir como punto de partida para plantear nuestras investigaciones.

Esta conveniencia de que la investigación ha de tener en cuenta los intereses personales


(no solo intelectuales) es denominada por Blaxter y sus colegas (2000) una
“recomendación al egoísmo”. La elección del tema puede tener un impacto en la vida

18
© FUOC PID_00228045

profesional futura del estudiante; por tanto, todas estas cuestiones han de ser
contempladas.

Otras estrategias pueden servir para inspirarnos y desencallar la elección de un tema de


investigación cuando parece que nada destaca lo suficiente. El seguimiento de los
acontecimientos de actualidad o los debates políticos pueden centrar nuestra atención en
una cuestión y ayudar a decidirnos por un tema. La lectura a fondo de los argumentos
opuestos en los debates nos puede servir para identificar preguntas de investigación que
no han sido resueltas. Por ejemplo, los acontecimientos de la primavera árabe, el
movimiento del 15-M o la ocupación de Wall Street (Occupy Wall Street) han
provocado un alud de trabajos sobre el efecto de las nuevas tecnologías en la
movilización política.

El papel de la motivación personal en el informe de la investigación

Así pues, está clara la importancia y la necesidad de la motivación personal en la


elección de un tema. Pero ¿qué papel tiene que desempeñar en el informe de
investigación? ¿Se tiene que explicitar y explicar esta motivación personal, porque el
punto de vista del investigador es esencial para entender el trabajo de investigación que
finalmente se ha llevado a cabo, o esta cuestión es solo relevante para la economía
emocional del investigador y, dado que no es importante para entender una buena
investigación, se tiene que hacer lo posible para disimularla al resto de la comunidad de
investigadores? Es el andamio que ha servido para construir el edificio, pero una vez
finalizado, se tiene que retirar.

La respuesta a esta cuestión depende de en qué lado de la divisoria metodológica de las


ciencias sociales nos hemos situado para la investigación. Para los investigadores
convencidos de que existe una discontinuidad insuperable entre el mundo social y el
mundo natural, y que consideran que el objetivo de la investigación es la comprensión
empática (verstehen), es necesaria una doble hermenéutica que no solo nos haga ver
cuál es la vivencia de los actores estudiados en el contexto político y social del que
forman parte, sino que se tiene que explicar también el contexto del que forma parte el
investigador. Desde este punto de vista, el autoanálisis del investigador es central para
entender la investigación. Las motivaciones que lo han llevado a estudiar un tema
determinado explican gran parte de lo que finalmente encuentra. Naturalmente, este
punto de vista respecto a la investigación es inevitablemente frustrante y un tanto
paradójico. Dado que el investigador estará inevitablemente presente en la
investigación, finalmente no estaremos tan seguros de haber conocido la situación social
o política que se pretendía estudiar, como de haber conocido al investigador y su
contexto social y político.

Por ejemplo, el famoso estudio de Barley El antropólogo inocente (2009, 2011) ha sido
utilizado en las facultades de antropología de todo el mundo para explicar la gran
dificultad y complejidad del trabajo de campo y relativizar la idealización del trabajo
que existía en los primeros estudios antropológicos. Si se lee con detenimiento veremos
que nos explica más, y mejor, las características de la comunidad de los académicos de
Cambridge y sus prejuicios, que las características reales de los dowayos de Camerún,
por los que es evidente que no tenía ningún tipo de empatía. En este tipo de trabajo
hermenéutico es imprescindible que haya una presentación de la propia posición, una
hermenéutica de las interpretaciones que hace el mismo investigador.

19
© FUOC PID_00228045

Es importante remarcar la diferencia en este punto con la tradición cuantitativa. En la


tradición de investigaciones cualitativas es conveniente explicar y explicitar las
motivaciones personales para hacerlas más convincentes y resistentes a las posibles
críticas. En cambio, en una investigación cuantitativa no es importante ni relevante que
alguien explique la razón íntima que le ha conducido a despertar su curiosidad, por
ejemplo, por el comportamiento electoral municipal. En una investigación cualitativa,
en la que la formulación de los conceptos proviene de esta experiencia infantil,
seguramente sí que es necesario comentarla. Las motivaciones o los criterios utilizados
en la investigación pueden influir en los tipos de descubrimientos que se hacen. Tal
como afirman Blaxter y cols. (2000): “para las personas que leen o juzgan los
resultados, ¡estas influencias pueden ser extremadamente obvias!”. Por lo tanto, para
anticipar la forma como será recibida nuestra investigación por la percepción que se
tenga, por ejemplo, de nuestras características sociodemográficas, es importante
reconocer explícitamente los puntos de vista que seguimos. Esta opción retórica es más
segura porque puede desactivar algunas críticas que afecten a la credibilidad de nuestra
investigación y la harán académicamente más sólida.

En los estudios de tipo cuantitativo (de orientación realista-positivista) es inapropiado


hablar de las motivaciones personales en la elección y elaboración de una investigación
porque parece que van en contra del objetivo de lograr un conocimiento objetivo de la
realidad. Por eso, normalmente no aparecen en los párrafos del informe final de
investigación. En cambio, las justificaciones sustantiva y teórica de la investigación
tendrán que aparecer casi obligatoriamente en cualquier informe de investigación,
después de una breve descripción del tipo de investigación que se quiere realizar.

La motivación personal solo aparecerá si es relevante para entender el tipo de


investigación que se ha llevado a cabo. Del mismo modo que en los Principia de
Newton no se dice nada de la afición del autor por la teosofía (a pesar de que
seguramente este interés está relacionado con la forma en que trató el tema), en los
informes de investigación solo se deberían hacer constar los aspectos de la investigación
que son relevantes para la comunidad científica para valorarla. Hacer demasiada
ostentación de la motivación personal en un trabajo científico cuantitativo puede
resultar en muchos casos incómodo y sonar a oversharing, a querer mostrar que
sabemos más de lo que realmente necesitamos saber.

Limitaciones en la selección del tema de investigación

En la elección del tema del TFM también se tienen que tener en cuenta las
características y limitaciones de los estudiantes o las restricciones al acceso a
determinados recursos. Idealmente, se tiene que encontrar un tema que sea interesante
objetiva y subjetivamente, pero sujeto a las restricciones de las capacidades del
estudiante.

Una limitación es la disponibilidad de los datos necesarios para llevar adelante la


investigación planeada. Concebir una investigación interesante no garantiza que se
puedan encontrar o se pueda acceder a los datos necesarios para llevarla a cabo. Hay
instituciones que hacen todo lo posible para evitar cualquier difusión de los datos que
recogen para no violar los principios de privacidad o divulgar información sensible.

20
© FUOC PID_00228045

Otra limitación práctica son los conocimientos necesarios para poder hacer un trabajo
sobre un tema concreto. ¿Dispone de ellos el estudiante o los puede lograr de forma
creíble en el tiempo de que dispone? Un buen tema de investigación tiene que encajar
con las capacidades técnicas de los estudiantes.

Krathwohl y Smith (2005), en su obra sobre la realización de tesis, declaran que si


alguien tiene que empezar a buscar la literatura relacionada con el tema escogido justo
en el momento de hacer la investigación, no es la persona para adecuada para sacar
adelante dicha investigación. Esta afirmación revela la importancia crucial de la
información y la familiaridad del investigador con el tema de investigación para hacerla
viable.

En las investigaciones aplicadas nos puede ayudar mucho el acceso a información de


primera mano de una institución, organización o política pública. En las investigaciones
teóricas, el tema nos tiene que haber interesado bastante en algún momento como para
no tener que empezar de cero (como se ve, este punto está vinculado con el anterior,
sobre la necesidad de tener algún tipo de interés personal con el tema que se quiere
estudiar). En las investigaciones aplicadas, el elemento determinante puede ser el hecho
de estar en contacto con una política o ser miembro de una organización en la que se
plantean problemas o preguntas a resolver.

Otra limitación que siempre se ha de tener presente es la del tiempo que el estudiante
tiene para poder llevar a cabo la investigación. El tema del trabajo siempre tendrá que
ser acotado de forma razonable para hacerlo asequible.

Conviene que los directores o tutores detecten estas limitaciones en los primeros
momentos. De esta manera podrán ofrecer una ayuda inestimable, puesto que su
experiencia en el campo de investigación les da una perspectiva y un rango de visión de
los que los estudiantes carecen.

Los directores de investigación también deberían ayudar en el proceso de encontrar el


tema específico en el que centrar la investigación: tienen una visión más completa del
campo general elegido y conocen cuáles son los temas controvertidos o potencialmente
interesantes desde el punto de vista teórico. Son los guías de viaje que pueden aconsejar
qué excursión es interesante hacer y que está al alcance de nuestras capacidades.

En resumen, para empezar la investigación tenemos que hallar un tema bastante


específico, enfocado o concreto, que pueda ser controlado con una cantidad razonable
de información. No obstante, disponer de un tema no es suficiente. Es necesario
formular las preguntas adecuadas dentro de dicho tema, que sean interesantes y que
puedan ser respondidas con datos que estén al alcance del estudiante. El siguiente
apartado explica con más detalle las características de estas preguntas de investigación y
cómo pueden ser construidas.

21
© FUOC PID_00228045

3. El planteamiento del problema y la pregunta de


investigación
El planteamiento del problema es una fase introductoria de toda investigación. Desde
el comienzo de la elaboración de la investigación es conveniente plantear por escrito
cuál es el problema que se quiere resolver. Escribir nos ayuda a aclarar y precisar
nuestras ideas sobre los temas. En la mente muchas veces nos parecen mucho más
coherentes y completas de lo que realmente son. Cuando escribimos podemos controlar
los argumentos que estamos elaborando y detectar sus debilidades.

Para encontrar una buena pregunta y saber como comunicar su importancia, primero se
ha saber qué es un problema, práctico y de investigación. Los problemas son situaciones
del mundo que nos resultan incómodas y que queremos solucionar.

Los problemas de investigación se centran en las cuestiones del mundo que pensamos
que han sido mal resueltas, sobre las que hay un conocimiento incompleto o erróneo. En
cambio, los problemas prácticos corresponden a las situaciones cotidianas y que
queremos resolver. Los problemas de investigación pueden ser de investigación básica o
de investigación aplicada. Los diferencia el tipo de público o de audiencia al que va
dirigido la investigación.

El planteamiento del problema es la parte del informe de investigación (o del proyecto


de investigación) que precede e introduce la sección o apartado de revisión o reseña de
la investigación relacionada. Naturalmente, la formulación del problema no se limita a
esta parte. La revisión de la literatura relacionada, por ejemplo, se dedica a mostrar la
importancia del problema y cómo está relacionado con los trabajos que se han
desarrollado previamente y de qué forma la investigación podrá contribuir a mejorar la
comprensión de la solución. Una vez hecha la revisión de la literatura, se podrá
reformular el problema con más precisión. De ahí surgirán las preguntas de
investigación, las hipótesis que se han planteado, y, si se conoce bastante del fenómeno,
se podrán formular las hipótesis causales o incluso los modelos del fenómeno que
queremos explicar.

Una función primordial del informe de investigación es introducir el trasfondo, el


contexto y la naturaleza del problema que se está investigando. Independientemente del
tipo de investigación que se esté haciendo (ya sea una pregunta teórica general o se
intente resolver un problema práctico de políticas públicas), la cuestión se tiene que
situar dentro del contexto más amplio que permita a los lectores conocer su importancia
general.

El objetivo de la formulación inicial de la investigación es mostrar la importancia del


tema en el campo de estudio más amplio del que forma parte. Si es posible, se tiene que
mostrar cómo se relaciona el problema que nos planteamos con los temas más
importantes que se están planteando en el campo de estudio. Por otro lado, también es
necesario aprender a enfocar o limitar el problema que queremos tratar. Uno de los
defectos más frecuentes de los investigadores noveles es intentar evitar hacer trabajos
superficiales o triviales a base de pretender tocar temas muy amplios. Sin embargo,
únicamente si el problema que queremos tratar está suficientemente delimitado será
manejable y podremos centrarnos en los elementos importantes. Solo así podremos

22
© FUOC PID_00228045

avanzar en la solución y no quedarnos en enunciados generales y vagos (que es uno de


los defectos que acostumbran a sufrir los trabajos de investigación).

Dado que esta es una tarea difícil, deberemos contar con la ayuda del director de
investigación. A veces, al estudiante le cuesta hacer caso de estos consejos y desconfía
pensando que le quieren obligar a traicionar y rebajar la importancia del tema que
quiere tocar. Pero el estudiante tiene que entender que si está bien guiado y controlado,
el trabajo tendrá más peso y estará bien fundamentado. ¡No se limita al estudiante por
pusilanimidad!

La pregunta de investigación

Una vez aclarado el problema o la problemática que se quiere tratar en el trabajo, se


puede pasar a elaborar el elemento central de la investigación: la formulación de las
preguntas de investigación.

¿Qué es una pregunta de investigación? Ante todo, se tiene que reconocer que no se
trata de una simple pregunta. Se trata de una proposición más o menos compleja que
tiene que presentar de forma sintética las características específicas del estudio que se
quiere llevar a cabo.

Se trata de una única declaración que indica tu tema de investigación y tu punto de vista
sobre cómo responderlo. De alguna manera, se trata de la respuesta a la pregunta central
o problema que has presentado.

Es importante formular la pregunta de investigación desde los momentos iniciales


(aunque sea de forma provisional). Te permitirá tener presente en todo momento cuál es
el objetivo central de tu investigación y valorar hasta qué punto las acciones que planeas
van a servir para dicho objetivo. La pregunta de investigación es un tipo de brújula a la
que puedes recurrir para encontrar el rumbo cuando estés en plena investigación
(Krathwohl y Smith, 2005). Cuando tienes dudas sobre cualquier punto del desarrollo
de la investigación, puedes acudir a ella para saber si se tienen que incluir o no unos
datos adicionales, usar un tipo de procedimiento estadístico u otro, o si hay que refinar
las hipótesis planteadas. La pregunta de investigación te sirve para ser consciente de si
lo que te estás planteando es demasiado o demasiado poco.

Booth, Colomb y Williams (2008, parte II) presentan una serie de pasos que permiten
generar preguntas de investigación útiles. Es decir, se centran en el procedimiento para
obtener “preguntas para encontrar respuestas”, porque no vale cualquier tipo de
pregunta. A continuación, se resumen sus propuestas.

Para poder generar la pregunta de investigación no basta con haber decidido un tema
general. Se tiene que hacer un esfuerzo por concretar, tanto como sea posible, el tema
de investigación. La concreción del tema es lo que nos permitirá identificar más
fácilmente cuáles son las preguntas interesantes. Un tema se puede hacer más concreto a
base de añadirle palabras y frases, calificadores.

Existe un criterio simple para determinar si la descripción de un tema es demasiado


amplia o general: lo es si puede ser explicado con cinco palabras. Es decir, si puede

23
© FUOC PID_00228045

ser formulado con la misma concisión que en los subencabezamientos de una


enciclopedia (por ejemplo, “Los partidos y las TIC”). En un primer momento, la
formulación del tema de investigación puede ser vago, pero rápidamente se tendrá que
convertir en más específico a medida que se desarrolle el proyecto.

Cuando se especifica por escrito un tema se pueden ver con más claridad los vacíos,
problemas e incoherencias que más adelante se pueden convertir en preguntas de
investigación. El tema específico es una especie de título provisional que sirve para
identificar lo que estás haciendo. Es conveniente expresarlo como una respuesta corta
cuando alguien te pide qué estás investigando. Por ejemplo, “Los incentivos al uso de
las TIC por parte de los partidos políticos”.

A partir del tema específico de la investigación se puede pasar a las preguntas. En el


informe de investigación, se tiene que mostrar al lector que la investigación propone
una pegunta interesante, que vale la pena ser considerada, leída y respondida. Este
aspecto retórico es importante porque siempre tenemos que tener en cuenta la audiencia
a la que irá dirigido el informe de nuestra investigación.

Booth y cols. (2008) presentan un abanico de estrategias que pueden ser útiles para
hacer aflorar las preguntas de investigación sobre un tema específico. Esencialmente, se
trata de interrogar el tema desde diferentes ángulos para encontrar sus aspectos más
afilados y, por tanto, interesantes. En un primer momento, se deberían registrar todas las
preguntas que vayan apareciendo sin preocuparse mucho por responderlas.

Un tema puede ser cuestionado a diferentes niveles. Se pueden plantear preguntas


factuales respecto de un tema. Quién, qué o cuándo son preguntas descriptivas. Por
ejemplo: “¿quién usa las TIC dentro de los partidos?”, “¿qué usos de las TIC son los
más comunes dentro de los partidos?”, “¿es muy diferente el uso de las TIC en campaña
electoral y fuera de la campaña?”.

Pero normalmente es más interesante centrarse en el por qué y en el cómo. Por


ejemplo: “¿por qué el uso de las TIC por parte de los candidatos y representantes
cambia entre el periodo de campaña?”.

También te puedes preguntar en qué partes se divide o está constituido tu tema o cómo
está vinculado tu tema particular con los temas más amplios. Por ejemplo: “¿hacen el
mismo uso de las TIC todos los partidos políticos?”.

O también puedes plantearte cuáles son las características y las categorías del tema. Por
ejemplo: “¿utilizan los partidos políticos los instrumentos de la web 2.0 con menos
intensidad que otras herramientas TIC?”.

Encuentra ejemplos del tema o problema y compáralos. Por ejemplo: “¿es menor el uso
que hacen de las TIC los partidos europeos que los partidos de Estados Unidos?”.

Tendrías que delimitar las categorías que engloban tu tema y ayudan a comprenderlo.
Por ejemplo: “¿utilizan los partidos las TIC de manera parecida a cómo lo hacen los
medios de comunicación?”.

24
© FUOC PID_00228045

El tema también se puede enfocar desde el punto de vista de los valores con los que se
encuentra vinculado: a cuáles se refiere y a cuáles se contrapone. Por ejemplo: “¿podría
servir la introducción de las TIC para democratizar los partidos políticos?”.

Un trabajo de investigación no consiste solo en recopilar y empaquetar información


relacionada con un tema. El elemento clave de la investigación es precisamente
encontrar preguntas interesantes que representen un desafío y despierten la
curiosidad tanto del autor como de los lectores.

Las preguntas que has obtenido en el proceso de interrogación del tema se tienen que
evaluar. Sobre todo, te tienes que preguntar si la cuestión formulada interesará a tu
audiencia. ¿Por qué vale la pena ser formulada?, ¿qué pasaría si no pudiera responder
las preguntas? Normalmente, las preguntas más polémicas no son las factuales, sino las
que se refieren a por qué y a cómo. Se pueden combinar las preguntas sencillas en una
más importante.

Booth y cols. (2008) distinguen tres partes que toda pregunta de investigación ha de
plantear:

- La primera parte debe enunciar un tema: “estoy estudiando o trabajando en...”.


- Después, se añade la respuesta a una pregunta: “porque quiero saber por
qué/cuándo/dónde /cómo/...” (esta parte es la clave de la pregunta, la que
permite ir más allá de la simple acumulación de datos sobre un tema).
- Finalmente, se explicita la importancia de la pregunta, lo que explica su
importancia y la motiva (para ayudar el lector a entender por qué o si... ). Si se
está tratando un tema importante en tu campo de estudio, entonces es seguro que
la pregunta interesará a tu audiencia. Normalmente, la investigación más
avanzada en un campo se centra en preguntas que ya se han formulado
anteriormente, pero que se considera que no se han respondido de forma
correcta.

Por ejemplo:

“(1.ª parte) Esta investigación estudia la influencia de las nuevas tecnologías de la comunicación
en el comportamiento político, (2.ª parte) para saber en qué medida la facilidad de emitir y de
recibir información puede estar afectando a la distribución del poder dentro de las
organizaciones y los sistemas políticos, (3.ª parte) y ello nos tiene que ayudar a valorar cuál es el
alcance del potencial revolucionario de las nuevas TIC para erosionar o subvertir las jerarquías
tradicionales, tal como han anticipado algunos teóricos de la comunicación política”.

25
© FUOC PID_00228045

4. Estrategias para la búsqueda de información


Tanto la búsqueda del tema de investigación como la posterior elaboración de la reseña
de la bibliografía (o revisión de la literatura) relacionada con la investigación que se
quiere llevar a cabo requieren que el estudiante aproveche al máximo los recursos para
obtener información. A continuación se recogen sugerencias sobre las fuentes que
pueden ser utilizadas y las estrategias más útiles para hacer esta recogida.

El estudiante que lleva a cabo un TFM se tiene que comprometer a extraer el máximo
posible de los recursos que la UOC ofrece para realizar investigaciones. Este es un
indicador de la capacidad de iniciativa y de la actitud proactiva que tendría que
demostrar cualquier investigador y que le conducirán a ir más allá de las indicaciones
estrictas que ha recibido. Dado que el tiempo que podemos dedicar a esta tarea es
siempre limitado, es importante usar las estrategias de búsqueda de información más
adecuadas para minimizar el riesgo de que elementos de información relevantes se
queden fuera de nuestra revisión.

La pregunta y las hipótesis que hemos formulado nos proporcionan la base primaria
para decidir qué tipo de fuentes son las relevantes para la reseña de la literatura. Otro
problema importante del estudiante es asegurarse de que la información que obtiene es
de calidad (fiable y válida). El hecho de que la fuente se encuentre en una editorial
reputada, que el autor sea reputado o que la fuente sea actual son criterios que se tienen
que tener en cuenta para evaluar la fiabilidad de una información.

De hecho, la utilización de buscadores en Internet arroja una enorme cantidad de


información, en cualquier tipo de formato, lo cual ha significado una revolución para la
investigación. Pero esta potencia de Internet es también su mayor problema: no tiene
porteros.

Esto hace que sea necesario recurrir a instituciones o mecanismos que garanticen la
información. Las bibliotecas académicas modernas son guías fiables. Los bibliotecarios
son profesionales que se dedican a evaluar la autoridad y la calidad de los recursos antes
de adquirirlos.

El estudiante de la UOC tiene que esforzarse en conocer los recursos que le ofrece la
biblioteca virtual de la UOC para hacer su investigación.

La dirección de la biblioteca de la UOC (también es accesible desde el campus virtual)


es la siguiente: http://biblioteca.uoc.edu/cat/

El catálogo de recursos documentales de la biblioteca (y en general de todas las


bibliotecas universitarias) permite el acceso a una gran cantidad de recursos: libros y
otras publicaciones en papel, artículos y otras publicaciones periódicas, revistas
especializadas académicas, y también otras fuentes, como grabaciones de audio y de
vídeo, o incluso escritos no publicados (como tesis, tesinas o trabajos de investigación).

Muchas de estas fuentes se encuentran en formato electrónico. Para la investigación, es


muy importante el acceso a las bases de datos de texto completo a las que la biblioteca
está suscrita y que solo son accesibles si estamos registrados en la web de la biblioteca.

26
© FUOC PID_00228045

Desde ahí se puede acceder a las principales revistas académicas especializadas. Por
ejemplo, las bases de datos de artículos de revista como JSTOR, EBSCO o Dialnet.

En las bibliotecas se pueden encontrar una gran cantidad de obras de referencia con
información sobre dónde encontrar datos y trabajos relacionados con nuestra
investigación. Por ejemplo, los índices de los diarios, de las revistas y de las colecciones
de libros. También hay bibliografías, colecciones de resúmenes (abstracts), resúmenes
de diarios, de artículos de revistas de determinadas disciplinas, o resúmenes de tesis
doctorales. Las bibliotecas también ofrecen guías a la investigación y obras de
referencia que dan información básica sobre una gran variedad de temas: diccionarios,
enciclopedias, fuentes bibliográficas, anuarios, almanaques y atlas. También se puede
acceder a una gran cantidad de colecciones estadísticas publicadas por diferentes
administraciones públicas. En la actualidad se puede acceder a buena parte de esta
información a través de los sitios web de las mismas administraciones, o de las
instituciones especializadas en la elaboración de datos estadísticos, pero a parte de esa
información solo se podrá acceder a través de las bibliotecas.

Los catálogos on-line de las bibliotecas permiten hacer búsquedas a través de diferentes
criterios o campos (nombre de los autores, títulos, palabras clave) de forma que
podamos encontrar el conjunto de obras relacionadas con la investigación en la que
estamos interesados.

El catálogo de la biblioteca de la UOC está integrado en el catálogo colectivo de las


bibliotecas universitarias catalanas (CCUC). Además está en contacto con el resto de las
bibliotecas públicas de Cataluña y universitarias el Estado español y del mundo.

La biblioteca de la UOC ofrece información de apoyo específica a la búsqueda de


documentos para la investigación. En el apartado de formación de la página principal de
la biblioteca se puede acceder a unos módulos de competencias
informacionales: http://cv.uoc.edu/continguts/PID_00171989/index.html

A continuación se reproduce el índice de los módulos (que contiene los enlaces a las
páginas correspondientes) y se describe brevemente su contenido. Este material ofrece
apoyo para desarrollar las competencias necesarias para acceder a los recursos de la
biblioteca.

Módulo 1. Introducción

Módulo 2. Cómo se tiene que iniciar una búsqueda

Este módulo ofrece consejos sobre la forma de planear y realizar consultas en la


biblioteca.

1. El proceso de búsqueda
1.1. Definir con precisión la consulta
1.2. Seleccionar las fuentes de información más apropiadas
1.3. Preparar la búsqueda y ejecutarla
1.4. Evaluar la pertinencia, la calidad y la fiabilidad de la información
obtenida

27
© FUOC PID_00228045

Módulo 3. Cómo se puede encontrar información en la web

Este módulo introduce al uso de algunas de las herramientas más potentes de que
disponen los investigadores para obtener información actualizada de la búsqueda que se
está haciendo en cada campo: los buscadores de documentos académicos (como Google
Académico o Scirus). Además de buscar de forma ágil (a través de temas clave) documentos
relacionados con cualquier investigación, estos buscadores están conectados con los
catálogos de las revistas académicas especializadas y de las bibliotecas, de forma que,
cuando encontramos algún documento relevante, podemos usarlo como semilla para
acceder a un gran número de nuevos documentos. A través del indicador de documentos
que referencian el documento que hemos identificado como interesante, nos permite
acceder a los documentos más recientes que se han publicado en un campo de estudio
determinado.

Introducción
1. Otros googles. Google Académico
2. Más allá de Google, los buscadores especializados. Scirus

Módulo 4. Cómo se encuentra un libro o un manual


Este módulo se centra en la utilización de los catálogo de la biblioteca de la UOC y de otras
bibliotecas, pero también nos presenta otro de los instrumentos que han revolucionado la
actividad de investigación: Google Books y otras herramientas que permiten acceder a
libros en formato electrónico.

Introducción
1. Cómo se utiliza un catálogo de una biblioteca: el ejemplo de la Biblioteca
de la UOC
2. Cómo se utiliza un catálogo colectivo: el ejemplo del CCUC
3. Cómo se localizan libros electrónicos
3.1. Cómo se utiliza Google Books

Módulo 5. Cómo se encuentra información especializada

Este módulo muestra cómo encontrar la información en las revistas especializadas y cómo
acceder a otra fuente de información valiosa para la investigación: las tesis y otros trabajos
de tipo académico.

1. Cómo se encuentran artículos de revistas


1.1. Qué artículos nos interesan: tipología de revistas
1.2. Cómo se encuentra un artículo cuando tenemos la referencia
bibliográfica
1.3. Cómo se encuentra un artículo cuando no disponemos de la
referencia bibliográfica
2. Cómo se encuentran tesis doctorales
2.1. Tesis en papel
2.2. Depósitos de tesis digitales
3. Cómo se encuentran otras informaciones científicas

Módulo 6. Cómo se puede encontrar legislación y normativa


Este módulo se centra en la búsqueda de documentos normativos y legislativos. Para
algunos trabajos de investigación aplicada, por ejemplo, en el análisis de políticas públicas

28
© FUOC PID_00228045

puede resultar muy útil. Por otro lado, algunos de los buscadores de recursos legales, como
Westlaw, también tienen módulos para hacer búsquedas textuales de noticias publicadas
en los medios de algunos países (tienen, por ejemplo, la compilación de todas las noticias
de la agencia Reuters). Esta herramienta es parecida y puede complementar otras
herramientas de búsquedas textuales de noticias, cómo son LexisNexis o Factiva, que
también están disponibles en la biblioteca de la UOC. Hay que tener en cuenta que todas
estas herramientas están cambiando constantemente para incorporar las nuevas
posibilidades que ofrece la tecnología y para afrentar la fuerte competencia de otras
herramientas comparables.

1. Cómo se puede encontrar legislación y jurisprudencia


1.1. En código abierto
1.2. Por medio de la Biblioteca
2. Cómo se puede encontrar normativa y estándares

El módulo 7 se centra en el acceso a las patentes, un tipo de documentación que no es


probable que interese a quien tiene que hacer un trabajo de investigación en ciencia
política.

Módulo 8. Cómo se encuentran datos estadísticos


Este módulo es muy interesante para los investigadores en ciencias políticas. Ofrece los
vínculos de acceso a algunos de los portales de las agencias e instituciones de recogida de
datos estadísticos más cercanos (Eurostat, INE o IDESCAT). También ofrece información de
alguna de las herramientas que se han desarrollado para medir el uso y las características
de internet. Es interesante también la información de lugares que ofrecen información
gratuita de métodos estadísticos, como el Manual de estadística de la página web del
paquete informático Statistica: http://www.statsoft.com/textbook/

El glosario de términos estadísticos desarrollado por el consorcio de universidades del


Reino Unido, STEPS: http://www.stats.gla.ac.uk/steps/glossary/alphabet.html

O el diccionario multilingüe de términos estadísticos del ISI: http://isi.cbs.nl/glossary/

Introducción
1. Datos estadísticos
2. Datos estadísticos sobre el uso de internet

Módulo 9. Cómo se organiza la información encontrada


Este módulo hace referencia a una de las tareas más importantes para sacar adelante una
investigación: el registro, conservación y organización de la información que se ha utilizado
durante la elaboración de la investigación.

Como hemos visto, desde el primer momento tras elegir un tema de investigación, uno de
los elementos clave es que deje clara su conexión con la investigación realizada
anteriormente. Una de los primeras tareas de una investigación será documentar de forma
adecuada esta conexión con la investigación previa. Por otro lado, para que la investigación
que llevamos a cabo pueda ser reproducida (replicated) por otros investigadores (prueba
definitiva que garantiza que se trata de una investigación científica), también se tienen que
documentar de forma exhaustiva las fuentes y toda la documentación que se ha usado. Las
diferentes formas de referenciar las obras están codificadas con diferentes estándares para
facilitar la tarea de revisión y acceso al resto de miembros de la comunidad científica. Pero
los sistemas son variados y los tipos de documentos también lo son cada vez más, por eso a
veces resulta complicado controlar todos los detalles de estos usos.

29
© FUOC PID_00228045

Es a causa de esta centralidad de las referencias documentales en la investigación, que los


programas gestores bibliográficos son tan útiles. Ser conscientes desde el preciso momento
de comenzar la investigación nos permitirá ahorrarnos una gran cantidad de tiempo y nos
ayudará a ser más eficaces a la hora de buscar información y elaborarla. Dentro de este
módulo de apoyo a la docencia se ofrecen los enlaces a gestores bibliográficos gratuitos,
como Refworks o Zotero. (Por otro lado, dedicamos un apartado en el módulo 2 a estos
materiales didácticos de apoyo a la elaboración de TFM.)

Introducción
1. Cómo se citan los documentos
2. Cómo se gestionan las referencias bibliográficas
3. Cómo se hace un uso ético de la información
3.1. Estrategias para hacer un uso ético de la información
3.2. Derechos de autor

Módulo 10. Cómo se puede estar al día

Este módulo introduce un conjunto de herramientas diseñadas para mantenerse


actualizado en un campo de investigación especializado. Las revistas y las bases de datos
de revistas científicas tienen sistemas de alerta para los temas a los cuales nos
subscribimos.

Introducción
1. Cómo se puede estar al día de la información especializada
1.1. Aviso de bases de datos de sumarios electrónicos
1.2. Alertas de bases de datos especializadas
1.3. Listas de distribución
1.4. Aviso de actualización de buscadores de web
2. Cómo se puede estar al día de las noticias en general
2.1. Bases de datos de prensa
2.2. Redes sociales y herramientas 2.0

Por otro lado, los estudiantes de la UOC han de tener presente que, además del servicio
de préstamo de la biblioteca de la UOC a través de los centros de apoyo, hay dos formas
alternativas de obtener libros. La UOC forma parte de la red de bibliotecas
universitarias catalanas y españolas. Esto quiere decir que se puede obtener cualquier
documento de esta red de bibliotecas a través del préstamo interbibliotecario. El
convenio con las bibliotecas universitarias catalanas permite realizar el llamado
préstamo in situ. Esto quiere decir que con el carné de estudiante de la UOC se puede
acceder a cualquier biblioteca universitaria catalana y pedir en préstamo libros u otros
documentos como fuera si la biblioteca de la UOC (la gestión de las renovaciones se
hace desde el aplicativo de la UOC y los documentos se pueden devolver en los centros
de apoyo). Esta facilidad es importante porque, a la hora de hacer investigación sobre
cualquier tema, es productivo dejarse llevar por la curiosidad y hojear los libros
cercanos a los que hemos encontrado inicialmente. Es muy frecuente que este tipo de
actividad nos proporcione nuevos puntos de vista, corrientes o autores relacionados con
el tema, pero de los que no habíamos tenido noticia.

Además, con el servicio de obtención de documentos (SOD) de la UOC se puede


acceder a copias escaneadas de artículos científicos que no están en el catálogo de la
UOC (normalmente este servicio tiene un coste que debe cubrir el estudiante).

30
© FUOC PID_00228045

5. La metodología de la investigación
¿Hasta qué punto un estudiante que tiene que hacer un trabajo de investigación se
tendría que preocupar por conocer la metodología que utiliza en su investigación? Es
cierto que hacer una investigación científica implica utilizar unos métodos de la forma
más rigurosa posible, pero, ¿se tendría que preocupar el estudiante por conocer el
trasfondo teórico, las disputas filosóficas, epistemológicas e ideológicas que se han
planteado (y a veces enquistado) en relación con la metodología de las ciencias
sociales?, ¿cuál es el punto óptimo de esfuerzo que tendría que hacer?, ¿se puede
ahorrar este tipo de cuestiones?

En esta sección se tratan estas cuestiones para ofrecer orientación y aconsejar sobre
cómo afrontarlas. Como en cualquier tema controvertido, cada lado de la disputa es en
cierta medida injusto y tendencioso con el opuesto; como en toda lucha retórica, se
caricaturizan las posiciones del contrario para hacerlas más fácilmente rebatibles (“la
primera baja de una guerra es la verdad”, reza el dicho). Por lo tanto, la principal
dificultad de esta sección será mantener la simplicidad necesaria para orientar y el
suficiente rigor para ser justos caracterizando las posiciones que enfrentadas.

La investigación anterior como guía para los métodos de investigación

En primer lugar, las cuestiones relacionadas con los métodos son básicas, porque como
ya hemos comentado, el método es lo que hace que ciencia sea ciencia. Esto significa
que para hacer investigación tenemos que preocuparnos por conocer, de la forma más
cuidadosa y profunda, las características del método que queremos usar.

Normalmente, la información sobre el método específico que conviene que usemos en


nuestra investigación proviene de la lectura de los artículos relacionados con el tema
específico de la investigación (este es uno de los aspectos clave que se han de tratar en
la fase de “revisión de la literatura relacionada”). Por un lado, los métodos que ya se
han usado en la investigación anterior en ese mismo campo son los candidatos ideales
para ser utilizados en la nuestra. Este punto de partida resulta obvio, porque las
investigaciones anteriores nos proporcionan orientación hacia los datos existentes, que
podrán ser utilizados para comprobar las hipótesis (qué tipo de formato, en qué nivel de
análisis, con qué niveles de medida) y los métodos se construyen para tratar un tipo de
datos específico. Naturalmente, una de las aportaciones de nuestra investigación puede
consistir en aplicar las innovaciones de los métodos desarrolladas en campos diferentes
del nuestro y que se pueden intentar aplicar a nuestro campo específico para resolver
algún tipo de problema que se haya planteado. Durante la investigación siempre se tiene
que mantener un espíritu crítico. En la investigación científica nada se da por sentado.
Todo se tiene que justificar.

Un ejemplo de innovación a partir de la utilización de métodos de análisis que provienen de


otros campos de estudio (aunque relacionados) es el de los métodos de cálculo para la toma de
decisión individual por medio de funciones conditional lògit, que se habían desarrollado en la
economía aplicada al transporte y en el marketing, y han permitido formular modelos empíricos
mejor conectados con los modelos teóricos de la competición partidista espacial (ver por
ejemplo: Álvarez y Nagler, 1998).

31
© FUOC PID_00228045

En general, la aportación de nuestra investigación puede provenir de cualquier cambio


en la especificación de los modelos de análisis que mejoren la relación entre las
proposiciones derivadas del modelo teórico y la base empírica de la investigación. Otra
contribución puede ser disponer de nuevos conjuntos de datos empíricos para
comprobar las hipótesis planteadas a partir de nuestras preguntas. Estos cambios en el
método pueden ir vinculados también a cambios en el método de análisis, que pueden
contribuir a hacer todavía más interesante la investigación que se lleva a cabo.

Por otro lado, la investigación previa publicada nos sirve también como guía para
encontrar los textos de referencia básicos en relación con las técnicas de análisis que
usaremos. Los mismos textos contienen normalmente resúmenes de las técnicas en el
apartado dedicado al método (que podemos utilizar como guía para redactar la parte del
método de nuestro trabajo), pero si lo que queremos es tener una idea precisa de cómo
aplicar la técnica específica a nuestro caso, tendremos que ir más allá de lo que se
describe en los artículos publicados.

En cualquier caso, es fundamental conocer lo mejor posible los métodos que se han
utilizado en la investigación relacionada para poder hacer nuestra investigación. De
hecho, es conveniente estar actualizado en cuanto a las técnicas de análisis que se
utilizan en nuestro campo de análisis más general (y en otros campos también), porque
es una vía muy clara para introducir innovaciones valiosas en nuestra investigación.
Esta es una de las razones por las que algunas de las revistas más valoradas de la
profesión de politólogo se dediquen a los métodos de análisis (por ejemplo, Political
Analysis).

La elaboración de un trabajo de investigación normalmente comporta una cierta


limitación en el tiempo. Por eso tenemos que asegurarnos de familiarizarnos con los
elementos clave del método poder seguir las “recetas” de los métodos eficazmente y ser
capaces de argumentar para defender nuestros hallazgos. Dada la urgencia del trabajo de
investigación, es muy conveniente también seguir el consejo del director de
investigación en cuanto a los métodos y las fuentes de datos. Solo cuando el estudiante
esté realmente familiarizado con el tema escogido y con los métodos utilizados tiene
sentido plantear investigaciones que modifiquen significativamente los diseños
anteriores. Reproducir (replicar) un estudio que ya han hecho otros investigadores (con
otro conjunto de datos o con el mismo conjunto de datos, pero manteniendo el mismo
método de análisis) es en sí mismo un ejercicio bastante interesante para aprender a
hacer investigación. De hecho, el reconocido politólogo de Harvard Gary King (2006)
plantea este ejercicio (ya frecuente en otros campos de estudio, como la econometría) a
sus estudiantes como trabajo de curso.

La conveniencia para el estudiante de TFM de conocer los debates sobre los


métodos

Tal como ya se ha planteado, para adquirir el conocimiento sobre los métodos que
permiten llevar a cabo una investigación no es imprescindible tener un conocimiento
profundo de las discusiones metodológicas y filosóficas que dividen las ciencias
sociales. Para avanzar basta con usar el trabajo anterior como base o como modelo a
imitar. Aparentemente, habría que evitar entrar en los debates hasta cierto punto
abstrusos y que requieren un cierto esfuerzo para ser dominados. Al menos en un primer
momento, este es un atajo útil.

32
© FUOC PID_00228045

Pero precisamente porque la cuestión metodológica es un “campo de minas”, esta


recomendación es en cierta medida insuficiente para hacer un trabajo de investigación
con garantías. Es importante estar familiarizado acerca de dónde se sitúa nuestra
investigación para poder defenderla, evitar traspasar esas posiciones que conducen a
malentendidos entre los lectores, que nos puedan comprometer o que muestren nuestra
ignorancia sobre una de las disputas básicas de nuestra disciplina. Es conveniente que el
investigador tenga mínimamente claras unas cuántas pistas que le permitan reconocer
los principales accidentes del paisaje donde tiene lugar la batalla metodológica y cuáles
son las posiciones de los bandos enfrentados.

A continuación se presentan los elementos clave de las divisiones metodológicas


básicas. El objetivo es aclarar un poco y dar sentido a las posiciones que se encuentran
enfrentadas y las razones que aducen en su favor. Se trata de cuestiones que, por
básicas, se dan por supuestas en un debate ciertamente antiguo, pero que si no se
conocen o refrescan, pueden hacerlo más confuso.

Los desacuerdos fundamentales de la metodología social y política

La línea divisoria que separa las principales corrientes o bandos en las ciencias sociales
se sitúa en la creencia de nuestra capacidad para conocer la realidad social y
transformarla. El conflicto es en última instancia ideológico, porque hace referencia al
papel de la ciencia en la mejora social. Desde la izquierda, la posición política que
defiende la reforma y la igualdad social, se acostumbra a criticar la posición naturalista-
positivista de las ciencias sociales, que tiende a planteamientos cuantitativos en la
comprobación empírica (es decir, usa la estadística como fundamento para la inferencia
empírica) y utiliza el modelado formal (a menudo con una marcada sofisticación
matemática de la teoría de juegos) para formular las teorías o explicar las relaciones
entre las variables de estudio.

Se acusa a este planteamiento de ser cientifista, es decir, de suponer dogmáticamente


que el método de las ciencias naturales es el que se tiene que aplicar a las ciencias
sociales, y de ser reduccionista en el sentido de suponer que la ciencia empírica
cuantitativa es la única forma e conocimiento auténtico de la realidad. Este enfoque
sería conservador porque, más que preocuparse por descubrir y desenmascarar las
interpretaciones tradicionales y socialmente admitidas de la realidad, utiliza estas
interpretaciones como presupuestos de los modelos de descubrimiento de la realidad, de
forma que implícitamente los legitima. El enfoque se escuda en el prestigio que ha
adquirido la ciencia en nuestra sociedad para crear explicaciones altamente tecnificadas
de la realidad, cosa que las hace invulnerables a la crítica y que, en el fondo, legitiman
el statu quo. La izquierda contemporánea contrapone a esta posición cientifista de las
ciencias sociales la idea de una ciencia crítica, interesada sobre todo por las claves de la
interpretación de la realidad social.

Esta crítica se basa en una simplificación. Dentro de las corrientes de análisis de la


realidad social y política que podemos identificar como naturalistas, conviven una gran
diversidad de posiciones y matices que muchas veces están enfrentados entre ellos
mismos. Por ejemplo, Barry (1989) opina que la corriente de raíz sociológica parte en
buena medida de las posiciones intelectuales contrarrevolucionarias, que destacan las

33
© FUOC PID_00228045

características de la sociedad civil, las leyes sociales, como opuestas al esfuerzo


revolucionario que proviene de la Ilustración y que pretende mejorar la sociedad a
través de la transformación de las instituciones políticas y sociales. Por el contrario, los
modelos económicos de la sociedad, que han dado lugar a los modelos de la elección
racional (rational choice), hunden sus raíces precisamente en estas posiciones
revolucionarias ilustradas que quieren cambiar la estructura de la gobernación del
estado para transformarlo.

En efecto, se ha producido una inversión en el pensamiento de la izquierda después de


la modernidad. La reforma política y social en un principio se había identificado con el
racionalismo, la Ilustración. El poder de las luces tenía que deshacer las tinieblas de las
sociedades tradicionales dominadas por el mito, la ignorancia y la tradición. Por
ejemplo, la versión más determinista y economicista de Marx veía en la transformación
de las fuerzas productivas el camino imparable hacia la revolución y el paraíso
comunista.

El desencanto del pensamiento de izquierda sobre la capacidad de la tecnología para


transformar nuestras sociedades proviene de las experiencias traumáticas de las guerras
mundiales del último siglo, de los regímenes fascistas, comunistas y tecnocráticos que
condujeron a estos conflictos, de comprobar con qué facilidad la tecnología científica se
ha adaptado e incluso ha reforzado los sistemas de dominación social tradicional. La
respuesta de las izquierdas ha sido interrogarse cómo se constituyen los sistemas de
dominación a partir de la construcción del sentido dentro de la sociedad.

Esto explica la vinculación de las nuevas corrientes de las ciencias sociales de izquierda
(el feminismo, los estudios de liberación homosexual, el posmodernismo y el
postestructuralimo) con las corrientes metodológicas interpretacionistas en vez de con
las positivistas. Estas corrientes de izquierda se han preocupado más por los errores en
la formulación de los problemas (que Raïffa denominó errores de tipo III) que por los
errores en la respuesta a estos problemas (los clásicos errores estadísticos de tipos I y II)
(1968, pág. 264, nota a pie de página).

Desacuerdos ontológicos y epistemológicos

Las diferencias entre las metodologías de las ciencias sociales se relacionan con dos
cuestiones interconectadas. Primero, difieren en la forma en que creen que está
constituida la realidad social y política: ¿qué es la realidad política y social? Esta es la
cuestión ontológica (o, sobre la naturaleza de lo que existe). Ligado directamente con
esta cuestión, existen diferencias sobre cómo creen que se puede entender o comprender
esta realidad política y social. Esta es la cuestión epistemológica (o, de la teoría del
conocimiento). La controversia consiste en hasta qué grado se admite que los hechos
sociales y políticos son parecidos a los hechos naturales y, por tanto, pueden ser
estudiados a través de los métodos de estas ciencias naturales. El elemento clave es si es
posible lograr en las cuestiones políticas y sociales el mismo grado de objetividad que
se puede lograr en las ciencias naturales. ¿Hasta qué punto la realidad política y social
puede ser percibida sin sesgo, como un objeto exterior al propio investigador?, ¿es
posible una percepción e interpretación de la realidad social que no esté inevitablemente
“filtrada” o “modificada” por los valores personales y las experiencias vividas por los
investigadores, cuando esta realidad está constituida esencialmente por percepciones e
interpretaciones?

34
© FUOC PID_00228045

La línea divisoria fundamental se encuentra, pues, entre el paradigma positivista-


objetivista y el paradigma interpretativista o hermenéutico, más que en la distinción
entre una investigación de tipo cuantitativo o de tipo cualitativo, que es la etiqueta que a
menudo aparece en el debate (Della Porta y Keating, 2008, pág. 27).

Para Yanow (2005, pág. 204): “La distinción entre investigación cualitativa y
cuantitativa es errónea y desorienta”. Plantea que solo existen dos modelos de hacer
investigación. Según esta visión, mientras que los investigadores cuantitativos solo
hacen interpretaciones, los investigadores cualitativos solo cuentan. No obstante, esto
casi nunca es cierto puesto que, por un lado, normalmente los investigadores
cuantitativos tienen que interpretar los coeficientes y los resultados que han obtenido en
sus investigaciones. ¿Hasta qué punto un coeficiente es relevante desde el punto de vista
de la cuestión que se está estudiando? Precisamente cuando no se hace este tipo de
calificación o de interpretación se cae en uno de los defectos de la investigación
cuantitativa: el hiperfactualismo o la “cuantificación por la cuantificación”, que
difícilmente ayudará a que avance el conocimiento en un campo concreto. Por otro lado,
hay muchos investigadores cualitativos que cuentan (utilizan tablas y representaciones
gráficas), puesto que con números se puede resumir y representar la información de una
forma compacta y conveniente. Como dice el proverbio chino de las imágenes, un
gráfico vale más que mil palabras.

La divisoria trata pues sobre el carácter de la realidad social y cómo se tendría que
conocer.
“Lo que normalmente se denomina investigación «cuantitativa» se apoya en unos supuestos
ontológicos y epistemológicos objetivistas-realistas; estos derivan del desarrollo del pensamiento
científico asociado con las tres escuelas de filosofía positivista del siglo XIX, y el positivismo
lógico y el trabajo de la filosofía analítica concomitante de principios del siglo XX. La
investigación «cualitativa», en la forma de los estudios de campo de la Escuela de Chicago (que
comportan la observación participativa, las etnografías y los estudios de caso de «una sola n»),
se basa en los presupuestos ontológicos constructivistas y unos presupuestos epistemológicos
interpretativistas. Estos se relacionan con las filosofías neokantianas europeas del siglo XX
(hermenéutica, fenomenología y alguna filosofía crítica) y con los desarrollos americanos en
etnometodología, interaccionismo simbólico y pragmatismo.”

Yanow (2005, pág. 204).

El positivismo supone que la neutralidad en el trabajo de investigación se puede lograr y


se logrará cuando se apliquen meticulosamente los procedimientos prescritos por el
método científico. Los investigadores que siguen un punto de vista interpretativista-
hermenéutico, en cambio, creen que nadie puede ir más allá de uno mismo. Pero de
forma análoga a cómo lo hacen los investigadores en el enfoque positivista, los
investigadores interpretativistas buscarán formas que permitan convencer al resto de la
comunidad científica de que la interpretación de las interpretaciones que están
ofreciendo no es simplemente el producto de una mera ilusión subjetiva o de la
casualidad. Por ejemplo, explicarán cuáles son sus experiencias o sus puntos de vista
previos sobre el tema que se está estudiando. Seguir este método ofrece al lector la
posibilidad de comprobar si los resultados a los que llega el investigador pueden ser
producto de sus prejuicios. Proceder de esta forma responde a las mismas necesidades
funcionales que los métodos utilizados en el enfoque positivista. Se trata de garantizar
que el resto de la comunidad científica pueda controlar la forma en que y en base a qué

35
© FUOC PID_00228045

información se basan las interpretaciones. La intersubjetividad es un rasgo esencial en


todo trabajo científico; es necesaria una comunidad que disponga de toda la información
para poder evaluar los argumentos y las evidencias sobre las que se basan.

Las versiones más radicales del paradigma interpretativista suponen que las
interpretaciones que se hacen del mundo en la investigación científica lo afectan. Esto
implica que no hay una forma objetiva de contrastar la verosimilitud de la investigación
que se plantea y, por lo tanto, no hay forma de diferenciar este tipo de enfoque de un
discurso puramente político que pretende cambiar el mundo. Al igual que las críticas
que recibía Picasso por el poco parecido de su retrato de Gertrude Stein con la
verdadera Gertrude Stein, este tipo de planteamiento siempre puede decir que “todavía
no se asemeja, pero ya se asemejará”.

En esta versión del paradigma interpretativista no es posible recurrir a los tests


empíricos para comprobar que la explicación de la realidad que se ofrece es correcta,
dado que se desconfía de la capacidad de los procedimientos tradicionales de las
ciencias sociales para capturar la auténtica complejidad de la realidad política y social.
Se sospecha que las formas desarrolladas para garantizar la objetividad y
contrastabilidad de la investigación en esta tradición (la conceptualización, la
operacionalización y medida de las variables) solo son una forma de camuflar puntos de
vista sesgados o partidistas.

De todas formas, en estos planteamientos interpretativistas sí que existe un esfuerzo –


característicamente, mucho menos codificado y tipificado que en los procedimientos del
paradigma positivista– por mostrar que la información sobre la que se basa la
argumentación es convincente porque es más rica y compleja que la que utilizan las
explicaciones alternativas.

Por ejemplo, el analista de políticas Flyvbjerg (2001, pág. 4) propone que “la
racionalidad instrumental” sea reequilibrada por una “racionalidad-de-los-valores” o
“frónesis” aristotélica, para tener en cuenta la “felicidad sostenida de los ciudadanos de
cualquier sociedad”. Esta posición significa que, a pesar de que los resultados de los
análisis más “directos” o “duros” puedan ir en contra de lo que el autor está convencido
que es la verdadera necesidad social, tendrá que persistir en su recomendación y mostrar
que su análisis tiene en cuenta muchos más elementos y es más fino (incorporando, por
ejemplo, la estructura de poder subyacente al problema estudiado) que el diagnóstico
que es capaz de ofrecer un típico análisis basado en un esquema positivista tradicional.

Por otro lado, tal como muestra David Laitin (2003), los argumentos que utiliza
Flyvbjerg para justificar no tratar de forma científica (positiva) su caso de estudio (la
planificación de la ciudad de Aalborg, en Dinamarca) son débiles y poco convincentes.
Para Laitin, la interpretación narrativa (que correspondería a la frónesis de Flyvbierg)
puede y debería ser incorporada de forma complementaria a las explicaciones científicas
de la realidad política y social. Laitin defiende lo que él denomina método tripartito. En
dicho método se encuentran en pie de igualdad, en primer lugar, las aportaciones del
modelado formal de la teoría de juegos; en segundo lugar, la estadística como método
de describir y comprobar las hipótesis derivadas de los modelos formales y, finalmente,
la interpretación narrativa. Para Laitin la complejidad de la realidad política y social no
es una barrera infranqueable para el conocimiento científico empírico o positivo,

36
© FUOC PID_00228045

aunque cree necesario que se utilicen diferentes métodos, desde los tradicionales
cuantitativos, hasta los cualitativos o interpretativos.

Los elementos básicos del método estadístico

En el núcleo de la perspectiva metodológica cuantitativista de las ciencias sociales está


la confianza en la utilización del método estadístico. Es interesante entender las
razones que están tras la forma en que el método estadístico entiende la realidad para
descubrir sus claves (es decir, cuál es su estrategia epistemológica), porque ello nos
permitirá comprender tanto a los cuantitativistas y sus razones, como las razones que
esgrimen los cualitativistas para oponerse a estos. Ante todo se tiene que reconocer que
la estrategia cuantitativista o estadística es una estrategia epistemológica pensada para
tratar la complejidad, ya sea para estudiar los errores en las medidas de las variables o
cuando las relaciones que se quieren estudiar son complejas porque existe
multicausalidad.

Los mismos científicos sociales que siguen la metodología cuantitativa son poco
conscientes de este objetivo central de la estrategia estadística de tratar la complejidad.
Hay una tendencia a entender esta estrategia como natural y esencialmente no
problemática, una rutina en la investigación científica. Por ejemplo, en el llamado
cientificismo se acepta de forma ingenua que esta estrategia de conocimiento
simplemente refleja una realidad ontológica. Las unidades de análisis sobre las que se
realizan las observaciones de las variables son unidades naturales en las que se miden
las variables y donde se pueden establecer leyes generales, tal como la filosofía de la
ciencia neopositivista ha definido las explicaciones científicas (Hempel, 1979).

La carencia de un reconocimiento claro de cuáles son las características de este enfoque


epistemológico, confundirlas con la realidad (pensar que es la forma natural e inevitable
de hacer ciencia), limita la capacidad persuasiva de los cuantitativistas para hacer frente
a algunas de las críticas que se hacen al método estadístico desde el punto de vista
cualitativista, que ven el método estadístico solo una forma rutinaria y mecanicista de
entender la realidad política y social.

La estadística y el tratamiento del error de medida

Podemos entender mejor la estrategia de conocimiento de la estadística si entendemos


su origen (ver, por ejemplo, Peña, 1993, pág. 32-41). La estadística actual sirve para
obtener conclusiones de la investigación empírica mediante la utilización de modelos
matemáticos. Aparece con la convergencia de dos disciplinas: el cálculo de las
probabilidades (que empezó en los siglos XVI y XVII como una teoría matemática de los
juegos de azar) y la estadística (un conjunto de técnicas utilizadas para describir grandes
cantidades de datos económicos, demográficos o sobre criminalidad, con un gran interés
en el ejercicio del poder político). Entre los siglos XVIII y XIX, los desarrollos de la física
bajo el nuevo paradigma newtoniano hicieron necesario contrastar las predicciones de la
teoría con la observación y la experimentación. Para tener unas estimaciones más
refinadas de determinados valores de las variables, se planteó el problema de combinar
diferentes medidas y así fue como nació la teoría del error de medición, crucial en el
desarrollo de la estadística actual gracias a las aportaciones de Bernoulli, Laplace o
Gauss (ver también la historia de la cuantificación en las ciencias sociales que hizo

37
© FUOC PID_00228045

Lazarsfeld –1961–, donde esta aparece en la confluencia entre el cálculo de


probabilidades y el aristotelismo).

El error de medición consiste en sobrestimar o subestimar el valor de la variable que


queremos estudiar y es producto de los defectos que tienen los instrumentos de medida
o la presencia de variables que no se han controlado. Pero si consideramos que los
errores de medición no son sistemáticos (es decir, no siempre van en un sentido; no
siempre añaden o restan una cierta cantidad a la medida real), sino que son aleatorios (a
veces añaden y a veces restan a la medida real), entonces podemos considerar que se
comporta como una variable aleatoria. Esto quiere decir que, si conseguimos tener un
número suficientemente grande de observaciones del experimento, seremos capaces de
medir el valor real de la variable. La ley de los grandes números nos garantiza que, a
medida que crece el número de observaciones de una variable aleatoria, el valor de esta
tiende a parecerse (a converger) a la variable real.

Valor medido, observación (y) = valor real (parte sistemática, predecible) + error de medida
(parte aleatoria, no predecible)

Esta forma de entender el error de medición inherente a toda observación empírica


explica la primera estrategia característica del enfoque estadístico: la conveniencia de
realizar una gran cantidad de medidas de las variables que nos interesan en las unidades
de análisis elegidas. Como veremos más adelante, esta concepción epistemológica se
encuentra ligada a una concepción ontológica: las observaciones de las variables se han
de realizar en múltiples unidades de análisis. Por ellas mismas, estas unidades de
análisis no son relevantes, solo son un sustrato neutro del que “penden” los atributos o
variables. Las unidades de análisis son un lienzo en blanco en el que se depositan los
colores de las variables.

La estadística como modelo de la complejidad

La estadística dio un paso importante en el camino hacia su forma actual cuando se usó
para contrastar la teoría de la evolución de las especies de Darwin. La contrastación de
la teoría tenía que ser estadística, porque las predicciones no se hacían en relación a los
individuos, sino a poblaciones enteras (así, se cumplía de forma natural la condición de
múltiples unidades de análisis que se referían a una misma población y en la que
esencialmente no diferían). Por otro lado, la variabilidad individual podía ser analizada
como una variable aleatoria análogamente al término de error. Esta vía sirvió para tratar
estadísticamente la existencia de complejidad causal en la relación entre las variables.

El estudio de sir Francis Galton (primo de Darwin) sobre la relación que existía entre la
altura media de los padres y la altura de los hijos le sirvió para plantear el modelo de
regresión. Por un lado, la altura de los padres (la herencia genética) explica una parte
de la de los hijos. Por otro lado, por cada altura media de los padres existe una
distribución de alturas que sigue una distribución normal y que es producto de la
existencia de otras muchas variables que pueden incidir en la altura que alcanza un
individuo en una población. El régimen alimenticio que ha tenido el individuo, las
enfermedades que ha sufrido, el estilo de vida o la práctica de ejercicio físico son causas
que pueden incidir a lo largo de la vida en la capacidad del individuo de alcanzar una
determinada altura. En conjunto, el efecto de estas variables se puede definir por una
distribución aleatoria: la distribución normal.

38
© FUOC PID_00228045

Alturas de los hijos


Distribución
normal de las
Línia de observaciones
en el eje de la y
regresión por cada valor
de las x

Media de las alturas de los


padres
Figura 2. Modelo de regresión

En el modelo de regresión representado en el gráfico anterior, la línea de regresión


representa la predicción de la altura del individuo según la media de las alturas de los
padres. Los puntos de la recta son las alturas más probables de los individuos según los
diferentes valores de las medias de las alturas de los padres. Por cada media de alturas,
hay un valor previsto (la media condicional). Es decir, no todos los individuos reales
observados tienen el valor previsto, sino que varían alrededor de este valor. El modelo
de regresión supone que estos casos siguen una distribución aleatoria normal que refleja
la multiplicidad de causas que intervienen en las alturas individuales (aparte de la carga
genética). La ecuación de regresión formaliza esta idea:

Altura de los hijos (y) = media de las alturas de los padres (x) + error (multiplicidad de
causas no medidas)

Las críticas que se acostumbran a hacer del método estadístico no tienen en cuenta el
hecho de que el modelo incorpora de forma muy clara y precisa la multiplicidad de
causas y la incertidumbre en la medida. Precisamente, esta ventaja de la claridad formal
de la metodología cuantitativa ha hecho pensar a algunos metodólogos, como King,
Keohane y Verba (KKV), que debería servir de guía para los investigadores
cualitativos.

La inferencia estadística y las unidades de análisis

En el enfoque estadístico, la inferencia científica (es decir, la forma de establecer la


existencia de una relación causal entre unas variables) se fundamenta en la medida de
las variables de interés en una gran cantidad de unidades de análisis (casos o individuos)
que se supone que son esencialmente homogéneos e independientes entre ellos. Esta
estrategia hace posible resolver el problema fundamental de la inferencia estadística
(según la denominación de Holland en 1986) y que consiste en que los efectos causales
no pueden ser observados a nivel individual. No es posible calcular directamente el
efecto de una variable observando de qué manera ha afectado a un caso o individuo y
restando el efecto de esta variable.

Por ejemplo, es posible medir la opinión que un individuo tiene sobre un determinado
candidato una vez se le ha proporcionado un determinado tipo de información sobre su

39
© FUOC PID_00228045

vida privada, pero no es posible medir la opinión del mismo individuo sin haber
recibido el tratamiento. Para inferir que una causa (información sobre la vida privada de
un candidato) ha ejercido un efecto sobre un individuo, tenemos que imaginar cuál
habría sido el valor de la variable que nos interesa (la opinión sobre el candidato) en el
supuesto de que no hubiera recibido dicha información. Este es el contrafactual.

Formalicemos un poco esta idea. A nivel individual, el efecto causal∂ sobre el


individuo y es la diferencia entre la variable de resultado Y, cuando la variable
experimental D se aplica (D = 1), y la variable de resultado Y cuando la variable de
tratamiento no se aplica (D = 0):

∂i = yi1 – yi0.

En filosofía, el planteamiento contrafactual dice que unos acontecimientos tienen una


relación de causa y efecto, c causa e, si (1) c y e suceden y (2) si c no hubiese sucedido
y todo el resto hubiera continuado siendo igual, entonces e tampoco habría sucedido
(para tratamientos de los contrafactuales en diferentes campos científicos, ved Morgan y
Winship, 2007).

Tabla 1: el problema fundamental de la inferencia causal


Grupo Y1 Y0
Grupo de tratamiento (D = 1) Observable como Y Contrafactual
Grupo de control (D = 0) Contrafactual Observable como Y

El supuesto de homogeneidad esencial de las unidades de análisis de estadística es la


estrategia que le permite superar la imposibilidad de observar a los individuos
simultáneamente en los dos estados: el grupo de individuos tratados no puede ser
observado sin tratamiento y los individuos del grupo de control no pueden ser
observados siendo tratados (las diagonales de la tabla 1). Pero si los individuos, las
unidades de análisis, son esencialmente homogéneos, y por tanto, intercambiables,
podemos calcular el efecto del tratamiento a base de calcular la diferencia entre el valor
más representativo del grupo de control (la media del grupo de control) respecto de la
media del grupo de tratamiento.

El enfoque estadístico se centra en la estimación de los efectos causales agregados. Se


puede usar el operador de expectativa (E[.]) de la teoría de la probabilidad para
identificar la media de efecto de un tratamiento en una población:

E[∂] = E [Y1 – Y2] = E [Y1] – E[Y2].

Las expectativas de la ecuación se definen en relación a la población de interés. El


subíndice de la ∂ desaparece en estas ecuaciones porque la diferencia no se refiere a un
individuo, sino a la media de la diferencia de la población. El “supuesto de valor estable
de unidad de tratamiento” (SVEUT) (Rubin, 1986) es un supuesto de básico de
estabilidad del efecto causal que requiere que los resultados potenciales de los
individuos no se vean afectados por los cambios potenciales en las exposiciones al
tratamiento de los otros individuos (Rubin, 1986, pág. 961):

SVEUT es simplemente el supuesto a priori de que el valor de Y en cada unidad u cuando se


expone al tratamiento t será el mismo sin que importe qué mecanismo se use para asignar el
tratamiento t a la unidad u, sin que importe qué tratamientos reciban las otras unidades.

40
© FUOC PID_00228045

Este supuesto es muy restrictivo, pero muestra las limitaciones que tienen los datos
observacionales y las limitaciones para modelar relaciones causales. Para Morgan y
Winship (2007) los investigadores tendrían que tener presente hasta qué punto el
SVEUT es plausible en cada aplicación y utilizar la reflexión para discutir el significado
y el alcance del efecto causal estimado.

La medición de los conceptos: variables, indicadores e índices

La otra estrategia característica del método estadístico para enfrentarse a la complejidad


de los fenómenos políticos y sociales reside en la medición de los conceptos con los
que se construyen las teorías y las explicaciones. El enfoque estadístico aplicado a las
ciencias sociales reconoce que una diferencia crucial con las ciencias naturales es la
dificultad para encontrar las propiedades estratégicas que tienen que ser observadas para
poder hacer el mismo tipo de inferencias que en el resto de las ciencias sociales
(Lazarsfeld, 1985).

Excepto por los conceptos más simples, las medidas que se pueden proponer para los
conceptos utilizados en las ciencias sociales son problemáticas: son incompletas,
parciales o son inciertas, no conocemos el grado de error que contienen.

Por ejemplo, ¿cómo se puede medir el nivel de satisfacción de un servicio público y,


en particular, un servicio de ocupación? Este concepto de satisfacción es complejo.
Podemos pensar en muchos aspectos diferentes que puedan afectar al grado de
satisfacción, que se han tener en cuenta a la hora de medirla, y ver si esta satisfacción ha
crecido o no: la calidad de las orientaciones laborales dadas, el tiempo de espera, la
pulcritud de las instalaciones, la empatía en el trato, etc.

Otro ejemplo típico de los estudios comparados de ciencia política es el concepto de


democracia. Por ejemplo, se pueden tener en cuenta aspectos institucionales, aspectos
de funcionamiento de estas instituciones y otros actores básicos en el proceso
democrático, tales como la pulcritud en la convocatoria y desarrollo de las elecciones, o
el grado de independencia y fragmentación de los medios de comunicación; finalmente,
se puede tener en cuenta el grado de apoyo entre las poblaciones a las instituciones
democráticas (ver Coppedge y cols., 2011).

Como se reconoce esta complejidad básica de los conceptos de las ciencias sociales para
operacionalizar las variables (que es el proceso para convertir en medibles los
conceptos teóricos), se piensa en el método estadístico como un proceso complejo que
empieza por obtener los mejores indicadores de los diferentes factores que se pueden
considerar analíticamente en los conceptos, para después pasar a la síntesis de estos
indicadores en índices y escalas. Es un caso de la vieja estrategia del divide et impera.
Si queremos medir un concepto y lo podemos dividir en diferentes factores, de los que
podemos encontrar indicadores observables que los midan con precisión y fiabilidad,
después podremos calcular índices o escalas que midan de forma más válida el
concepto. A partir de esta, se podrá comprobar las hipótesis que se derivan de nuestras
teorías. Se podrá comprobar que las explicaciones que ofrecemos de la realidad son las
adecuadas.

41
© FUOC PID_00228045

“La especificación del concepto empieza precisamente con el análisis de los componentes de la
noción conceptual (aspectos o dimensiones). Estos componentes pueden ser deducidos
analíticamente a partir del concepto general o empíricamente a partir de la estructura de sus
interrelaciones. De todas formas, un concepto corresponde casi siempre a un conjunto complejo
de fenómenos y no a un fenómeno simple y directamente observado [...]. Por ejemplo,
rendimiento laboral, velocidad de trabajo, calidad del producto, rentabilidad de los productos de
inversión [...] la teoría de la medida atribuye a estos factores el nombre de dimensiones, su
análisis es muchas veces un problema complejo.”

Boudon y Paul Felix Lazarsfeld (1985, pág. 37).

Entre las ciencias sociales, la disciplina pionera en llevar a cabo esta estrategia fue la
psicología (específicamente, la psicometría). La economía y la psicología han sido las
dos disciplinas pioneras en la cuantificación de les ciencias sociales. El ejemplo más
claro de esta estrategia es la de la medida de la inteligencia. Por la misma influencia de
la psicología en la sociedad, se ha acabado aceptando en la práctica corriente que la
inteligencia se mide a través del coeficiente de inteligencia. De hecho, casi se tiene que
hacer un esfuerzo para recordar que la inteligencia es una noción que proviene “de una
impresión compleja y concreta de la vivacidad o el abotargamiento mental”. Como
sabemos, los tests de inteligencia no son otra cosa que el resultado de un conjunto de
pruebas o diferentes indicadores que se supone que miden diferentes componentes de la
inteligencia: la inteligencia verbal, que mide la riqueza y la utilización del vocabulario;
la inteligencia lógica, que se mide con el cálculo lógico y numérico; la inteligencia
manual o visual, etc. El coeficiente de inteligencia resume los resultados de cada una de
las pruebas en una síntesis ponderada en un único valor.

Lo que ha de retenerse de esta estrategia de hacer frente a la complejidad es que “dado


que la relación entre cada indicador y el concepto fundamental en el que estamos
interesados está definida en términos de probabilidad y no de certeza, es completamente
necesario usar, en la medida posible, un gran número de indicadores” (Boudon y Paul
Felix Lazarsfeld, 1985, pág. 38).

Disponer de muchos indicadores incrementa tanto la validez como la fiabilidad de las


medidas de los conceptos. Si los indicadores están medidos de forma correcta, los
índices y las escalas que resultan de agregarlos tienden a medir mejor los conceptos que
pretenden medir (validez), y estas medidas son más estables, no se ven tan afectadas por
los errores aleatorios de medida (fiabilidad). Este es el concepto de crear un “universo
de atributos” para cada fenómeno (Barton, 1985, pág. 113-128). El análisis dimensional
permite poner de manifiesto la existencia de afirmaciones contradictorias respecto de
los diferentes conceptos. “La función esencial de la cuantificación [es] depurar la
connotación de las nociones tomadas del lenguaje corriente, con el fin de eliminar
proposiciones contradictorias” (Boudon y Paul Felix Lazarsfeld, 1985, pág. 16).

En el figura 3, se esquematiza esta estrategia del campo de indicadores en la medida de


las ciencias sociales. Muestra cómo los conceptos se analizan en la mayor cantidad de
dimensiones que es posible distinguir y que cubren de forma completa el concepto
latente. Un golpe se tienen las dimensiones, se pueden encontrar los indicadores visibles
y finalmente se pueden usar ciertos algoritmos para crear índices y escaleras que
recuperen el concepto.

42
© FUOC PID_00228045

Dimensió indicador Índice /


Concepto
n1 1 escala 1

Dimensió indicador
n… …

Dimensió indicador
nn n

Análisis Análisis Síntesis

Figura 3. Esquema del proceso de operacionalización y medida de conceptos.

En resumen, esta sección ha argumentado que la estrategia estadística para afrontar la


complejidad de la realidad política y social no es en absoluto ingenua. Plantea de forma
directa los problemas que aparecen al tratar de medir la complejidad a través de dos
formas: primero un control del error de medición y de la multicausalidad a través de
multiplicar las unidades de análisis; en segundo lugar, afronta la complejidad de las
medidas de los conceptos políticos y sociales a través de la fragmentación en
dimensiones esenciales y el establecimiento de indicadores para cada dimensión. La
combinación de las dos formas de tratar la complejidad es muy potente y proporciona
una gran capacidad de control a la verificación empírica de las teorías politológicas y
sociológicas.

Estos procedimientos de la cuantificación son una forma de “objetivar” la investigación,


puesto que permiten ser transparentes a la crítica y revisión del resto de la comunidad
científica. Por un lado, describen de forma completa cuál es la población de objetos en
los que se producen los fenómenos que se quiere estudiar y cuáles son los casos (la
muestra) que se utilizarán para medirlos. Por otro lado, describen minuciosamente cómo
se han medido las variables, las dimensiones que se han tenido en cuenta y los
indicadores que resultan de la medición. Una vez realizadas estas medidas en los casos
que hemos seleccionado, se puede controlar la calidad con diferentes procedimientos.
La observación de la distribución de los casos para cada variable permite comprobar la
validez a simple vista de la medida: ¿hay casos extraños o casos que conocemos bien y
que no respetan el orden que deberían tener? Además, la correlación entre diferentes
medidas permite ver si estas tienen la relación que teóricamente deberían tener (validez
construida).

Estas ventajas de la metodología cuantitativa aplicada a las ciencias sociales son


importantes y explican buena parte del prestigio y el favor que disfruta entre los
investigadores de estos ámbitos.

Otra ventaja importante de la metodología cuantitativa proviene del tipo de


explicaciones causales que construye. Estos tipos de explicaciones permiten elaborar
predicciones sobre los cambios en el mundo que resultarían de la manipulación de los
valores de las variables en un determinado caso. A partir de este planteamiento se
pueden formular y diseñar políticas públicas donde algunas variables son entendidas
como instrumentos que pueden ser manipulados para modificar los estados de la
realidad y, así, resolver o mitigar necesidades y problemas percibidos. Dado que la
metodología cuantitativa está conectada directamente con la vocación práctica de las

43
© FUOC PID_00228045

ciencias sociales, también es normal que tienda a ser preferida para recibir el apoyo y
financiación de los poderes públicos que quieren mejorar las políticas públicas que
llevan a cabo.

La otra cara de la moneda es que la existencia de estas reglas de funcionamiento


claramente codificadas hacen fácil caer en la tentación de convertir el método
estadístico en un sistema mecánico, casi automático, rutinario e irreflexivo para realizar
trabajos de análisis de la realidad irrelevantes y triviales. Esto pasa en algunos estudios
de encuestas donde se hace un buen esfuerzo por cuantificar algunos factores
relacionados con los fenómenos que nos interesan y se miden a una muestra
representativa, pero todo ello no sirve para avanzar o responder preguntas relevantes.

La tentación de cuantificar irreflexivamente se refuerza por el hecho de que el sistema


de valoración de los trabajos científicos tiende a recompensar los trabajos con un
marcado desarrollo metodológico. La metodología de una investigación es un indicador
de su calidad; es decir, un trabajo científico de calidad normalmente tiene una
metodología muy completa, está diseñada de forma que liga lógicamente los hallazgos
con los objetivos de la investigación y los procedimientos establecidos en el campo se
siguen con cuidado y meticulosidad. Este indicador es bastante más fácil de medir y
menos arriesgado para un académico que la calidad real de una investigación concreta:
su capacidad de hacer aportaciones al campo científico. Esto conduce a que se
recompensen exageradamente los trabajos que ponen énfasis en los métodos empleados;
estos son los artículos que acaban siendo publicados en las revistas especializadas y las
propuestas de investigación que acaban siendo financiadas. El resultado probable es que
se produce un tipo de hipertrofia metodológica, como han denunciado los especialistas
no cuantitativos desde hace años (por ejemplo, Mills, 1987).

La especial estrategia para entender el mundo que utilizan los estadísticos ha sido
ridiculizada por parte de los mismos estadísticos en un interesante chiste:

Tres profesores (un físico, un químico y un estadístico) son convocados al despacho del rector de
la universidad. Mientras se encuentran reunidos, el rector se disculpa y dice que tiene que
ausentarse unos minutos. Cuando sale, los tres científicos ven alarmados que sale fuego de la
papelera.

El físico dice: “!Yo sé qué hacer! Tenemos que enfriar los materiales por debajo de la
temperatura de ignición y entonces el fuego se apagará”.

El químico replica: “!No, no! ¡Yo sé qué hacer! Tenemos que cortar la entrada de oxígeno y el
fuego se apagará por la carencia de uno de los reactivos”.

Mientras que el físico y el químico discuten qué hacer, se alarman al darse cuenta de que el
estadístico va por toda la habitación encendiendo otros fuegos. Los dos gritan: “¿Pero qué estás
haciendo?”.

El estadístico responde: “Tratando de tener el tamaño de muestra adecuada”.

El chiste muestra el contraste entre los científicos y el estadístico. Los científicos, que
tienen una área sustantiva de investigación de la realidad, usan su conocimiento de los
mecanismos causales (las teorías) para aplicarlas y resolver el problema planteado. En
cambio, el estadístico es especialista en una tecnología para generar explicaciones de la
realidad y lo aplica. La primera cosa que dice esta teoría es que se tiene que tomar una
muestra de observaciones del fenómeno que queremos estudiar.

44
© FUOC PID_00228045

¿Qué es cualitativo? Simplificando, todo lo que se aleja de los dos axiomas centrales
del modelo estadístico:

1) En primer lugar, los análisis cualitativos se niegan a considerar las unidades de


análisis (individuos o casos) como meros apoyos de los atributos o de las variables que
podemos medir. Al contrario, para los análisis cualitativos la medida de las variables no
agota o no explica todo lo que es relevante en los fenómenos que estamos
observando. El convencimiento de que se tiene que ir más allá de las medidas
estandarizadas de las variables entre los diferentes casos explica que en los análisis
cualitativos se ponga el énfasis en los análisis de casos (Gerring, 2007a, 2007b). Se
busca una descripción densa (thick description), que identifique los “mecanismos
causales” que actúan en el fenómeno de interés y que “tracen los procesos” (process
tracing) (Bennett y Elman, 2006, 2007), en vez de la descripción fina o débil (thin
description) característica de la visión cuantitativa de las relaciones entre las variables
(Geertz, 1973). Por eso, los análisis cualitativos tienden a consistir en el estudio
intensivo de pocos casos.

Puede resultar extraño comprobar que el énfasis en los estudios de casos sitúa a algunos
partidarios de la construcción de modelos formales y de la teoría de juegos en la política
comparada en el lado cualitativo. Las limitaciones percibidas de la perspectiva
estadística-cuantitativa en el tratamiento de los problemas de la política comparada los
ha conducido a defender el método de las narraciones analíticas (analytical narratives)
(Bates, 1998; Bates y cols., 2000).

2) En segundo lugar, los análisis cualitativos desconfían de la calidad de las medidas de


las variables a través de los casos. Los contextos, las complejidades en las que se
encuentran las variables específicas afectan a su medición. ¿Tiene algún sentido utilizar
las medidas de corrupción o de desarrollo económico que se pueden establecer entre
diferentes países, si sabemos que las situaciones políticas y el desarrollo pueden variar
mucho, especialmente en los países del tercer mundo? ¿Tiene sentido utilizar una
medida de identificación nacional subjetiva (como la que ofrece como alternativas:
catalán, más catalán que español, tan catalán como español, más español que catalán y
solo español), si la respuesta está mediada por la experiencia personal, el entorno social
y cultural, de forma que no es seguro que las diferentes personas que responden están
respondiendo a la misma pregunta? Por esta razón, los análisis cualitativos tienden a
dedicar esfuerzos a definir con precisión los conceptos de forma que se puedan
clasificar correctamente los casos (la forma cualitativa de medir) (Gerring, 1999).

¿Existe una convergencia entre los métodos cuantitativos y cualitativos?

Provocativamente, el post de un blog de ciencia del diario The Guardian se titulaba:


“La ciencia es humildad forzada u obligada (enforced humility)”. Según este
argumento, “la fuerza fundamental de la ciencia es que obliga a los que la practican a
confrontar su propia falibilidad”. Este es el objetivo de la ciencia y es lo que permite el
resultado de la acumulación de conocimiento, pero este objetivo se logra a través del
método.

Blog de ciencia de The Guardian “Notes & Theories: Dispatches from the Science
Desk http://www.guardian.co.uk/science/blog/2012/nov/13/science-enforced-humility

45
© FUOC PID_00228045

Ciertamente, la ciencia es ciencia por el método. El método obliga a la claridad y la


transparencia en cómo se llega a las conclusiones y, así, permite la crítica inteligente, la
rectificación y la acumulación del conocimiento. Esencialmente, el conocimiento
científico tiene que ser correcto y, para conseguirlo, tiene que poder reconocer la
posibilidad de cometer errores y tener los medios para rectificarlos.

Dado que los humanos no son humildes por naturaleza (¡y menos aún los científicos!),
las diferentes metodologías científicas comparten el objetivo de facilitar la crítica del
trabajo científico por parte de los otros miembros de la comunidad científica. Las
metodologías codifican las formas en que se tienen que explicitar cuáles son las
hipótesis, cuáles son los hechos y cuáles las opiniones que aparecen en un trabajo
científico. De este modo, pueden identificarse más rápida y claramente dónde se
encuentran los errores o dónde aparecen las dudas en la cadena lógica que es la
estructura básica de un informe de investigación.

El método científico cumple una función parecida a las reglas de la contabilidad cuando
especifican cómo se tiene que organizar la información financiera de una empresa.
Cuando se especifica cuáles son los elementos que forman el activo y el pasivo, cuando
se formalizan las cuentas de resultados, se ayuda a que un analista externo pueda
diagnosticar el estado de la empresa y cuáles son sus prospectivas. Sin la tarea de
estandarización de la información que hace la contabilidad, no sería posible un mercado
de valores empresariales y por eso la contabilidad aparece ya en las sociedades
capitalistas europeas tardomedievales.

Los métodos establecen unos códigos típicos que facilitan la discusión: dicen qué
estrategias de investigación son adecuadas y qué tipo de evidencias son convincentes.
La batalla sobre la metodología es la batalla sobre cuáles son esos estándares que
permiten garantizar que se está llevando a cabo la buena ciencia. Se trata de un
problema de coordinación y, como la mayoría de problemas de coordinación (elección
de lenguas o de estándares dentro de las lenguas), requieren algún tipo de solución
autoritaria o de autoridad.

También esto explica por qué en las ciencias sociales la guerra por la metodología es tan
ácida y violenta. En este campo son difíciles de acordar los criterios que garantizan un
resultado mejor, porque son complicados y, además, aunque muchas veces de forma
implícita, implican convicciones sobre cómo está construido el mundo, qué es bueno o
qué es bello (del mismo modo que en las creencias religiosas o en los gustos artísticos).
Aunque es posible, es difícil encontrar autoridades compartidas por los diferentes
campos que establezcan de forma inequívoca estos criterios.

Un tema central de las ciencias sociales es cuántas metodologías o enfoques hay


disponibles, y cuáles son las divisiones entre ellos (Della Porta y Keating, 2008, pág.
19). Se trata de una cuestión a la que se tiene que enfrentar cualquiera que haga un
trabajo de investigación, y que ha sido descrita como “una guerra civil entre disciplinas
de bajo nivel” (Kaufman, 2005, pág. 98). A pesar de que en los países europeos la
guerra no ha sido tan virulenta como en Estados Unidos, las cuestiones ideológicas y de
luchas de poder departamentales también se encuentran detrás de las cuestiones
metodológicas.

46
© FUOC PID_00228045

Hay que estar al día de los debates que existen en la profesión (nos pueden afectar,
aparecer críticas que tenemos que saber responder o, al menos, saber de dónde vienen.
No reaccionar puede minar la credibilidad de nuestra investigación).

En el trasfondo de la discusión sobre la metodología se encuentra el problema de cómo


los politólogos (o los científicos sociales, en general) entienden el carácter de la realidad
política y social. Qué se acepta, y que se tendría que aceptar, como evidencias de lo que
está pasando en realidad. ¿Qué tipo de enunciados de verdad se pueden hacer
basándonos en nuestras respuestas a estos hechos? Estas diferencias entre las dos
metodologías se denominan diferencias ontológicas y epistemológicas.

De todas formas, en general se puede decir que se está produciendo una convergencia
en relación con los métodos utilizados en los enfoques cuantitativos y cualitativos.
Podríamos decir que, mientras que las posiciones teóricas se mantienen
irreconciliablemente opuestas, en las cuestiones más prácticas de elaboración de la
investigación cada vez crece más un área de límites borrosos que no corresponde a
ninguna de las posiciones típicas polares de los dos enfoques.

Por un lado, los cuantitativistas se aproximan a las técnicas de la interpretación de los


datos, especialmente en el área del análisis de contenido de textos que últimamente está
evolucionando de forma muy rápida a través del desarrollo de las aplicaciones
informáticas y de la extraordinaria disponibilidad de textos escritos gracias a las nuevas
tecnologías.

Del mismo modo, las técnicas de análisis que utilizan los cualitativistas para procesar y
sistematizar una gran variedad de datos empíricos complejos gracias al uso de las
aplicaciones informáticas, los acercan cada vez más a los cuantitativas.

Naturalmente, no se trata de un movimiento unitario, existen posiciones y puntos de


partida diferentes, pero en general se puede detectar una tendencia pragmática hacia
métodos que puedan servir para capturar más variedades de la realidad.

Fearon y Laitin (2008) presentan una visión de la limitación del enfoque estadístico y de
la necesidad de integrar los tratamientos narrativos en los estudios. La razón de esta
sensibilidad proviene de las subdisciplinas en las que están interesados: la política
comparada y las relaciones internacionales, donde las unidades de análisis, los Estados,
tienen personalidad propia... ¡difícilmente se puede pensar que funcionará el supuesto
de valor estable de unidad de tratamiento (SVEUT)! Un Estado puede ser tratado como
un caso. Los análisis con gran N te permiten detectar regularidades empíricas y patrones
generales, mientras que la fortaleza de los estudios de caso es que te permiten revelar
los mecanismos causales que dan lugar a los resultados de interés.

El pluralismo metodológico: los objetivos comunes en las dos tradiciones

Una posición interesante en relación a la cuestión de la metodología es la de un


pluralismo metodológico como el que defienden Hardy y Bryman (2004) en el capítulo
introductorio de un extenso handbook sobre el análisis de datos del que son editores. Se
trata de un punto de vista pragmático respecto a la metodología. Se quieren evitar las
barreras intelectuales artificiales, creadas muchas veces más por razones de prestigio, de

47
© FUOC PID_00228045

captura de subvenciones para la investigación o de plazas en las facultades, y que en


realidad pueden producir ineficiencias en el desarrollo de la investigación científica.
Consideran un error que actualmente muchos de los investigadores en las ciencias
sociales piensen que “tienen que elegir uno de los dos lados en el cisma existente entre
el campo de la investigación cuantitativa y cualitativa”. Pese a que las metodologías
pueden diferir en los presupuestos filosóficos subyacentes, en el tipo de preguntas que
formulan y las respuestas que quieren lograr, comparten un mismo propósito de fondo
de comprender la realidad. Reconocer este objetivo común permite identificar los
elementos comunes en los diferentes métodos que permiten lograr los mismos
resultados funcionales de garantizar una buena investigación científica.

Hardy y Bryman (2004) identifican en ocho áreas los elementos básicos de la


orientación a la investigación que comparten los autores de las dos diferentes
tradiciones. Destacan el parecido o compatibilidad de los dos tipos de investigación,
haciendo un repaso de los objetivos típicos de la investigación. Hacen comprensible las
características de cada tradición al mostrar su utilidad para los objetivos generales de la
investigación: conocer los fenómenos y darlos a conocer a la comunidad de
investigadores.

1) En primer lugar, ambas tradiciones de análisis, cuantitativa y cualitativa, están


interesadas en el resumen de los datos que han obtenido. Normalmente, todo análisis
genera una gran cantidad de información, que se tiene que organizar y resumir en unos
cuántos enunciados que contengan lo más importante de lo que se ha observado en la
realidad. Los métodos de análisis consisten en dividir la realidad en elementos simples;
una vez hecho esto, el problema es cómo sintetizar lo que se ha obtenido.

Los análisis cuantitativos se basan en una estrategia de multiplicación de casos sobre los
que se tienen que medir múltiples variables. Precisamente las técnicas estadísticas
permiten simplificar los datos. Invirtiendo el dicho: permiten ver bosques en vez de
árboles, es decir, aquello que hay de genérico en la agregación de los casos individuales.
En los análisis factoriales, por ejemplo, se reducen las variables para tratar los errores
de medida que pueden aparecer cuando medimos un concepto con una única variable.

Un problema parecido aparece en los análisis cualitativos. En los procesos típicos de


recogida de información (como ocurre, por ejemplo, en las notas de campo del
etnógrafo) hay un exceso de información que se tiene que reducir. Tradicionalmente, las
transcripciones han sido el cuello de botella de los análisis cualitativos, pero ahora
mismo, gracias a las tecnologías de la información y comunicación es mucho más
sencillo acceder a fuentes transcritas cada vez más ricas. Por lo tanto, el problema se ha
trasladado a los análisis. ¿Cómo se tienen que codificar los diferentes fragmentos o
secciones de los textos?, ¿de qué manera se tiene que realizar un análisis narrativo,
clasificar y organizar el flujo de lo que dice la gente en las entrevistas?
Independientemente de qué técnica se haya usado, el objetivo es convertir la
información en piezas manejables e inteligibles. La gran cantidad de programas de
ordenador que se han desarrollado han permitido facilitar el proceso de codificación y
de análisis de estos datos cualitativos. Un proceso parecido se produjo hace un par de
décadas con la accesibilidad de los paquetes estadísticos que facilitó la popularización
de los análisis cualitativos.

48
© FUOC PID_00228045

2) En segundo lugar, en las dos tradiciones, las investigaciones tienen el objetivo de


responder a unas preguntas de investigación.

En la investigación cuantitativa las preguntas tienden a ser formuladas de forma


explícita a comienzos de la investigación. En el formato habitual de los informes de
investigación cuantitativos, a menudo aparecen enunciadas en forma de hipótesis a
comienzos del informe. Esta estructura refuerza la idea de que la investigación se está
haciendo con el método hipotético-deductivo. Es decir, que se supone que la recogida
de datos empíricos es solo una fase de comprobación de un desarrollo teórico anterior.
Naturalmente, a pesar de que el proceso de investigación real se aleja bastante de este
modelo tan lineal, estipular las hipótesis al principio de la investigación ayuda a
comprobar que estamos recogiendo y analizando los datos necesarios. También nos
asegura lograr el objetivo planteado por la investigación y que este objetivo contribuye
a nuestro conocimiento de un tema o de un problema. Y por encima de todo, sirve para
comunicar la investigación de forma eficaz a la comunidad científica.

Los investigadores de la investigación cualitativa tienden a ser menos explícitos en


relación con las preguntas de investigación. No está tan claro como en el caso de la
investigación cuantitativa cuándo deberían ser formuladas. Normalmente, a pesar de
que se parta de un centro de interés proporcionado por las preguntas de investigación, se
evita formularlas rígidamente de forma que puedan cerrar o limitar lo que pueda ser
descubierto. De hecho, en algunas versiones de la “teoría fundamentada” (grounded
theory) promueven liberarse de las preguntas de investigación. Ello no quiere decir que
no se utilicen estas preguntas de investigación en algunas versiones de la investigación
cualitativa. Pero la idea es que las preguntas emergerán en el transcurso de la
investigación, a medida que el investigador se va centrando en el área de interés. De
hecho, en la teoría fundamentada incluso se requiere que las preguntas de investigación
se formulen en forma de hipótesis. Pero en la investigación cualitativa la pregunta de
investigación no tiene la primacía temporal y “mecánicamente orientadora” que tiene en
la investigación cualitativa. En los estudios hermenéuticos e interpretativistas a veces lo
fundamental es acceder a una comprensión de lo que es importante de acuerdo con un
punto de vista diferente del nuestro. Saber lo que realmente es importante puede ocurrir
cuando ya llevamos un tiempo investigando, no al principio (por ejemplo, identificar la
forma en que algunos de los presupuestos de la cultura organizativa de los médicos de
un centro de atención sanitaria están dificultando la reforma planteada desde la
dirección). Atrasar la formulación de la cuestión de investigación evita bloquear este
proceso.

3) Tanto los enfoques cuantitativos como los cualitativos de la investigación requieren


que el análisis de los datos esté relacionado con lo realizado por la literatura anterior.
En cualquier investigación es importante encontrar la conexión con los temas que se ha
planteado o que emergen en los trabajos científicos previos.

En el análisis cuantitativo, la base para formular las preguntas de investigación proviene


de forma rutinaria de los trabajos científicos anteriores. Normalmente, se utilizan los
hallazgos previos para construir las hipótesis que se deberán comprobar y para ver
cuáles son las teorías más coherentes.

De forma comparable, el análisis cualitativo usa la literatura previa para establecer el


contexto o trasfondo teórico sobre lo que espera hacer el análisis (especifica la

49
© FUOC PID_00228045

problemática que enmarca la investigación). A veces, la forma de tratar la información


en estudios anteriores también puede utilizarse para codificar la nueva información.
Esto hace que sea más fácil conectar los hallazgos con los trabajos anteriores. Para los
estudios cualitativos también es importante mostrar las implicaciones de los hallazgos
en relación con lo que había dicho la literatura existente. ¿Es contradictorio y altera la
interpretación que se había hecho de los fenómenos o los corrobora?

4) Ambos tipos de análisis se interesan por la variación o la variabilidad.

Este es un aspecto central del análisis cuantitativo: medir la variación en los datos de
determinados fenómenos y explicar por qué existe y cómo se ha producido. Esta es la
razón por la que se remarca que los estudios cuantitativos se centran más en las
variables (que, naturalmente, varían) que en los casos. Los estudios cuantitativos
consisten en procedimientos que hagan que las variaciones en multiplicidad de unidades
de análisis permitan tener un control tanto de las variaciones individuales como de los
errores de medida a la hora de entender y explicar los fenómenos de interés.

No obstante, en la tradición de estudios cualitativos, la variación también es interesante,


aunque no se analice del mismo modo. Por ejemplo, en una explicación de la conducta
de unos individuos se ve cómo estas conductas cambian de un contexto a otro. La
estructura de los argumentos o de las conversaciones también se comprueban por su
variación. No hay cuantificación, pero es interesante centrarse en el cambio. En los
estudios cualitativos se intenta encontrar variación en los individuos o casos que quieren
estudiar para garantizar una cierta “representatividad” de los datos, los hallazgos que
analizamos no son excepcionales porque se encuentran en más de un caso (de forma
similar a como en en la teoría formal del muestreo se intenta garantizar que las minorías
quedan recogidas en la muestra con su estratificación).

5) Ambas tradiciones tratan la frecuencia como fuente del análisis. Esto resulta obvio
en la tradición cuantitativa. Es más difícil de aceptar en la tradición cualitativa porque
aparentemente lo que la define es la no cuantificación. Esta reticencia a utilizar la
cuantificación muestra que las etiquetas pueden tener el efecto de confundir a los
mismos investigadores. Aunque los investigadores cualitativos rechacen el positivismo
inherente de los estudios cuantitativos estadísticos, no tendrían que sentirse mal por
aceptar la cuantificación de la frecuencia. En realidad, lo que permite la frecuencia es
tener una mayor precisión al hacer distinciones. Pero como todo análisis, la
adjudicación de importancia o no a los cambios percibidos es cualitativa. Por ejemplo,
los análisis de contenido tienen en cuenta las frecuencias, pero como se alejan de los
supuestos estadísticos cuantitativos, no suponen poblaciones homogéneas de individuos
de los que se tengan que inferir una serie de propiedades, no dejan de encontrarse en el
ámbito cualitativo. Por otro lado, las herramientas descriptivas de la estadística pueden
ser muy útiles para cualquier estudio cualitativo simplemente porque ayudan a resumir
y presentar los resultados.

6) Ambos enfoques quieren asegurar que no hay una distorsión deliberada. “Pocos
científicos sociales actuales subscriben la visión de que son observadores del mundo
social objetivos y libres de valores, este reconocimiento hace que sea más importante
que se proceda de forma definida explícitamente y, por tanto, reproducible
(replicable).” A veces, la investigación cualitativa comprometida políticamente es
decididamente parcial: pretende movilizar y capacitar a uno de los lados para entrar en

50
© FUOC PID_00228045

acción. Pero incluso en estos casos hay un compromiso para presentar análisis fieles a
los datos. Todas las tradiciones utilizan estrategias retóricas para convencer a los
lectores de la autenticidad de los análisis que presentan. Siempre hay que ganarse la
credibilidad de los lectores sobre lo que se quiere decir. En el campo cuantitativo, para
la estrategia de la autenticidad el investigador debe mostrarse como un observador
cuidadoso y un analista atento; ha sido, por tanto, parsimonioso, metodológicamente
cuidadoso y ha controlado sus interpretaciones por las explicaciones alternativas. En
general, en todas las tradiciones de investigación hay un intento de mostrar que no se
comete sesgo voluntario.

7) Para las dos tradiciones es importante la transparencia. “La metodología no tiene


que eclipsar los datos, sino que los tiene que usar de manera óptima”. Las técnicas de
análisis tienen que ser lo suficientemente transparentes como para que otros
investigadores familiares con el área puedan reconocer cómo se han recogido y
comprobado los datos y puedan reproducir (replicar) los resultados del procedimiento
de análisis. En la actualidad, los journals punteros en las técnicas de investigación
requieren que se den copias de los archivos de datos para poder publicar un artículo. De
este modo, los otros investigadores podrán reproducir los análisis y discutir las
conclusiones del trabajo.

Gary King está implicado en una “cruzada” para difundir la reproducción y la


compartición de datos en las ciencias sociales (y en las ciencias en general). Ved el
enlace a su página web, donde encontraréis una abundante compilación de artículos,
discusiones e iniciativas políticas, organizaciones científicas y directrices de revistas
especializadas, para lograr este objetivo, además de su artículo seminal en PS: Political
Science and Politics (King, 1995): http://gking.harvard.edu/pages/data-sharing-and-
replication

En los estudios cuantitativos se produce una paradoja. Por un lado, los procedimientos
que se llevan a cabo y las decisiones que se toman quedan documentados y permiten la
transparencia en la investigación para el resto de la comunidad científica. El método
cuantitativo ayuda a la transparencia a través de la utilización de métodos muy
documentados y abiertos. Por otro lado, el instrumental analítico de la estadística es
complejo y esto hace que el investigador se distancie de los datos originales. Por
ejemplo, los valores perdidos son imputados a través de sistemas complejos, los casos
son ponderados, las estimaciones de los parámetros se hacen dentro de unos intervalos
de confianza. Los procedimientos estadísticos son complicados de entender y esto
puede parecer que se crea una barrera para el resto de la comunidad científica. Pero este
argumento contra la complejidad de la estadística como barrera (tan frecuente en el
bando cualitativo) es tan absurdo como considerar que la escritura es una barrera para el
conocimiento. De hecho, el monopolio en el conocimiento de la escritura sirvió durante
milenios a algunas minorías en el ejercicio del poder (por ejemplo, en el antiguo Egipto
o en la Edad Media). Pero no se puede cerrar el balance sobre el impacto general del
lenguaje escrito en estos momentos, puesto que ha sido precisamente uno de los
elementos que más ha contribuido a la transparencia y la democratización del
conocimiento.

En la investigación cualitativa, la ausencia de distancia y el uso limitado de la


innovación tecnológica para organizar y analizar la información puede crear un
problema diferente para la reproducción de las investigaciones realizadas. Los
investigadores cualitativos tienen menos guías sobre cómo tratar los datos, excepto que

51
© FUOC PID_00228045

tienen que responder las preguntas de investigación a partir de estos. Para poder hacer
reproducibles los estudios se tiene que disponer, por ejemplo, de reglas claras que
indiquen qué se tiene que elegir para investigar, qué se ha de observar y cuándo se
deberá hacer. Hay algunas técnicas cualitativas en las que existe esta preocupación por
mostrar transparencia en los datos recogidos y en los análisis. Por ejemplo, en el análisis
de conversaciones o en la teoría fundamentada (grounded theory). Por otro lado, el uso
de ordenadores está ayudando a mejorar la transparencia de la investigación cualitativa.
No obstante, esta ventaja viene con costes adosados, pues la investigación se acaba
convirtiendo en una tarea mucho más dura si se quiere documentar cada elemento de
toma de decisión y de análisis, y la lectura también se vuelve más pesada, de manera
que se acaba convergiendo con el distanciamiento de los datos del que se acusa a los
estudios cuantitativos.

8) Finalmente, las dos tradiciones tienen que afrontar el tema del error, aunque, de
hecho, la forma de tratarlo es seguramente la diferencia más importante entre los dos
enfoques.

La investigación cuantitativa puede ser vista como un ejercicio de gestión del error: las
diferencias empíricamente observadas pueden ser producto de las diferentes
características de las unidades de análisis o del error en el proceso de observación de las
distinciones. El análisis cuantitativo se ha desarrollado en sus intentos de tratar cada vez
de forma más refinada y ajustada el tratamiento del error en las diferentes fases de la
elaboración de la investigación.

Se encuentra en los procesos de construcción de las variables. ¿Es mejor usar


indicadores únicos?, ¿se tienen que combinar?, ¿qué tipo de ponderación se tiene que
usar para los diferentes elementos? Hay una distancia entre los conceptos como
abstracciones y las variables que usamos. En la descripción de las distribuciones de las
variables también se tiene que tener presente el problema de los valores perdidos, que
pueden afectar tanto a la descripción como a las relaciones que establecemos entre las
diferentes variables. El tratamiento de los valores perdidos normalmente requiere el
desarrollo de una teoría de las razones que llevan a no poder imputar los datos.

El extenso repertorio de modelos y técnicas que se han desarrollado en la tradición


cuantitativa son herramientas para tratar los tipos de errores que pueden aparecer en los
diferentes diseños de investigación y en las variables que se utilizan. Las preguntas que
se quieren responder con los modelos cuantitativos son cada vez más complejas y
específicas. ¿Cómo tenemos que analizar la información que describe al individuo
dentro del contexto organizacional?, ¿en el tiempo? Los modelos de acontecimientos
históricos, los modelos lineales jerárquicos, los modelos de panel, los modelos de curva
latente y otras técnicas avanzadas pretenden responder a estos problemas específicos.

“Cuanto más complicadas son las preguntas, más complicada es la estructura del error que se
tiene que tratar. El carpintero que quiere serrar un tablón puede usar la sierra, pero para hacer
una junta de cola de milano requiere herramientas más específicas.”

En la investigación cualitativa, el error no es una noción que se use demasiado. La


misma idea de error implica una posición “realista” que incomoda a las escuelas
posmodernistas. Pero está implícito en algunas nociones de validez. Demostrar la
credibilidad de los hallazgos es una preocupación de la investigación cualitativa que
corresponde al tratamiento del error en la tradición de investigación cuantitativa.

52
© FUOC PID_00228045

En la investigación cuantitativa, la bondad de ajuste es una medida del encaje del


modelo estadístico con los datos empíricos. Cuanto más encaje, menos error de
predicción. Interpretar si un nivel de encaje determinado es una evidencia
suficientemente persuasiva de la corrección de una teoría es un tema controvertido. Pero
en realidad, los términos en los que se desarrolla el debate son parecidos al análisis
cualitativo y cuantitativo. En la investigación cualitativa se piden cuestiones similares:
¿son las observaciones coherentes con las predicciones de la teoría? (En la metodología
cuantitativa esto es la operacionalización de los conceptos teóricos en variables
empíricas.) ¿Está la información correctamente clasificada? (¿Son las categorías de las
variables las correctas para capturar los conceptos teóricos?, ¿se podría clasificar la
información de forma diferente?) ¿Se han pasado por alto aspectos que podrían cambiar
el punto de vista del autor en relación con el problema que quiere tratar? El investigador
cualitativista tendría que mostrar qué pasaría si otro investigador presentara una
explicación alternativa de su fenómeno de estudio que tuviera en cuenta otros aspectos.
¿Es la explicación que propone incompleta?, ¿cambiaría mucho si se añadiera otro tipo
de información adicional? (Los cuantitativistas denominan a este problema error de
especificación: variables omitidas, relaciones funcionales inadecuadas, etc.) ¿Se puede
creer en la historia que se explica? En los dos tipo de investigación, cuanto más ricos
sean los datos, más probable es que la conceptualización sea más persuasiva.

En definitiva, las fuentes de error en ambos tipos de investigación son las mismas (error
de observación, error de clasificación, error de especificación). La característica típica
del análisis cuantitativo es que formaliza matemáticamente la forma que tiene el error y
cómo se tiene que intentar resolver, mientras que el cualitativo, en general, se fía de las
reglas de la lógica. De todos modos, ambos se fían de la corrección del argumento y de
la fuerza de la evidencia que muestra sus datos para convencer a los otros de su historia.
En el análisis cualitativo, el intento es ser fiel a los datos y mirar de explicarlos
utilizando conceptos y teorías que digan algo a los investigadores de la comunidad
científica. El contacto directo y cercano con los datos puede proteger al investigador del
error. Pero lo más probable es que se acabe convirtiendo en un mero transmisor de la
visión del mundo de los individuos que ha estudiado.

Por lo tanto, el problema del investigador cualitativo es la facilidad con la que puede
caer en unos análisis que simplemente “santifiquen” una realidad y no permitan hacer
una evaluación crítica. Curiosamente, de alguna forma, este planteamiento del bando
cualitativista hace menos probable el descubrimiento azaroso, o la serendipity, la
sorpresa en la configuración de los datos que escapa a las expectativas del investigador.
De hecho, paradójicamente, el distanciamiento de los datos que permite el método
cuantitativo es lo que permite que haya una mayor posibilidad de descubrimiento. Al
mismo tiempo, solo desde una proximidad a los datos, a los procesos que hay detrás de
estos, es posible una reinterpretación correcta.

Las diferencias entre el análisis cuantitativo y el cualitativo

Mahoney y Goertz (2006) invierten el proceso de Hardy y Bryman que hemos visto
anteriormente e identifican los elementos característicos que comparten las dos
tradiciones de investigación. Siguen a Gerring (2001) en la comparación de las dos
tradiciones analíticas en diez áreas diferenciadas. Los autores avisan de que se trata de
una caracterización amplia, hecha en términos generales, y que es posible encontrar

53
© FUOC PID_00228045

casos en cada una de las tradiciones que la contradice. La explicación de la diferencia


entre las dos se centra en temas de causalidad.

1) La primera gran diferencia entre las dos tradiciones se encuentra en que se supone
que son explicaciones, el enfoque de la explicación. Para la investigación cualitativa, el
objetivo nuclear es la explicación de los resultados en los casos individuales (por
ejemplo, cuáles fueron las causas de la Gran Guerra). Se parte de los resultados en los
casos y se va hacia sus causas. Mahoney y Goetz (2006, pág. 230-232) denominan este
enfoque como encontrar las causas-de-los-efectos. En la tradición cualitativa, las buenas
teorías explican idealmente todos los casos dentro de una población. ¿Por qué se ha
producido una revolución en todos estos países?

Esta posición es diferente de los enfoques estadísticos, donde la explicación


normalmente usa como modelo el “experimento controlado”. En un experimento
controlado hay dos grupos de individuos seleccionados aleatoriamente y a uno de los
dos se le aplica un tratamiento. El efecto del tratamiento es la diferencia de las medias
de la variable dependiente en el grupo de tratamiento respecto del grupo de control.

Los enfoques estadísticos quieren extender el modelo del experimento controlado al


contexto de un estudio observacional. Aunque es difícil pasar de un estudio
experimental a uno observacional (hay aspectos clave que faltan: la aleatoriedad o
manipulación auténtica), el punto clave es que se sigue un enfoque de los “efectos-de-
las-causas” que se utiliza en los métodos experimentales. Esto quiere decir que se quiere
averiguar cuál es el efecto medio de una o más causas en una población de casos. No se
pretende explicar los resultados específicos encontrados en los casos particulares, como
el estudio de tipo cualitativo. El tipo de preguntas que se quieren responder son estas:
¿cuál es el efecto del desarrollo económico para la democracia?, ¿cuál es el efecto de la
inversión extranjera en el crecimiento? En cambio, no se intenta responder a la pregunta
sobre si, por ejemplo, la crisis económica fue necesaria para los procesos
democratizadores del Cono Sur.

Para estadísticos como Holland (1986), el enfoque de las “causas-de-los- efectos” no


está claro. King, Keohane y Verba, en su libro clásico (1994, pág. 88-96, 246, 26 n2),
siguen a Holland y definen la causalidad como efecto de las causas, no consideran las
causas de los efectos, aunque, tal como veremos más adelante, King y Powell (2006)
han reconocido que no tener en cuenta este tipo de explicación es una carencia de los
enfoques estadísticos.

En el enfoque cuantitativo se consideran las diferentes causas que tiene un efecto


potencial sobre un fenómeno (por ejemplo la democracia) y la investigación quiere
establecer cuál es la contribución de estas diferentes causas potenciales sobre el
fenómeno que nos interesa. ¿Cuál es la media del efecto de los diferentes factores
variables independientes en la democracia?

Según Mahoney y Goertz (2006), los dos enfoques son valiosos y se complementan.
Idealmente, la explicación de un resultado en un pequeño número de casos lleva a
preguntarse si los mismos factores funcionan cuando se adopta un enfoque de un
alcance superior, y provoca un análisis con una N más grande, que tiene como objetivo
centrarse en los efectos medios de las variables. Por otro lado, cuando hay estudios que
indican que determinados factores tienen resultados estadísticos sobre los efectos, es

54
© FUOC PID_00228045

normal preguntarse si funcionan en los casos individuales, se puede querer localizar


esos efectos en casos específicos.

2) La segunda diferencia se centra en los conceptos de causalidad. Los especialistas


cualitativos piensan en términos de causas necesarias y/o suficientes. Esto se ve en los
métodos comparados (Bennett y Elman, 2006, 2007; James Mahoney y Rueschemeyer,
2003; Manen, 1989). Esta forma de entender la causalidad tiene una gran tradición en la
filosofía y la sociología (Hume y Weber). Este concepto de causalidad se fundamenta
en la lógica y la teoría de conjuntos.

Un ejemplo de este tipo de concepto de causalidad es la causalidad INUS (combinación


de condiciones no suficiente pero no redundante, parte de una combinación no necesaria
pero suficiente –Mackie, 1980, pág. 62–) que se ha utilizado en el campo de la historia y
la política comparada (N pequeña o media). Una causa INUS no es necesaria ni
suficiente individualmente para que se produzca un resultado. Es una combinación de
causas que son conjuntamente suficientes para un resultado. Los especialistas quieren
identificar las combinaciones de valores de variables que son suficientes para los
resultados de interés. Suponen que las diferentes combinaciones pueden ser suficientes.
La idea es que pueden haber diferentes “rutas causales” hacia los mismos resultados.
Estas situaciones se escriben en ecuaciones booleanas:

Y = (A & B & C) OR (C & D & E).


El resultado Y (por ejemplo, que haya una guerra o un proceso de democratización en
un país) se produce si se dan las causas A y B y C (que pueden ser: crisis económica,
movilización popular, derrota electoral del partido en el gobierno) o bien, ocurren otro
conjunto de causas C y D y E.

El planteamiento “cuantitativo estadístico” es diferente: se trata de encontrar las causas


que, como media, afectan (hacen incrementar o disminuir) a los valores de un resultado
a través de una gran población. Se parte de un enfoque correlacional a la causalidad.

En el enfoque cuantitativo, el efecto causal es una diferencia entre medias o


proporciones. El enfoque estadístico reemplaza al efecto causal de T imposible de ver
en una unidad específica con el efecto causal medio de T en una población de unidades
(Holland, 1986, pág. 947).

Según Mahoney y Goertz (2006, pág. 233) los diferentes conceptos de causalidad crean
“incomprensión” y “mala comunicación” entre los especialistas de los diferentes
campos. Hay hipótesis que no pueden ser trasladadas de un planteamiento al otro. “Hay
un profundo escepticismo entre los cuantitativos: no existen condiciones necesarias y/o
suficientes de los fenómenos sociales. Se hacen supuestos deterministas que no son
sostenibles, o estos tipos de causas se tienen que medir como dicotomías”. Rechazan el
trabajo de los cualitativos o los reformulan con hipótesis correlacionales implícitas. Para
Mahoney y Goertz (2006) es un error rechazar las comprensiones alternativas de
causalidad. En el bando cuantitativista, King y Powell (2008) consideran precisamente
que entender la causalidad como relaciones lógicas entre variables desvía la atención
básica en el problema que plantea la relación causal (que es la del contrafactual) y
mezcla el problema de la inferencia causal con los métodos adecuados para estimarla.

55
© FUOC PID_00228045

3) El papel de las explicaciones multivariantes es otra diferencia entre las


metodologías. Según Mahoney y Goertz (2006, pág. 234) en la investigación cualitativa
se supone que los acontecimientos individuales no tienen una única causa, sino que se
tiene que incluir una variedad de factores causales relevantes. En la cuantitativa, en
cambio, “normalmente se supone que no es posible estimar los efectos medios de una
variable sin controlar por las variables relevantes”. Pero, tal como comentan King y
Powell (2008), presentar esta diferencia como si fuera entre explicaciones
multivariantes contra explicaciones univariantes es absurdo. Como hemos visto en un
apartado anterior, uno de los elementos esenciales del método estadístico es
precisamente la consideración de una causalidad múltiple de los fenómenos políticos y
sociales. Precisamente, en el método estadístico se incorpora esta voluntad de tratar la
complejidad. La diferencia real entre los métodos es la forma como se supone que las
variables individuales se combinan para lograr los resultados. Pero los métodos
estadísticos pueden complicarse para permitir relaciones interactivas y no lineales entre
las diferentes variables. No es cierto que el método cuantitativo se tenga que limitar a
relaciones lineales y aditivas de las variables explicativas respecto de las variables
dependientes. Pero sí que es cierto que el planteamiento cualitativo considera
primariamente esta relación de una manera diferente a como lo hace el enfoque
cuantitativo.

4) Mahoney y Goertz (2006, pág. 236-237) proponen como elemento característico de


la forma de entender la causalidad por parte de los cualitativos el concepto de
equifinalidad (George y Bennett, 2005, pág. 157), “causación coyuntural múltiple” o
“causación múltiple” –asociado al enfoque del Qualitative Comparative Analysis
(QCA) de Ragin (2006)–. Equifinalidad significa que pueden existir diferentes caminos
causales para llevar a un mismo resultado. Se puede ilustrar con un ejemplo de política
comparada. El fracaso en la continuidad de un régimen puede producirse si lo producen
alguna de estas tres situaciones:

• Hay un conflicto entre los oficiales jóvenes y viejos del ejército.


• Muerte un dictador poderoso.
• La CIA no está satisfecha con el régimen.

Cualquiera de las tres causas son suficientes para producir el cambio de régimen (las
tres son equifinales, pueden producir el mismo resultado final), pero ninguna de ellas es
necesaria (no hace falta que se dé una de ellas para que se produzca el resultado).

De todas maneras, tal como muestran de nuevo King y Powell (2008), este concepto no
se encuentra alejado de lo que consideran los cuantitativos, en que los modelos
multivariantes explícitamente suponen la existencia de muchos caminos que pueden
conducir a un mismo resultado. Lo que sí que hay en los modelos cualitativos es una
especificación mucho más precisa de la relación entre las combinaciones de las
diferentes variables y los resultados.

5) Una quinta diferencia entre las dos tradiciones metodológicas según Mahoney y
Goertz (2006, pág. 237-238) se refiere al alcance de la población y de la
generalización causal. Para los cualitativos, la teoría es “reducida”, en el sentido de
que solo es generalizable a un conjunto de casos limitados. De hecho, en algunos
estudios, los casos analizados son todo el alcance aplicable de la teoría. En cambio, en
la metodología cuantitativa los especialistas normalmente definen el alcance de la teoría

56
© FUOC PID_00228045

de forma más amplia, intentan encontrar generalizaciones válidas para un gran número
de casos. Los cuantitativos conciben los casos que analizan como si fueran una muestra
de un universo potencialmente mucho más grande.

Entre los cualitativos existe la convicción de que la heterogeneidad causal es la norma


en las poblaciones grandes. Por eso existe la idea de que cuando crece la población, se
incrementa el peligro de perder las relaciones causales clave o de especificar mal las
teorías. Cada nuevo caso es una oportunidad de modificar sustancialmente la teoría, de
modificar la explicación que se ha dado, puede incorporar una heterogeneidad que no se
había tenido en cuenta.

Fijémonos que, en última instancia, esta concepción de la población y de los casos está
relacionada con la concepción de la unidad de análisis: ¿son simples receptáculos
esencialmente idénticos en cuanto a las cuestiones que estamos analizando, o bien se
trata de una unidad que incorpora una heterogeneidad que no se agota en las
características o variables que podemos medir en ellos?

Así, entre los especialistas cuantitativos, la existencia de muchos casos permite aplicar
las técnicas estadísticas. Se pueden medir una multiplicidad de variables que pueden
tener efecto causal en la variable dependiente. Pero entonces, lo que importa no es tener
controladas todas las causas que conducen a un resultado en un pequeño grupo de casos,
sino el conjunto de variables que tiene más poder explicativo para una gran cantidad de
casos. Como se ve, la diferente forma de estimar los resultados conduce a una diferente
sensibilidad a la hora de considerar la heterogeneidad causal. Las variables que solo
afectan a algunos casos son tratadas como asistemáticas y relegadas al término de error.
Las variables con menor impacto son omitidas para poder hacer una explicación general
sobre las poblaciones más amplias.

6) Según Mahoney y Goertz (2006, pág. 239-241), las dos tradiciones también se
diferencian en las prácticas de selección de casos. Lógicamente, los especialistas
cualitativos seleccionan los casos en los que el resultado de interés se produce: los
países donde ha habido una revolución o un proceso de democratización (son los
llamados casos positivos). Proceder de este modo es normal cuando se trata de explicar
resultados particulares (sería absurdo elegir un país donde no ha habido ninguna
revolución para comprobar cuáles son los factores que han provocado). De todas
maneras, algunos investigadores cualitativos también pueden estudiar los casos
negativos para comprobar teorías.

La recomendación lógica para los investigadores cuantitativos es que la selección de los


casos se tiene que hacer sin tener en cuenta el valor de la variable dependiente. Si se
selecciona teniéndola en cuenta, se pueden dar sesgos en la investigación (Heckman,
1976). Por tanto, una de las bases del diseño de investigación para evitar sesgos según
King, Keohane y Verba (1994) es que se elijan muestras aleatorias a través de la
selección en las variables independientes.

La respuesta de los analistas cualitativos es que el diseño de investigación en el que se


eligen los positivos es adecuado si de lo que se trata es de encontrar las causas
necesarias. Por otro lado, cuando se está haciendo el análisis en profundidad de un caso,
el analista está obteniendo una gran cantidad de observaciones del proceso causal que se
ha producido, de forma que está capacitado para controlar los sesgos y para realizar una

57
© FUOC PID_00228045

inferencia causal a pesar de que solo tenga un caso (N = 1). Pero hay veces en que se
incorporan casos de resultados negativos por contraste causal e inferencia.

Finalmente, según Mahoney y Goertz (2006, pág. 241), las dos tradiciones tienen una
forma de elegir los casos que difiere tanto en las variables independientes como en la
dependiente. Y ambas tradiciones tienen buenas razones para hacerlo. Si el objetivo de
la investigación es explicar los resultados de casos particulares (como ocurre en el
análisis cualitativo), entonces no tiene ningún sentido elegir casos sin tener en cuenta el
resultado, ni tampoco tratar los casos negativos que no tienen un resultado de interés.

7) La séptima diferencia entre tradiciones se refiere al peso de las observaciones


(Mahoney y Goertz 2006, pág. 241-242). Los investigadores cualitativos se asemejan a
los detectives: solucionan problemas y explican resultados particulares en base a una
recogida detallada de datos, la experiencia en casos similares y el conocimiento de
principios causales generales. Desde el punto de vista del método del detective, no todas
las piezas de evidencia tienen el mismo peso (ved, por ejemplo, Van Evera, 1997;
George y Bennett, 2005). Hay casos que contribuyen de forma considerable. Hay
observaciones críticas que permiten decir que una teoría no es correcta, a pesar de que
haya muchas evidencias a su favor. Por ejemplo, un dato crucial te puede mostrar que
una variable clave estaba medida de forma incorrecta y que cuando está bien medida, la
teoría ya no funciona.

Por el contrario, los cuantitativos no suponen que una observación deba tener más peso
que otra. De hecho, esta suposición es coherente con la idea de que la investigación se
orienta más hacia las variables que hacia los casos, que se suponen esencialmente
idénticos. Los analistas cuantitativos buscan patrones de las observaciones que
contradigan la hipótesis nula de que no existe ninguna relación entre la variable
dependiente e independiente. Por tanto, una única observación no puede cuestionar la
teoría. Los casos que contradicen la teoría (la relación esperada) entran dentro del
mismo planteamiento probabilístico del método estadístico (se puede tratar de errores de
medida o de la existencia de multicausalidad).

De todas formas, los outliers o casos atípicos, siempre son sospechosos, y si se toma el
método estadístico en su vertiente de síntesis y descripción de los datos, pueden servir
para detectar variables o factores que no han sido tenidos en cuenta en el modelo
especificado. Por lo tanto, los casos atípicos pueden servir para mejorar heurísticamente
nuestros modelos. Además, si se especifican modelos más completos, habrá un mejor
encaje entre los datos y el modelo teórico.

Para los investigadores cualitativos (por ejemplo, Collier, Brady y Seawright, 2010; o
también: Fearon y Laitin, 2008) se tiene que distinguir entre observaciones de proceso
causal (causal-process) y el conjunto de datos (data-set). Los procesos causales
proporcionan información del contexto de los casos que estamos estudiando o de los
mecanismos que entran en funcionamiento y que explican las relaciones que se
encuentran en las matrices de datos. Los datos del proceso-causal contribuyen de
manera diferente a nuestra capacidad para establecer la inferencia causal. Ambos tipos
de evidencia son útiles. Mientras que las observaciones de proceso son especialmente
útiles para explicar resultados específicos en casos particulares, los conjuntos de datos
(data-set) son importantes para generalizar, estimar efectos medios de las variables.
Este punto de vista está conectado con la idea de que los datos empíricos que se han de

58
© FUOC PID_00228045

recoger en una investigación tienen que maximizar su capacidad de influencia


(leverage) y que los datos cualitativos pueden complementar perfectamente los datos
cuantitativos con una N grande (King y Powell, 2008).

8) Otra diferencia entre la tradición cuantitativa y la cualitativa se refiere a la existencia


de casos sustantivamente importantes (Mahoney y Goertz 2006, pág. 242-243).
Mientras que en el análisis cualitativo hay una valoración del resultado del análisis (ex
post) de los casos outliers, de observaciones que tienen un impacto en las estimaciones
estadísticas, en el análisis cualitativo puede darse una valoración diferenciada del valor
que tiene cada caso. Como en los puntos 5, 6 y 7, este punto hace referencia al papel de
los casos en la investigación cualitativa. En todos estos puntos, se supone que los casos
en la investigación cualitativa son heterogéneos en un grado muy superior a la
heterogeneidad que se supone que existe entre los casos en los estudios cuantitativos.
En la investigación cualitativa hay información sobre los casos que no queda reflejada
en el proceso de conceptualización y medición de las variables. Este “residuo”, que se
obtiene a través de un tipo de acceso menos codificado, es lo que explica la mayor
riqueza de información que se atribuye a la investigación cualitativa.

9) Otra diferencia entre la tradición cualitativa y la cuantitativa es el tratamiento de la


falta de encaje entre los conceptos teóricos y los datos empíricos (Mahoney y Goertz
2006, pág. 242-243). Entre los especialistas del campo cualitativo, el investigador
normalmente está familiarizado con cada caso de la investigación. Si un caso no liga
con la teoría es difícil ignorarlo. Se intenta ver por qué es especial en términos de patrón
causal y qué hace falta para integrarlo. Estos factores especiales están directamente
identificados y comentados. El analista cualitativo quiere entender exactamente por qué
un caso particular no casa con la explicación teórica.

En cambio, los investigadores cuantitativos no ven un problema especial en la


incapacidad de explicar un caso particular si el modelo proporciona una buena
estimación de los parámetros de la población como un todo. Muchos factores
idiosincrásicos pueden importar en los casos particulares, pero estos casos pueden no
ser importantes para la preocupación del modelo teórico central, y por lo tanto no son
muy preocupantes. Se busca que la explicación sea óptima: no se busca una explicación
de todo, sino aquella explicación que es suficiente para explicar más acerca del
fenómeno de interés. Por otro lado, la exclusión de factores idiosincrásicos no sesga la
estimación de los parámetros del modelo si no están relacionados con los términos de
error especificados en el modelo; es decir, si no están relacionados simultáneamente con
las variables independientes y la variable dependiente del modelo (ved King, Keohane y
Verba, 1994, pág. 79). En fin, la falta de encaje del modelo estadístico puede provenir
tanto de las variables omitidas como de la aleatoriedad y del error de medición. Si las
variables omitidas no son colineales y los errores de medición no son sistemáticos, no
hay ningún problema, puesto que los parámetros estimados, los resultados, no estarán
sesgados.

La diferente visión en el tema de la falta de encaje en ambas tradiciones crea


malentendidos. Para los especialistas cualitativos el error de predicción tendría que ser
explicado y no simplemente admitido, especialmente cuando los estudios cuantitativos
solo explican una pequeña proporción de la variación de la variable de interés. Desde el
otro punto de vista, los especialistas cuantitativos se sorprenden del esfuerzo de los
cualitativos para entender los casos no conformes con la teoría. En el fondo, se trata de

59
© FUOC PID_00228045

una diferencia entre la concepción determinista de la explicación cualitativa y la


formulación probabilista del enfoque estadístico (que está vinculado con su noción del
error de medición y de la multicausalidad). Según Mahoney y Goertz, si se tienen en
cuenta los diferentes objetivos de cada una de las tradiciones (explicar una media o
explicar un caso), los dos puntos de vista son justificables y difíciles de criticar.

10) Finalmente, según Mahoney y Goertz (2006, pág. 244-245) las dos tradiciones de
análisis se caracterizan por tratar de forma diferente los conceptos de las medidas. La
validez conceptual es una preocupación central en la investigación cualitativa. Para esta
es la razón a la que normalmente se dedican muchos esfuerzos. Se supone que la falta
de validez conceptual, que se produce a nivel de la estructura lógica de un concepto, es
una fuente de error de medida importante. Se quiere evitar lo que se denomina el
estiramiento conceptual (conceptual stretching), es decir, aplicar un concepto a casos
para los que no es apropiado.

La investigación cuantitativa, en cambio, se centra en la operativización de los


conceptos y en la medición. Para los investigadores cuantitativos el error de medida se
produce a nivel de los indicadores y no de los conceptos. El problema metodológico es
cómo modelar el error de medida y modificar los indicadores con escasa preocupación
por la revisión del concepto. Según los cuantitativos, se puede decir que el concepto
viene definido por los indicadores que se usan para medirlo. Esto es lo que se denomina
en la tradición cuantitativa una definición operativa. Esta forma de proceder no es
aceptable para los cualitativos.

Desde el punto de vista de los especialistas cualitativos, los estudios cuantitativos


utilizan unas medidas simplistas de los conceptos. En cambio, su objetivo es explicar
cada caso individual de forma correcta, por lo tanto se tiene que eliminar el error de
medida completamente, puesto que puede tener consecuencias importantes para la
verificación o falsificación de una teoría. Para los cuantitativos, en cambio, el error de
medición es inevitable, pero no es devastador si se plantea de forma adecuada. La
existencia de error de medición sistemático (el sesgo) es un problema importante, pero
las mismas técnicas estadísticas proporcionan medios para detectarlo. De forma que, si
es posible, se buscarán mejores indicadores o mejores formas de modelar el error.

Los métodos cualitativos desde la corriente principal (mainstream) de la


ciencia política

Un tipo de convergencia entre métodos cualitativos y cuantitativos proviene de la obra


metodológica más influyente en las últimas décadas de la corriente principal en la
ciencia política, y que ha fijado el estándar de la investigación científica: El diseño de la
investigación social: la inferencia científica en la investigación cualitativa, escrita por
King, Keohane y Verba (1994), todos ellos autores líderes de la corriente cuantitativa y
cada uno de ellos líder de un campo de la ciencia política. Esta obra consiste en una
exposición de cómo se define la lógica de la inferencia científica de acuerdo con la
posición positivista-cuantitativa y muestra cómo puede esta lógica ser adoptada
provechosamente por parte de los estudiosos que tengan que utilizar métodos de
investigación cualitativos. El enfoque cuantitativo que ha surgido del método estadístico
ha permitido el desarrollo de una gran cantidad de métodos específicos para analizar

60
© FUOC PID_00228045

diferentes tipos de datos y de información de acuerdo con sus características, y ha


permitido evaluar y mejorar las fórmulas utilizadas para diseñar las investigaciones.

Es interesante ver que la obra de King, Keohane y Verba (KKV) ha tenido una gran
repercusión dentro de la corriente cuantitativa gracias a que, en su diálogo con los
métodos cualitativos, ha sido capaz de destilar los elementos esenciales del método
cuantitativo. De hecho, en obras posteriores, Gary King, el líder del proyecto, se ha
esforzado todavía más para mostrar los elementos esenciales de la inferencia que se
alejan del origen estadístico y que se aproximan más a la forma en que los
cuantitativistas entienden la investigación (por ejemplo, King y Powell, 2008). El
resultado ha sido que también en el campo cualitativista la obra de KKV ha tenido una
gran repercusión.

En King y Powell (2008), el acercamiento hacia el bando cualitativista les ha llevado a


reconocer firmemente la legitimidad de la investigación cualitativa dentro de las
ciencias sociales. La investigación cualitativa tiene la prioridad temporal ante la
investigación cuantitativa. Cuando una teoría todavía se encuentra en un estado
incipiente de desarrollo, se tiene que recurrir a medidas más complejas de los conceptos
que las que son aptas para ser cuantificadas. Por otro lado, cualquier estudio cuantitativo
requiere de una evaluación cualitativa de los resultados obtenidos; según esto, toda
investigación social es en realidad cualitativa y, por tanto, la investigación cualitativa
puede ser considerada como la más extensa, y de hecho, incluye a la investigación
cuantitativa como un subconjunto. “Dado que no es posible hacer ninguna investigación
sin ninguna comprensión cualitativa, concluimos que toda investigación es cualitativa, y
un subconjunto de esta también es cuantitativa.”

Esta posición parece más favorable que la expresada en el manual de King, Keohane y
Verba, donde se asume que la investigación cualitativa no logra los estándares de la
investigación cuantitativa. El argumento sobre el estatus se fundamenta sobre la idea
crucial de que en los estudios cualitativos no hay un número suficiente de casos o de
unidades de análisis:

“La investigación cualitativa alcanza una ancha gama de enfoques, pero, por definición, ninguno
de ellos se basa en medidas numéricas. Este tipo de trabajo se centra generalmente en un caso o
en un reducido número de casos; usa un método discursivo e intenta estudiar de forma global o
exhaustiva un acontecimiento o unidad”.

King, Keohane y Verba (1994, pág. 13).

Ciertamente, no nos encontramos ante un cuantitativismo dogmático. Se acepta que la


realidad social es muy compleja y que la utilización de métodos cualitativos es
inevitable e imprescindible para asegurarnos una correcta comprensión de muchos
fenómenos sociales. Por ejemplo, Gary King consideraba la percepción intuitiva
cualitativa como una fuente de información tan válida que, en su obra sobre la solución
al problema de la inferencia ecológica (King, 1997), recomendaba que el investigador
se desplazara físicamente a algunos de los distritos electorales que estaban incluidos en
su análisis cuantitativo para poder entender mejor las diferencias o las características
específicas de estos distritos que no quedaban recogidas en las variables cuantitativas.

King y Powell (2008) defienden que se utilice en una misma investigación conjuntos de
datos diversos, si es posible, obtenidos con métodos diferentes. Un principio del buen

61
© FUOC PID_00228045

diseño de investigación es la maximización de la influencia (leverage) de la teoría en su


contraste empírico: cuanto más extenso y variado sea el número de fenómenos que
pueden ser explicados por una misma teoría, mejor. Para eso la potencia de un diseño de
investigación se verá favorecido cuando utilice varios conjuntos de datos, obtenidos si
es posible con diferentes métodos de investigación, para comprobar una misma teoría.
Ahora bien, se declaran totalmente en desacuerdo con la idea de que tendrían que existir
diferentes métodos para analizar los mismos datos: “Se tendría que maximizar la
multiplicidad de bases de datos, no la multiplicidad de métodos”.

En este punto se enfrentan con la defensa de la multiplicidad de métodos y de la


“triangulación de métodos” típica de los metodólogos cualitativistas. Para King y
Powell, la lógica de la inferencia es la misma y a pesar de que existan diferentes
conjuntos de datos, estos pueden ser analizados del mismo modo. Un estudio
etnográfico puede complementar perfectamente un estudio cuantitativo abstracto
asegurando no solo contra el sesgo, sino también haciendo más probable aportar
implicaciones observables de una teoría.

Gerring (2005) está de acuerdo. Aunque los “pluralistas causales” son beneficiosos por
el hecho de implicar una corrección del positivismo ingenuo, sus planteamientos tienen
dificultades. Por un lado, ponen demasiado énfasis en la forma diferente de entender la
tarea científica en los diversos métodos y, en segundo lugar, el pluralismo no sirve de
mucho si los métodos no están relacionados de alguna forma entre ellos; si los métodos
son inconmensurables, el resultado obtenido con un método no puede aportar nada al
otro. No puede haber acumulación. Para Gerring hay incentivos para un marco de
causalidad unificado en las ciencias sociales, pero tiene que ser lo bastante amplio o
básico como para permitir que todas las ramas se sientan cómodas.

¿Cuándo se tendrían que usar datos cualitativos o cuantitativos en una investigación?


Según King y Powell (2006, pág. 12) “si no hay bastantes datos cuantitativos sobre un
problema y existe información adicional cualitativa, los análisis cualitativos son
normalmente superiores a la aplicación de métodos estadísticos”. Y realmente en el
mundo hay mucha realidad que no es cuantificada o cuantificable.

Aunque, tal como lo veían King, Keohane y Verba, el proceso de cuantificación


dependerá sobre todo de nuestro desarrollo teórico:

“[...] la complejidad no es inherente a los fenómenos [...] la complejidad que se percibe en una situación depende en
parte de en qué medida podemos simplificar la realidad de forma adecuada [...] tener más observaciones puede
ayudarnos en este proceso, pero suele resultar insuficiente. Por lo tanto, «la complejidad» depende en parte del estado
de nuestra teoría”.

King, Keohane y Verba (1994, pág. 20).

Sin embargo, para King y Powell (2008) queda clara la superioridad del sistema
desarrollado por la metodología cuantitativa: “Cuando se puede cuantificar suficiente
información sobre un problema (¡una calificación crucial!), un análisis estadístico de
alta calidad es de largo superior al juicio cualitativo”. El análisis estadístico se tiene que
entender como una forma de controlar los fallos del raciocinio humano cuando realiza
juicios. Como se ha comprobado en diferentes estudios (por ejemplo, Ayres, 2008) los
análisis estadísticos acostumbran a ser mejores que los juicios cualitativos hechos por
expertos, “incluso cuando son hechos por analistas con poco conocimiento del problema

62
© FUOC PID_00228045

sustantivo que se quiere tratar o con información cuantitativa que parece


sorprendentemente incompleta a los expertos en la materia”.

Por supuesto, King y Powell (2008) en todo momento permanecen en la idea de la


existencia de una objetividad externa que, pese a la complejidad de la realidad social y
política, no se “diluye” en las interpretaciones hechas por los investigadores. En la
investigación empírica, aprendemos del “libro de la naturaleza” social. Aunque sea
necesario que impongamos modelos y categorías para medir la realidad y comprobar
nuestras teorías, la realidad puede negarse a ajustarse a nuestras expectativas. Y de
hecho, este desajuste entre las expectativas teóricas y los resultados empíricos
obtenidos, prácticamente inevitable en cualquier investigación bien hecha (este
desajuste es un indicador de una investigación bien hecha), es lo que permite la mejora
y enriquecimiento de nuestra comprensión de la realidad. Toda teoría se enriquece o se
reformula a partir de las anomalías y excepciones que se encuentran en sus
predicciones. Pero el hecho de que estos autores integren los métodos cualitativos
dentro de esta perspectiva positivista hace que algunos autores cualitativistas
interpretacionistas rechacen esta investigación cualitativa como auténticamente
cualitativa.

Por otro lado, King y Powell reconocen otra ventaja en la investigación cualitativa que
no está muy resuelta en el enfoque cuantitativo. Aceptan el punto de vista de Mahoney
y Goertz (2006) de que la noción de explicación que plantean los estudios cualitativos,
la respuesta a la pregunta “¿por qué ha pasado esto y no aquello otro?”, es más natural
que la que aparece en los estudios cuantitativos y que se basa en la noción de causación.
En la investigación cuantitativa se sustituye la pregunta sobre el por qué de los
fenómenos por una noción de causación que identifica cuáles son los factores que tienen
algún peso sobre la variable dependiente. Se buscan más las causas de una consecuencia
que las consecuencias de una causa. Para King y Powell, el enfoque cualitativo
continuará disfrutando de una ventaja respecto del enfoque cuantitativo, por el hecho de
plantear de forma más convincente las explicaciones, hasta que no se desarrollen nuevas
técnicas cuantitativas adecuadas para tratar de manera más satisfactoria la pregunta del
porqué.

En resumen, el punto de vista de King y Powell parte del método cuantitativo


(estadístico) como modelo de referencia para la inferencia científica. A partir de este
modelo, lo abstrae y ve de qué forma puede servir para entender y guiar la investigación
cualitativa. Este movimiento es visto como “invasivo”, “imperialista” o “expansionista”
por algunos de los investigadores cualitativos.

Pero, como King y Powell comentan, incluso muchos de los que están en contra del
método cuantitativo han acabado utilizando los conceptos desarrollados para identificar
los principales problemas de inferencia (sesgo de variables omitidas, sesgo de selección,
etc.).

Cuando relajan la posición cuantitativa exclusiva y aceptan la multiplicidad de bases de


datos obtenidas con diferentes métodos, la invasión es todavía más explícita; pero, en
cambio, polemizan con la idea de que diferentes técnicas de análisis deban ser utilizadas
con éxito en un mismo análisis. Tampoco aceptan la idea de mezclar evidencias
cuantitativas y cualitativas “para quedar bien”, es decir, sin que aporten nada nuevo.
Desde el punto de vista de los recursos escasos de que se disponen para hacer las

63
© FUOC PID_00228045

investigaciones, se tienen que combinar los tipos de observaciones en la justa


proporción, que ofrezca una mayor cantidad de información.

64
© FUOC PID_00228045

Apéndice I: Preparación y supervisión de una tesis en ciencias


sociales
A continuación incluyo traducido y actualizado el texto que el Economic and Social
Research Council de Estados Unidos (1986) editó para explicar una cuestión
fundamental en la elaboración de una tesis: la relación con el supervisor o director.

La preparación y supervisión de una tesis de investigación en ciencias


sociales

1. El encaje entre el estudiante y el supervisor (director)


Como principio general, el director y el estudiante deberían tener intereses comunes. En la elaboración
normal de una tesis (donde los periodos temporales son más extensos) el estudiante se tendría que
responsabilizar de la búsqueda del director de investigación que encaje con sus intereses. En el máster
hay poco tiempo y poco profesorado porque hay pocas asignaturas. Así, pues, hay pocas oportunidades de
elegir un director que ligue con nuestros intereses. Por eso, desde la administración de la asignatura de
TFM se hace un esfuerzo por encontrar colaboradores docentes, especializados en diferentes áreas de
interés potencial de los estudiantes, que puedan hacer un seguimiento personalizado de los trabajos de
investigación.

2. Preparación de un proyecto de investigación


a) La pregunta de investigación. Es vital para el estudiante ser capaz de establecer claramente los
objetivos de la investigación, ya sea en términos de un problema que deba ser resuelto o una hipótesis que
deba ser probada, o en otros términos apropiados.

El interés en un tema expresado de forma vaga conduce generalmente a debilidades en el diseño y la


estrategia de investigación. Esto no quiere decir que la definición del problema o hipótesis tenga que ser
inamovible (si la premisa abierta está claramente formulada y la investigación propuesta es definida de
forma imaginativa).

b) Un informe satisfactorio reseñando la literatura. La tentación es empezar con la recolección de


materiales primarios o de datos antes de haber completado la lectura de los artículos, libros y tesis
relativos a nuestro tema. Pero es esencial adquirir un ancho conocimiento del trabajo que se ha hecho
previamente en el campo antes de que cualquier nueva contribución pueda ser planeada adecuadamente.
Esto implica la construcción de una revisión adecuada de la literatura; una cuidadosa combinación de
registros de resumen y otras guías de la investigación en marcha; una revisión sistemática de las revistas
profesionales; una lectura cuidadosa de los libros y monografías destacadas. En este punto es crucial el
consejo del supervisor (director).

Realizada de forma apropiada, la revisión de la literatura sirve para unos cuántos propósitos. Primero,
permite al estudiante adquirir una muestra adecuada de las teorías y de los métodos de análisis del campo
de investigación. Segundo, refuerza el conocimiento de fondo. Tercero, normalmente proporciona una
primera visión de cuáles son las fuentes primarias disponibles y cuáles han sido utilizadas por las
investigaciones previas.

Pero la revisión de la literatura no se ha eternizar. La lectura puede ser paralela a la búsqueda y


acumulación de datos reales.

c) Establecimiento preliminar de los problemas de recolección de datos. La dificultad varía de forma


notable de un tema a otro. Pero en todos los casos es importante para los estudiantes tener una idea
aproximada de la utilidad relativa y de la densidad de los diversos cuerpos de material primario.

65
© FUOC PID_00228045

Es también el momento de establecer los problemas potenciales de confidencialidad de los datos. Una
tesis queda normalmente a disposición del público. No se trata de un documento privado.

Es importante asegurar el acceso adecuado del estudiante al material relevante y que sus necesidades
queden claras desde las primeras etapas.

d) Planificación del trabajo. Por muy meticulosa que sea la preparación, la escritura revelará
inevitablemente carencias que se tendrán que resolver y debilidades en los argumentos que se tendrán que
reforzar con evidencias. Al escribir siempre se tarda más tiempo del que se supone que tiene que ocupar.
Pero el estudiante debe tener en cuenta no escribir demasiado: más largo no es necesariamente mejor y
los datos, hasta cierto punto, definen la estructura.

El detalle preciso de la planificación de la investigación y análisis se verá afectado por la naturaleza del
tema de la tesis y por la naturaleza de la disciplina. A menudo es necesario hacer un estudio piloto antes
de hacer el estudio principal del proyecto de investigación.

Si una tesis se basa en nuevos análisis de datos cuantitativos se dedica mucho tiempo a escribir y probar
los programas de ordenador. Esto no se tiene que suponer que surja directamente y sin problemas.

e) Esquema de la tesis. A pesar de que no es posible saber desde el principio la forma exacta de las
subdivisiones de la tesis, debería ser posible hacer un esquema después de revisar la literatura y una vez
aprobadas las fuentes primarias. El esquema tiene que ser un mapa y, al principio, solo contendrá unos
cuantos puntos principales. Pero a medida que se añadan detalles, algunas líneas se convertirán en más
importantes y otras menos. Es probable que el esquema todavía sea visible en la tesis final, pero el diseño
preliminar se verá superado por los nuevos datos recogidos. De todas maneras, el esquema preliminar no
tiene que ser deshechado puesto que proporciona una forma básica.

3. Investigación y desarrollo del esquema


Es una fase difícil en la preparación de una tesis. Aquí el consejo y la guía del supervisor son más
necesarios. Durante la planificación del esquema de investigación, el supervisor estará en una buena
posición para dirigir al estudiante en relación con la literatura secundaria, apuntar hacia los materiales
primarios más importantes y para discutir la naturaleza del tema de investigación con más autoridad que
el estudiante. En este punto se tiene que recordar al estudiante la seguridad que ofrece el marco de
dirección y de interpretación que caracterizan a los programas de licenciatura y de posgrado. De todas
maneras, una vez comienza la investigación, el estudiante pronto llegará a un punto en el que sabe más de
la tesis que cualquier otra persona, incluyendo el mismo supervisor. Desde este punto en adelante, el
estudiante y el supervisor aprenderán de forma conjunta y discutirán la interpretación de los elementos
inesperados del material. Por ese motivo es absolutamente esencial que el supervisor y el estudiante estén
en estrecho contacto durante la toda fase de investigación. Para un supervisor que no siga de cerca los
hallazgos del estudiante será difícil proporcionarle una guía adecuada y a tiempo, y el estudiante que deja
de comunicar las ideas y hallazgos al supervisor puede olvidar interpretaciones obvias y perderse en
rodeos.

También es importante asegurar que el calendario para la investigación planeada al comienzo no se


olvide. Es muy fácil que el estudiante que explora un tema en profundidad por primera vez deje que la
investigación se vaya abriendo y recoja, así, todo tipo de información y de habilidades en terrenos que
pueden ser de utilidad en alguna etapa.

En cierto sentido, el tema de la tesis tiene que ser solo el primero de una serie de temas de investigación
que la persona seguirá a lo largo de su carrera académica, y es importante no tratar de cubrir todos los
aspectos de un tema a la vez, sino concentrarse en el problema de análisis inmediato. Esto, naturalmente,
es muy difícil de hacer, porque involucra toda una serie de juicios sobre qué tipo de datos adquirir
directamente del tema elegido y cuáles no. Mientras que el estudio consiste en la investigación de un
objetivo intelectual, hasta que no es obtenido hay un límite al tiempo que se puede dedicar
razonablemente a cada pieza de trabajo. El estudiante tiene que aprender a dejar de lado desarrollos que
pueden ser superfluos para la materia que se está tratando.

66
© FUOC PID_00228045

El problema de registrar la información no tiene que ser subestimado. Cada disciplina tiene sus propias
técnicas y procedimientos para tomar notas y recopilar los datos, y un estudiante los tiene que dominar
antes de empezar la investigación. Las notas poco cuidadosas pueden producir muchas dificultades
durante la escritura de la tesis.

El supervisor es el responsable para pasar de la sabiduría convencional a una buena práctica de


investigación, lo que varía de una disciplina a otra. He aquí unos cuántos consejos generales:

1) Trabaja con el ordenador. Un ordenador portátil es más práctico y lo puedes llevar a la biblioteca. Las
notas mecanografiadas son más compactas que las tomadas a mano y tienen la gran ventaja de poder
hacer búsquedas por palabras, etc., disponibles en los buscadores de los mismos sistemas operativos u
otros productos gratuitos, como Google Desktop. Haz copias.

2) A medida que la investigación aumenta, crea una bibliografía (programas informáticos de gestión de
bibliografía tipo EndNote, RefWorks o, especialmente, Zotero son muy útiles, pues te permiten conseguir
las referencias directamente para hacer las notas a pie de página...).

3) La sección de metodología y de resultados de cada fase se tiene que registrar en el momento. Es


conveniente mantener un registro del progreso de la investigación, un diario del desarrollo que ponga
fecha a los resultados que van surgiendo y a las ideas que surgen de la literatura.

4) Vuelve periódicamente, y mejor aún regularmente, al esquema de la tesis o el diseño de investigación


para asegurarte de que el tiempo dedicado a cada aspecto anticipado del trabajo está equilibrado. Evita las
distracciones. Revisa que el esquema de la tesis continúe siendo apropiado; sino, revísalo o ponlo al día.

5) Intercala periodos de investigación con periodos de lectura de la literatura y escritura. Se fertilizarán


los unos a los otros.

6) Estudiante y supervisor tienen que acordar la manera de trabajar y de intercambiar puntos de vista que
más les convenga. Hay que establecer un calendario de encuentros regular entre ambos. Hay que marcar
puntos clave en el calendario para que el supervisor tenga una apreciación clara del progreso y de las
prospectivas del trabajo. Las cartas o los esbozos preliminares de los capítulos clave son buenos medios
para explorar las ideas.

7) Es muy fácil que el estudiante acabe obsesionado con el tema hasta el aburrimiento. Muchos
departamentos organizan seminarios de trabajos en marcha para los estudiantes que se encuentran
implicados en investigaciones, no solo para darles la oportunidad de probar nuevas ideas e
interpretaciones, sino para mantenerlos en contacto con otros estudiantes.

8) Asistir a algunas clase en el propio departamento o en otros o asistir a conferencias profesionales o


cursos de formación son otras formas de mantener el contacto y evitar la soledad del estudiante.

10) La escritura tiene que ser clara, simple y libre de argot técnico innecesario.

4. La escritura de la tesis
Normalmente la transición entre la investigación y la escritura nunca es abrupta. Es raro el caso de un
estudiante que deje de recoger datos un día y empiece a escribir el día siguiente. De todas maneras, un
buen supervisor insistirá en un comienzo formal, marcado por la aprobación de un plan de la tesis
detallado y un calendario para la realización de los borradores de los capítulos.

Una vez superada esta fase, la preparación de un borrador completo tiene que tener prioridad sobre
cualquier otra tarea, incluso si el proceso de escritura muestra la existencia de vacíos de información.
Estos problemas han de ser anotados para resolverlos más adelante. Pero la presión para acabar el
borrador no se tiene que interrumpir.

Es un error mantenerlo en todo reserva hasta que se ha completado el borrador completo. Los mejores
resultados se obtienen cuando cada borrador de un capítulo (incluyendo las notas a pie de página) se le
entrega al supervisor tan pronto como esté listo, de forma que este puede hacerse una idea de si la tesis
avanza correctamente. A veces sucede que los borradores de los primeros capítulos tienen demasiado

67
© FUOC PID_00228045

material no asimilado, poca discusión y una forma insuficiente (es decir, una estructura de exposición
poco clara). En este caso, el supervisor tiene que pedir que el el capítulo se rehaga antes de continuar con
el siguiente, para que este tipo de errores se corrijan en las primeras etapas. Después de pasar un periodo
concentrado en la investigación, el estudiante suele necesitar algún tiempo para sentarse y escribir; el
patrón general es escribir lentamente al comienzo y acelerar en los capítulos finales.

En general, hace falta alrededor de cuatro a seis meses para el primer borrador.

Una vez acabado el primer borrador, el estudiante puede tratar las tareas menores de investigación
necesarias para completar los vacíos de información.

El segundo borrador tiene que ser una reanudación completa del primer borrador y no un trabajo de cortar
y pegar. Mientras que la función del primer borrador es resolver los problemas de organización y de
presentación de las evidencias, la función del segundo borrador es mejorar la claridad de expresión y
asegurar que la tesis se ha organizado como un todo en un argumento conectado, construido y expuesto
adecuadamente. El segundo borrador no tiene que tardar más de seis a ocho semanas para completarse.
No obstante, puede requerir más tiempo si se tiene que reescribir una buena parte.

En este punto el estudiante tiene que asegurarse de que los hechos y las referencias se han revisado
adecuadamente y que el manuscrito ha sido revisado para eliminar los errores.

La necesidad de escribir con claridad ya ha sido mencionada antes. En este punto hay que insistir hasta la
pesadez. Siempre existe la tentación de utilizar palabras rimbombantes y formas de expresión
complicadas para demostrar el conocimiento y dominio del argot más abstruso y de estructuras literarias
complejas. Hay que resistir esta tentación.

Cualquier fragmento de escritura tiene que ser accesible a tanta gente como sea posible. Obviamente,
algunos conceptos solo se podrán expresar, de forma cuidadosa, en lenguaje técnico. En estos casos está
claro que se tiene que utilizar. Pero en las proposiciones generales y en las exposiciones cualquier autor
obtendrá un mayor beneficio si utiliza un lenguaje claro y sencillo.

Conclusión
Muchos estudiantes de investigación creen que la calidad de una tesis necesariamente mejora con la
cantidad de tiempo que se han tomado en prepararla y el número de palabras que contiene. Esto no es
cierto. Una tesis corta, bien presentada y bien argumentada, con el apoyo de una estructura completa de
resultados y de referencias, es mejor porque conduce a un final, mientras que un trabajo más largo parece
que nunca acaba. Una tesis corta puede dejar un residuo de ideas que se pueden desarrollar en trabajos
posteriores.

Sin embargo, la mayoría de los estudiantes únicamente podrán disponer de unos cuantos años de
investigación doctoral a tiempo completo antes de encontrarse ante las presiones de su primer trabajo.
Hasta para el mejor intencionado y más enérgico de los investigadores será muy difícil acabar una tesis
trabajando solo por las tardes y los fines de semana, y a medida que pasa el tiempo encontrarán que el
tema va perdiendo frescura y que el trabajo investigador de otros lo ha sobrepasado. Sucede a menudo
que el enfoque personal sobre el tema puede alterarse a medida que uno mismo se desarrolla y va
ganando experiencia y es cada vez más difícil reencontrar el entusiasmo que había sentido al comienzo
por la investigación original.

Es posible producir una tesis de calidad excelente en tres años si el trabajo ha sido cuidadosamente
planeado.

68
© FUOC PID_00228045

Apéndice II: La importancia de la estupidez en la


investigación científica
Martin A. Schwartz
Traducción del artículo de Martin A. Schwartz (2008). “The importance of stupidity in scientific
research”. Journal of Cell Science (núm. 121[11], pág. 1771-1771).

Hace poco me topé con una vieja amiga por primera vez en muchos años. Habíamos hecho el doctorado
al mismo tiempo, aunque en diferentes áreas científicas. Luego dejó la universidad, fue a la Escuela de
Derecho de Harvard y ahora es una abogada sénior de una organización medioambiental. En algún
momento, la conversación entró en el tema de por qué había dejado el posgrado. Para mi sorpresa, me
respondió que era porque la hacía sentir estúpida. Después de un par de años de sentir esa sensación cada
día, quería hacer otra cosa.

Siempre había pensado que era una de las personas más brillantes que había conocido y su carrera
posterior corrobora esta opinión. Su respuesta me molestó. No paré de pensar en ello; al día siguiente, en
algún momento, caí en la cuenta. La ciencia también me hace sentir estúpido, solo que yo ya me he
acostumbrado. Estoy tan acostumbrado que, de hecho, busco activamente nuevas oportunidades para
sentirme estúpido. No sabría qué hacer sin ese sentimiento. Incluso creo que tiene que ser así. Me explico.

Para casi todos nosotros, una de las razones por las que nos gustaban las ciencias en la escuela secundaria
y la universidad era porque éramos buenos, se nos daban bien. No es la única razón: la fascinación por
comprender el mundo físico y la necesidad emocional de descubrir cosas nuevas también influyen. Pero
asistir a la escuela secundaria y la universidad significa estudiar asignaturas, y hacerlo bien quiere decir
encontrar las respuestas correctas a los ejercicios que te plantean. Si conoces las respuestas, lo haces bien
y llegas a sentirte inteligente.

Un doctorado, en el que debes realizar un proyecto de investigación, es una cosa completamente distinta.
Para mí fue una tarea de enormes proporciones. ¿Cómo construir las preguntas que conducen a
descubrimientos importantes, diseñar e interpretar un experimento para que las conclusiones fueran
absolutamente convincentes, anticipar las dificultades y encontrar la forma de evitarlas, o si no era
posible evitarlas, intentar resolverlas? Mi proyecto de doctorado era interdisciplinario, y durante una
temporada, cada vez que me encontraba con un problema, me dedicaba a perseguir a los expertos de mi
facultad especialistas en las diversas disciplinas que necesitaba. Recuerdo el día en que Henry Taube (que
ganó el premio Nobel dos años más tarde) me dijo que no sabía cómo resolver el problema que yo le
planteaba. Yo era un estudiante graduado de tercer año y pensaba que Taube sabía 1.000 veces más que
yo (una estimación muy conservadora). Si él no tenía la respuesta, nadie la tendría.

De golpe me di cuenta: nadie la tenía. Por eso era un problema de investigación. Y como era mi problema
de investigación, dependía de mí resolverlo. Cuando me enfrenté a este hecho, resolví el problema en un
par de días. (En realidad no era muy difícil, solo había que probar un par de cosas.) La lección crucial fue
que el alcance de las cosas que desconocía no solo era enorme, era, a todos los efectos prácticos, infinito.
Ser consciente de este hecho, en vez de ser desazonador, fue liberador. Si nuestra ignorancia es infinita, la
única acción posible es salir del paso lo mejor que podamos.

Quiero sugerir que nuestros programas de doctorado a menudo no ayudan a los estudiantes. Y esto es así
por dos motivos. En primer lugar, no creo que se explique a los estudiantes lo difícil que es investigar. Y
mucho más aún hacer una investigación importante. Es mucho más difícil que estudiar las asignaturas
más exigentes. La dificultad de la investigación consiste en la inmersión en lo desconocido. Simplemente,
no sabemos lo que estamos haciendo. No podemos estar seguros de si estamos haciendo la pregunta
correcta o el experimento correcto hasta obtener la respuesta o el resultado. Es cierto que la ciencia se
complica más aún por la competencia de las subvenciones y el espacio en las revistas más importantes.
Pero aparte de todo eso, hacer una investigación importante es intrínsecamente difícil y ningún cambio en
las políticas departamentales, institucionales o nacionales tendrá éxito en disminuir su dificultad
intrínseca.

En segundo lugar, no hacemos la tarea imprescindible de enseñar a nuestros estudiantes a ser estúpidos
productivos, es decir, a saber que si no se sienten estúpidos quiere decir que no se esfuerzan lo suficiente.
No estoy hablando de “estupidez relativa”, esa en la que los demás estudiantes de la clase han leído el

69
© FUOC PID_00228045

material, lo han trabajado y han hecho un buen examen, mientras que tú no lo has hecho. Tampoco estoy
hablando de gente brillante que podría estar trabajando en áreas que no coinciden con sus talentos. La
ciencia implica enfrentarse a tu propia “estupidez absoluta”. Esta clase de estupidez es un hecho
existencial, inherente a nuestros esfuerzos por impulsar el camino hacia lo desconocido. Los exámenes
preliminares y de tesis van bien encaminados cuando el comité de profesores fuerza al estudiante hasta
que empieza a formular las respuestas incorrectas, se rinde y dice: “No lo sé”. El objetivo del examen no
es ver si el estudiante responde correctamente todas las preguntas. Si lo hace, es la facultad la que no pasa
el examen. El objetivo es identificar las debilidades del estudiante, en parte, para ver dónde tendrán que
invertir el esfuerzo y, en parte, para ver si el conocimiento del estudiante fracasa en un nivel lo bastante
alto como para estar preparado para asumir un proyecto de investigación.

Estupidez productiva quiere decir ser ignorante por elección. Centrarse en las cuestiones importantes que
nos ponen en la incómoda posición de ser ignorantes. Una de las cosas bellas de la ciencia es que nos
permite tontear, pasar un mal rato una y otra vez, y sentirnos perfectamente bien siempre que hayamos
aprendido algo. Sin duda, esto puede ser difícil para los estudiantes que están acostumbrados a encontrar
siempre las respuestas correctas. Y no cabe duda de que unos niveles razonables de autoconfianza y de
resistencia emocional ayudarán, pero creo que la educación científica podría hacer mucho más para
aliviar ese gran cambio: pasar de tener que aprender lo que otras personas descubrieron a tener que hacer
tus propios descubrimientos. Cuanto más cómodos nos sentimos al sentirnos estúpidos, más fácil nos será
adentrarnos en lo desconocido y será más probable que se hagan grandes descubrimientos.

70
© FUOC PID_00228045

Apéndice III: Pistas útiles para escribir tesis en política


comparada
Extracto de: Peter A. Hall (1990). “Helpful Hints for Writing Dissertations in Comparative Politics”.
PS: Political Science and Politics (vol. 23, núm. 4, pág. 596-598).

¿Qué hay que hacer en las tesis de política comparada?

1. Dedica un poco de atención a la introducción y la conclusión de la disertación, aunque sea la


última cosa que escribas. Son las partes que la mayor parte de los lectores examinan para
identificar el contenido y la importancia del trabajo. Y las primeras impresiones de un lector
sobre la elegancia y comprensión del texto son importantes.
2. Identifica relativamente pronto en la introducción las preguntas básicas que plantea la tesis y di
por qué son interesantes en relación con un problema del mundo empírico y/o la bibliografía
contemporánea sobre el tema.
3. Indica cómo se relacionan el estudio y las preguntas que planteas con otros estudios y los
argumentos sobre ese tema general.
4. Incluye una breve argumentación pensada para justificar la selección de los casos explicando por
qué son buenos para probar la generalización de las proposiciones teóricas.
5. Asegúrate de que los conceptos centrales utilizados en el estudio están claros, se usan de manera
coherente y tienen una referencia empírica precisa. Si tienes dudas, añade definiciones claras.
Vigila que los argumentos no comiencen con distinciones entre conceptos confusos, como la
diferencia entre actitudes e intereses, salvo que se definan claramente y se diferencien
empíricamente.
6. Las referencias a pie de página han de ser precisas: hay que citar puntos concretos de obras y no
simples alusiones a la idea central de la obra como un todo.
7. Esfuérzate en cada capítulo, generalmente al principio o al acabar, para indicar de qué manera
encaja el material presentado en el estudio como un conjunto y, aún más importante, en el
argumento. Conoces tu tema de una manera que los lectores no pueden conocer, salvo que se lo
expliques. Por lo tanto, tienes que incluir hojas de ruta estratégicamente dentro del texto para
señalar hacia dónde te diriges (y se dirigen) y en qué punto se encuentran del argumento y de la
presentación de pruebas a su favor.
8. Intenta extraer alguna conclusión generalizable sobre la importancia de tu estudio en la
comprensión de la política o de algún aspecto del campo de estudio, ya sea la política de los
campesinos, el comportamiento de los legisladores, la estabilidad de regímenes u otros temas
similares. Casi todas las tesis son juzgadas tanto por la importancia de sus hallazgos en las
cuestiones más amplias de la política comparada, como por lo que nos explican sobre un caso
particular.
9. Asegúrate de que los postulados teóricos que haces están realmente justificados por las pruebas
empíricas que presentas. Por ejemplo, si desarrollas una teoría sobre si las ideas importan
realmente en la formulación de políticas, asegúrate de haber examinado la importancia de las
ideas relativas a otros factores críticos en los puntos de inflexión de tu estudio de caso. Si en
lugar de eso al final resulta que explicas una historia sobre los grupos de interés, rehaz o
reestructura tus postulados teóricos.

Qué no se tiene que hacer en tesis de política comparada

1. No hace falta que incluyas todo lo que has aprendido en el posgrado en la introducción. La
revisión de la bibliografía tiene que apuntar directamente hacia los temas centrales de tu estudio
y el tratamiento que se hace. Muchos lectores se volverán histéricos si tienen que leer una nueva
versión de teorías que solo están relacionadas tangencialmente con el tema que se trata.
2. No concluyas una tesis de 500 páginas con una conclusión apresurada de siete páginas. Da la
impresión de que no se ha podido concluir nada sustantivo después de cuatro años de trabajo.
3. No distorsiones las opiniones de los otros o conviertas en estereotipos básicos los trabajos que
revises o con los que te tengas que enfrentar. Por un lado, los autores discutidos lo pueden
encontrar muy molesto, como te pasará a ti mismo en unos cuantos años. Por otro lado, esta
distorsión puede restar valor a la verdadera importancia de su disertación, dando la impresión de
que un buen trabajo de investigación original está principalmente diseñado para refutar una
opinión que nunca habría sostenido nadie con un poco de inteligencia. Cuando se informa sobre

71
© FUOC PID_00228045

las opiniones de otros se tiene que ser apreciativo, equilibrado y preciso, especialmente cuando
estás en desacuerdo.
4. No sientas que tu trabajo se tiene que orientar a hundir alguna gran teoría del campo. Si se puede
hacer sin artificio, perfecto; pero no te olvides de que puede ser todavía más valioso extraer una
teoría positiva propia a partir de la investigación. Muchos autores han sido incapaces de explotar
y de desarrollar el potencial intrínseco teórico de su propio trabajo porque sentían que era
necesario concentrarse en atacar la teoría de otra persona.
5. No trates de incluir en la tesis todas las migajas de información empírica que hayas obtenido en
la investigación. Si recopilar información es una de las primeras habilidades que un escritor de
tesis tiene que aprender, una de las últimas es la autodisciplina para aceptar que solo una
pequeña selección de la información más pertinente tiene que ser incluida en el manuscrito final.
Hallazgos maravillosos descubiertos después de larga investigación nunca recibirán la atención
que merecen si están enterrados en un manuscrito demasiado largo, detallado e ilegible. Archiva
la información que sobre.
6. No escribas con un estilo florido que asocias con un libro de viaje o con artículos de revistas
impresionantes. No hace falta que la tesis se tenga que escribir en un estilo seco, pero tendría
que ser sencillo, económico y preciso en el uso de las palabras. El estilo recargado usa más
adjetivos, frases y florituras retóricas de los que hacen falta. Es fácil caer en esta tentación
cuando se es un entusiasta del tema y cuando se escribe sobre un tema por primera vez. Por lo
tanto, es importante corregir el escrito.
7. No repitas grandes extensiones de material en un mismo capítulo o entre capítulos. Si crees que
hay que repetir el material para que el lector tenga una compresión completa de la importancia
de un nuevo punto que presentas, y te quieres asegurar de que la mayoría de los lector recuerdan
lo que ya han leído unos capítulos atrás, normalmente una breve referencia será suficiente para
refrescar la memoria.
8. No presentes tus proposiciones teóricas de tal manera que sea difícil de imaginar cómo la
evidencia empírica recogida puede desmentirlas. En otras palabras, asegúrate de tener una
respuesta a esta pregunta: teniendo en cuenta el tipo de datos que has recogido, si resulta que tu
principal proposición teórica es falsa, ¿cómo lo sabrías?
9. No caigas en la trampa de creer que es necesario desarrollar una teoría muy elaborada o
compleja para hacer una obra importante. Todas las tesis requieren una perspectiva teórica.
Algunas buenas disertaciones desarrollan teorías muy complejas. La mayor parte de las tesis,
igualmente buenas, en realidad se basan en unas cuantas proposiciones teóricas bastante simples.
Si no me creéis, leed unos cuantos libros escritos a partir de tesis.

En conclusión, mi única duda al compilar estas listas es la preocupación de que puedan hacer
creer que la tarea de completar con éxito una tesis es más difícil de lo que ya es en sí misma.
Para nada es mi intención. Hay diversas formas de percibir la tarea que ayudan a compensar la
presión. Por ejemplo, recuerdo a uno de mis colegas describiendo su propia tesis más o menos
como simplemente el formulario más largo que se tenía que rellenar en los estudios de posgrado.
Es una imagen que nos conforta a todos.

Sin llegar a ser tan modestos, podríamos decir que una tesis a menudo puede ser definida como
un mal borrador de un buen libro. Existen razones válidas para ese argumento, y precisamente
por esas razones ninguna tesis debería ser escrita con el objetivo de la perfección. Lo más
importante es cumplir y simplemente hacerla. Por esa razón, en la penúltima fase de mi tesis
clavé una nota en la pared que decía: “No la hagas bien, escríbela”.

72
© FUOC PID_00228045

Bibliografía
Álvarez, R. M.; Nagler, J. (1998). “When Politics and Models Collide:
Estimating Models of Multicandidate Elections”. American Journal of Political
Science (núm. 42, pág. 55-96).

Ayres, I. (2008). Super Crunchers: Why Thinking-By-Numbers is the New


Way To Be Smart. Nueva York: Bantam.

Barley, N. (2009). L’antropòleg innocent: Notes des d’una cabana de fang.


Barcelona: Labutxaca.

Barley, N. (2011). The Innocent Anthropologist. Londres: Eland Books.

Barry, B. (1989). Sociologists, Economists and Democracy.


Chicago/Londres: The University of Chicago Press.

Barton, A. (1985). “Las variables sociológicas estructurales en los estudios


de organización.” En: Raymond Boudon y Paul Felix Lazarsfeld (eds.),
Metodología de las ciencias sociales: Conceptos e índices (I). Barcelona:
Editorial Laia.

Batas, R. H. (1998). Analytic Narratives. Princeton, N.J.: Princeton


University Press.

Batas, R. H. y cols. (2000). “The analytical narrative project”. American


Political Science Review (pág. 696-702).

Bennett, A.; Elman, C. (2006). “Qualitative Research: Recent


Developments in Case Study Methods”. Annual Review of Political Science
(vol. 9, núm. 1, pág. 455-476).

Bennett, A.; Elman, C. (2007). “Qualitative Methods”. Comparative


Political Studies (vol. 40, núm. 2, pág. 111-121).

Blaxter, L.; Hughes, C.; Tight, M. (2000). Cómo se hace una


investigación. Barcelona: Gedisa.

Booth, W. C.; Colomb, G. G.; Williams, J. M. (2008). Cómo convertirse


en un hábil investigador. Barcelona: Gedisa.

Boudon, R.; Lazarsfeld, P. F. (1985). Metodología de las ciencias


sociales: Conceptos e índices (I) (3.ª ed.). Barcelona: Editorial Laia.

Collier, D.; Brady, H. E.; Seawright, J. (2010). “Outdated Views of


Qualitative Methods: Time to Move On”. Political Analysis (vol. 18, núm. 4,
pág. 506-513).

Coppedge, M. y cols. (2011). “Conceptualizing and Measuring Democracy:


A New Approach”. Perspectives on Politics (vol. 9, núm. 2, pág. 247-267).

73
© FUOC PID_00228045

Della Porta, D.; Keating, M. (2008). “How many approaches in the social
sciences? An epistemological introduction”. En: D. della Porta y M. Keating
(eds.), Approaches and Methodologies in the Social Sciences: A Pluralist
Perspective. Cambridge: Cambridge University Press.

Evera, S. van (1997). Guide to methods for students of political science.


Ithaca, N.Y.: Cornell University Press.

Evera, S. van (2002). Guía para estudiantes de ciencia política. Barcelona:


Gedisa.

Fearon, J. D.; Laitin, D. D. (2008). “Integrating Qualitative and


Quantitative Methods”. En: Janet M. Box-Steffensmeier, Henry E. Brady y
David Collier (eds.), The Oxford Handbook of Political Methodology. Oxford:
Oxford Handbooks Online.

Flyvbjerg, B. (2001). Making Social Science Matter: Why Social Inquiry


Fails and How it Can Succeed Again. Cambridge: Cambridge University
Press.

Geddes, B. (2003). Paradigms and sand castles: theory building and


research design in comparative politics. Ann Arbor, Mi.: University of
Michigan Press.

Geertz, C. (1973). “Thick description: toward an interpretive theory of


culture”. En: The Interpretation of Cultures. Nueva York: Basic Boocks.

George, A. L.; Bennett, A. (2005). Case studies and theory development


in the social sciences. Massachusetts: MIT Press.

Gerring, J. (1999). “What Makes a Concept Good? A Criterial Framework


for Understanding Concept Formation in the Social Sciences”. Polity (vol.
31, núm. 3, pág. 357-393).

Gerring, J. (2001). Social science methodology: a criterial framework.


Cambridge: Cambridge University Press.

Gerring, J. (2005). “Causation”. Journal of Theoretical Politics (vol. 17,


núm. 2, pág. 163-198).

Gerring, J. (2007a). Case study research: principles and practices.


Cambridge: Cambridge University Press.

Gerring, J. (2007b). “The case study: What it is and what it does”. En:
Carles Boix y Susan Carol Stokes (eds.), The Oxford handbook of
comparative politics. Oxford: Oxford Handbooks Online.

Hardy, M. A.; Bryman, A. (2004). “Common Threads among Techniques


of Data Analysis”. En: Handbook of data analysis (pág. 1-13). Londres /
Thousand Oaks, Ca.: Sage Publications.

74
© FUOC PID_00228045

Heckman, J. J. (1976). “The common structure of statistical models of


truncation, sample selection and limited dependent variables and a simple
estimator for such models”. Annals of Economic and Social Measurement
(vol. 5, num. 4, pág. 475-492). [Disponible en línea; acceso en julio de
2013: <http://www.nber.org/chapters/c10491.pdf>].

Hempel, C. G. (1979). La explicación científica : estudios sobre la filosofía


de la ciencia. Barcelona: Paidós.

Holland, P. W. (1986). “Statistics and Causal Inference”. Journal of the


American Statistical Association (vol. 81, núm. 396, pág. 945-960).

Kaufman, S. J. (2005). “Rational Choice, Symbolic Politics, and Pluralism


in the Study of Violent Conflict”. En: Kristen R. Monroe (ed.), Perestroika!:
The Raucous Rebellion in Political Science (pág. 87-102). New Haven: Yale
University Press.

King, G. (1995). “Replication, replication”. PS: Political Science and Politics


(vol. 28, núm. 3, pág. 444-452).

King, G. (2006). Publication, publication. PS: Political Science & Politics


(vol. 39, núm. 01, pág. 119-125).

King, G.; Keohane, R. O.; Verba, S. (1994). Designing social inquiry :


scientific inference in qualitative research. Princeton, N.J.: Princeton
University Press.

King, G.; Powell, E. N. (2008). “How Not to Lie Without Statistics”.


[Disponible en línea; acceso en diciembre de 2015:
<http://gking.harvard.edu/files/abs/nolie-abs.shtml>].

Krathwohl, D. R.; Smith, N. L. (2005). How to prepare a dissertation


proposal: suggestions for students in education and the social and
behavioral sciences. Syracuse, N.Y.: Syracuse University Press.

Laitin, D. D. (2003). “The perestroikan challenge to social science”. Politics


& Society (vol. 31, núm. 1, pág. 163-184).

Lazarsfeld, P. F. (1961). “Notes on the History of Quantification in


Sociology–Trends, Sources and Problems”. Isis (vol. 52, núm. 2, pág. 277-
333).

Mackie, J. L. (1980). The Cement of the Universe: A Study of Causation.


Oxford: Clarendon Press.

Mahoney, J.; Goertz, G. (2006). “A tale of two cultures: Contrasting


quantitative and qualitative research”. Political Analysis (vol. 14, núm. 3,
pág. 227-249).

Mahoney, J.; Rueschemeyer, D. (2003). Comparative historical analysis


in the social sciences. Cambridge: Cambridge University Press.

75
© FUOC PID_00228045

Mills, C. W. (1987). La Imaginación sociológica. Barcelona: Herder.

Morgan, S. L.; Winship, C. (2007). Counterfactuals and Causal Inference:


Methods and Principles for Social Research. Cambridge: Cambridge
University Press.

Peña, D. (1993). Estadística, modelos y métodos: Fundamentos (I).


Madrid: Alianza Editorial.

Ragin, C. C. (1989). The comparative method: moving beyond qualitative


and quantitative strategies. California: University of California Press.

Ragin, C. C. (2006). “Set Relations in Social Research: Evaluating Their


Consistency and Coverage”. Political Analysis (vol. 14, núm. 3, pág. 291-
310).

Raïffa, H. 1968. Decision analysis: introductory lectures on choices under


uncertainty. Reading, Massachusetts: Addison-Wesley.

Rubin, D. B. (1986). “Statistics and Causal Inference: Comment: Which Ifs


Have Causal Answers”. Journal of the American Statistical Association (vol.
81, núm. 396, pág. 961-962).

Weber, M. (1981). El político y el científico (7.ª ed.). Madrid: Alianza


Editorial.

76

Вам также может понравиться