Вы находитесь на странице: 1из 6

RESUMEN: Lizón, Á. (2006). Estadística y causalidad en la sociología empírica del XX. Papers.

Revista De
Sociologia, 80, 223-25

El texto parte desde la problematización del concepto de causa. Se afirma que hay una preocupación por
establecer causalidad en los fenómenos sociales (qué es lo que causa un fenómeno social), de ahí que sea
importante para la sociología.

Luego, a modo de introducción, explica que el desarrollo de la estadística se dio de manera más lenta en
la sociología que en otras disciplinas como la biometría, la econometría y la psicometría. De esta manera,
el objetivo del texto será hacer una reconstrucción de los diferentes momentos del desarrollo de la
estadística institucional hasta llegar a un bosquejo de los desarrollos actuales, en un contexto de una
creciente autonomización de la disciplina, considerando también las alternativas que puede ofrecer una
conjunción entre investigación y teoría.

Sobre la estadística en la sociología fundacional, se dirá que la estadística institucional pierde fuerza en la
sociología europea a comienzos del siglo XIX y solo es retomada post II Guerra Mundial. Sin embargo,
destaca a Weber por un intento de “articulación de estadística y causalidad como las dos caras de
cualquier explicación sociológica (p.226)”.

Por el contrario, en Estados Unidos se institucionalizará con mayor fuerza la sociología estadística,
trayendo también la estandarización del análisis causal estadístico. De ahí en adelante, la sociología
estadística ha pasado por diferentes concepciones de estadística y ciencia empírica, reconocibles en
diferentes programas científicos. Es importante destacar que se enmarca en el debate con otras
disciplinas, en donde la sociología ha tendido a reaccionar más tardíamente a la influencia de las
tendencias filosóficas e innovaciones matemáticas de cada época.

Estadística descriptiva heredada de la escuela histórica alemana

Esta primera etapa, “la sociología cuantitativa norteamericana formada en Alemania estuvo expuesta a la
gran disputa del método de las ciencias sociales” (inductivismo histórico y deductivismo teórico). Las
diferencias que la escuela histórica evidenció entre las leyes causales y las regularidades inductivas
permitieron concebir una modalidad propia de la ciencia social empírica en la tradición de la estadística
descriptiva y con nociones diferentes de la econometría. Estas diferencias también se expresaron en el
plano político al combatir los principios del utilitarismo económico.

En ese contexto, los sociólogos norteamericanos se refugiaron en cuestiones meramente descriptivas y a


disipar la noción de causa con “fuerza” o “energía” en una especie de cuantitativismo animista. Se perdió
el problema del vínculo causal como el foco epistemológico. Esto se relaciona con la lógica organicista y
del darwinismo social.

Luego, bajo esta tradición y de la mano de Small (1923), Handerson y Giddings (1903) , se da una transición
que da lugar a los inicios de una investigación propiamente científica, en donde hay una inclinación a
aceptar el análisis causal apoyado en la estadística y la inducción científica, para así establecer “leyes
sociales”. Se impulsan centros de investigación social con un programa de investigación sociológica
empírica.

Influencia de la estadística inglesa


En esta segunda etapa, ya se da paso a la fundación de un laboratorio de estadística. Una nueva
generación de estadísticos caracterizada por mayor eficiencia, más capacidad técnica y más conciliadora
que la anterior se familiariza con los avances de un económetra en lo que respecta a la técnica. Destacan
Chapin, Hankins y Ogburn, quienes desempeñan un papel pionero en la introducción del análisis de
regresión en la sociología aplicada. De esta manera, ya se hablará de sistematizar procedimientos
considerados necesarios y habituales para la investigación cuantitativa aplicada (regresión, intervalos de
confianza, muestreo aleatorio, protocolos de entrevistas, codificación, tabulación, rutinas
computacionales). Esto representa un cambio en el horizonte de posibilidades.

La tradición tabular: La sociología del dato


Esta transición es lenta y se generaliza recién a partir de 1927. Una vez estandarizados los nuevos
conocimientos (y los estudios empíricos comienzan a publicarse regularmente) se configura una
“modalidad específicamente sociológica de trabajo inductivo en la que la descripción estadística se asoció
a la encuesta individualizada”.

Así mismo, las tablas de respuesta obtenidas por sondeo se presentan como un instrumento eficaz para
la ordenación de datos y para sintetizar resultados, ofreciendo una visión numérica de las relaciones entre
categorías y variables. Sin embargo, existía el problema de la representatividad de los datos al momento
de comparar las tablas, los cuales surgían de instancias limitadas y servían solo para estimar efectos para
cada grupo particular de forma separada. Esto se ha ido resolviendo cada vez más con los nuevos modelos
de tablas cruzadas, además de que en la actualidad se puede utilizar toda la información de la tabla para
calcular parámetros.

Ya por la década de 1930 se estandariza definitivamente el sondeo individualizado como la herramienta


por excelencia de la disciplina científica. Se gestan las condiciones para la llegada del mito inductivo radical
de la mano de Lundberg. La idea principal era equiparar el modelo explicativo de la sociología con el de
otras ciencias empíricas a través de la asociación de datos no experimentales obtenidos por sondeo con
el procedimiento estadístico.

Positivismo instrumental: Método sin teoría


Se extiende la suscripción generalizada de la estadística al programa del positivismo instrumental
(enmarcado en el auge del neopositivismo). Prima, entonces una “variante operacionalista en la
introducción de sus términos observacionales”, en donde lo científico es un conjunto de operaciones que,
en este caso, construye conceptos (indicadores e índices) que trascienden las particularidades en
beneficio de un sistema categorial único para las ciencias sociales.

La estadística es funcional a esto. El énfasis de la discusión recae en la metodología sobre las operaciones
adecuadas para la introducción de términos y sobre sus repercusiones en la construcción del lenguaje de
las ciencias sociales.

La tendencia es convertir la técnica en un fin en sí misma, dejando varias generaciones alejadas de los
problemas relativos a la explicación causal y a la sistemática teórica. De esta manera, se sustituye la noción
de causa por correlación, pues es un término más eficiente a nivel operacional.

Este fenómeno no es exclusivo de la sociología, la noción de causa es prácticamente erradicada del


lenguaje de las ciencias sociales. Sin embargo, esto puso en tensión dos principios del empirismo lógico:
(i) restricción empírica de lo observable y (ii) la correlación no puede implicar consecuencias
ontológicamente objetables. Esto desencadenó una discusión tomó peso a fines de los años 30 y ya en los
años 40, la supremacía del inductivismo radical y la exaltación del instrumento dan paso a un empirismo
más refinado y más centrado en lo analítico, para luego plantearse en una línea de continuidad entre
investigación empírica y teoría.

Generación intermedia: Técnicas, método y teoría


En el contexto de la disociación entre los lenguajes teóricos y de investigación y el fetiche del imperio del
método, una generación intermedia retoma las cuestiones de inferencia causal y sistemática teórica. La
estadística se abre a mayor tecnología (británica) gracias a Stouffer y Swane. La nueva atmosfera llevaría
a la sociología a una etapa moderna.

Lazarsfeld toma la tarea de actualizar en técnica e integrar sistemáticamente el análisis causal en la


investigación por sondeo. La lógica causal es llamada a promover formas de control alternativas al
experimento tradicional, para así traducir la asociación estadística en términos de causalidad. Para realizar
esto, se acometieron a dilucidar el sentido preciso en el que las asociaciones estadísticas de los sondeos
pueden o no ser susceptibles de experimentación controlada, o en su defecto, idear técnicas capaces de
garantizar controles que permitan la interpretación plausible de los resultados.

De esta manera, se propone integrar la comparación entre grupo de tratamiento y grupo de control. Si
bien esto tuvo alcances limitados, se introducen nuevos rigores en el diseño de los sondeos
individualizados, lo que los lleva a un momento histórico de gloria. Lo que marca la diferencia es la idea
de Lazarsfeld de controlar estadísticamente todas las variables que pueden proveer una historia causal
interesante. Propone una versión alternativa del diseño experimental, en donde se elabore una relación
estadística con datos de sondeo: una parcialización. Luego, hay que examinar las variaciones que sufren
las relaciones entre las variables cuando se introduce un factor de control. De esta manera, luego de
sucesivos controles logra dar con la relación estadística más robusta, aquella que sobrevive, es decir, la
relación no espuria. De esta manera, el control es espuridad se plantea como un requisito para el análisis
causal.

Lazarsfeld entendía que para la explicación causal hacía falta la elaboración de algún principio de
ordenación. Cuando se refería relación causal, la asociaba a interpretación de la asociación estadística
sobreviviente. Para esto se requería de conocimientos sustentados en teoría previa que permitan
reconocer una asimetría causal* (puesto que la causalidad no es observable). Esto se desarrollará más
adelante.

*La asimetría causal quiere decir que A causa B en una sola dirección, por ende, no cabe decir que B causa
A ni que son variables interdependientes. También se dice asociación causal irreversible.

Modelos causales de regresión

Esta tercera etapa consolida de la mano de H. Simon. Se consolida la principal característica de la


econometría hasta entrados los años 60. Se reconduce el problema de la identificación y la cuestión de
las relaciones estructurales asociándolo al tema de la “correlación espuria”. Lo que diferencia esta
propuesta de otras es que se examinará con detalle la correlación estadística en un esquema con más de
una ecuación. Simon intenta conjugar (i) el problema de la identificación (que el sistema esté identificado
significa que posee toda la información para estimar la cantidad de parámetros necesaria. Hay ecuaciones
para resolver todas las variables), (ii) un sistema lineal de ecuaciones y (iii) el problema de la correlación
espuria. De esta manera, llega a una noción de causa que asocia la ordenación asimétrica genuina de las
variables con sistemas de ecuaciones autocontenidos (identificables).
La diferencia con el operacionalismo es que éste hablará de interdependencia de variables en donde la
correlación es reversible, ahora se hablará de relación causal en donde ésta es esencialmente asimétrica
o irreversible.

En la práctica, se incorporan supuestos a priori al modelo. Estos sirven para completar el sistema de
ecuaciones en pos de la identificabilidad. Lo hacen a través de la adición u omisión de variables.

El modelo, en suma, será estructural, lineal, autocontenido (identificable), recursivo (admite la


determinación mutua entre las variables del sistema) y autónomo (cada ecuación del sistema representa
un supuesto o mecanismo independiente). Pasa a ser un modelo válido de la realidad en tanto es el que
menos se aleja de los datos empíricos disponibles.

La sociología incorpora estos modelos de la econometría y el tema de la causalidad-probabilidad alcanza


mayor expansión de técnicas en esta disciplina.

La causalidad como generación de modelos causales y de sendero


Surge la necesidad de explicar las relaciones entre las variables para determinar los efectos que tienen
una sobre otra. Para ello, las teorías serían las hipótesis causales que establecen relaciones asimétricas
entre las variables del sistema. Se tenderá a la traducción de los enunciados verbales a hipótesis causales
como un imperante para el uso del modelo. Esta traducción se estandariza de la siguiente manera:
Primero se sitúa el problema general. Luego se identifican las variables centrales en juego. Después se
deben prefigurar ordenaciones causales o asimétricas entre las variables a partir de ciertos criterios
(temporalidad de los hechos, indicadores usados en el informe verbal, indicadores de una teoría previa,
etc). Luego se especifica una hipótesis causal. Se configura así una incipiente teoría.

El siguiente paso es controlar la covariación no explicada. Se pueden añadir variables de control con
fundamento en la teoría previa. La teoría extendida puede traer nuevas hipótesis causales. *Para
entender esto mejor ver p. 242-243, figura 2).

El proceso de crear el modelo dependerá, entonces, de la posibilidad de realizar los pasos explicados. La
dificultad radica en que los supuestos sustantivos (los a priori) no son observables. Solo se observa la
covariación descrita por los datos empíricos. Queda abierta la duda de si los grados de covariación ocultan
o no variables espurias. De ahí que la propuesta de formulación de hipótesis causales se conecta con la
necesidad de contrastar las teorías.

Es por eso que, si una vez construido el modelo formal, sus predicciones teóricas no se ajustan a los valores
empíricos de los datos, la teoría se descarta. De esta manera, se rechaza la hipótesis causal si la relación
entre las variables es igual a la covariación de estas. En caso contrario, si la fuerza de la relación entre las
variables es diferente a la relación espuria, no se dice que se acepta la hipótesis, sino que no se rechaza.
Esto puede ser porque hay un posible efecto entre variables o porque se ha omitido alguna causa común
importante.

Más tarde, Boudon (1965) y Duncan (1966) proponen otra variable de análisis: análisis de senderos o de
dependencia. Busca estimar efectos causales especificados en la teoría interpretando parámetros como
índices de cambio estandarizado en la variable dependiente atribuibles al cambio estandarizado en la
variable independiente. Al no ser investigación experimental, pierde la ventaja del control por
aleatorización, pero tiene la comparación de medidas derivadas de la covariación con las de los datos
empíricos. La teoría debe ser más completa.
En suma, tiene que estar presente el tema de la contrastación, la formulación de hipótesis causales y
conocimiento teórico previo.

El nuevo sesgo estadístico: automatización sí, causalidad no.


1960-1970  progreso en técnicas de computación revoluciona la productividad de la sociología
estadística. Los nuevos procedimientos son capaces de estudiar relaciones entre un número considerable
de valores en grandes conjuntos de variables simultáneas. Sin embargo, esto se acompañó de un
retroceso teórico. El ideal explicativo y la vinculación teórica se aleja una vez más.

Si bien el modelo de regresión es el principal para analizar la relación entre variables, se ha dejado de lado
la intención interpretativa o teórica inicial. Estos modelos estadísticos automatizados se justifican en la
necesidad de una ponderación adecuada de la importancia relativa de las variables y de la significación
estadística de la varianza. Ignora el control de la espuridad de Lazarsfeld y olvida el lenguaje de causalidad
de los supuestos sustantivos de Simon.

Lo central serán los test de significación y la varianza explicada y se ignorará el sentido original de estos
mismos controles. Un resultado no buscado de la revolución informática ha sido el detrimento de la
sociología cuantitativa. Los medios tecnológicos han sido irrelevantes para el progreso de la disciplina y
ha pasado a una rama con identidad propia: Técnica refinada y en crecimiento que se revierte en contra
de la teoría. Hay un exceso de complacencia estadística que maneja grandes cantidades de datos que no
contribuye a la explicación sociológica. Se termina en una falta de especialización para comprender la
sociología cuantitativa, o bien, en desinterés en ella.

Mal uso de los modelos de regresión


Se tiende al error de utilizar los test de significación estadística (como la desviación estándar o la varianza
explicada) –que se deberían utilizar únicamente para llamar a creer o no en un parámetro— para informar
sobre importancia teórica. De hecho, se ha llegado a pasar implícitamente de lo estadísticamente
significativo a lo importante teóricamente. Esta reducción contribuye a que se desarrolle poco el
pensamiento teórico, dejando que gobierne la técnica. Sin embargo, se afirma que ninguna cantidad
estadística puede dar una respuesta a qué variable teórica prima por sobre otra.

La teoría como suma de variables


La potencia ganada en las técnicas se volvió contra la sociología fundamental y, en algunos casos, la
automatización a sustituido la teoría por una suma de variables. La discusión gira en qué variables
considerar. Sin embargo, la idea de que la técnica es capaz de dar explicaciones sociológicas por sí sola
es insostenible. Los modelos de regresión solo sirven más allá de la descripción como evidencia, crítica o
contraste de la teoría. La estadística solo puede desembocar en teoría cuando ésta otorgue los
mecanismos interpretativos que permitan el análisis sociológico. Se insiste en el fin de disociación
histórica entre teoría e investigación.

Una propuesta alternativa: estructuras estadísticas y mecanismos causales


Goldthorpe (1997) señala avances de la investigación que apuntarían en una dirección más optimista.
Por un lado, los datos de los que se dispone se extienden a largos periodos de tiempo. Hay sondeos
repetitivos en poblaciones idénticas y los estudios de panel (que combinan una dimensión temporal con
otra transversal) han alcanzado madurez. De esta manera, las transformaciones estructurales o a largo
plazo pueden tratarse desde bases empíricas sólidas.
En segundo lugar, se han hecho comparaciones interesantes e informativas a nivel internacional gracias
al imperativo de autosuperación de la calidad de los sondeos, comprensión y uso del análisis secundario.
En tercer lugar, el uso de la tecnología ha traído procedimientos poderosos para tratar datos categoriales
asociados a atributos de distintos individuos (como etnia, clase, género, etc). Así, estos atributos
personales pueden trabajarse sistemáticamente en conjunto con información extra, arrojando
descripciones estadísticas contundentes de enorme valor para el teórico que quiera “interpretarlas”.

Finalmente, la autora afirma que el progreso de la estadística está lejos de las expectativas de sus primeros
promotores. No se explica bien por qué no domina un discurso explicativo ni la disposición a analizar sin
guía teórica.

En el estadio de desarrollo de la sociología actual sería beneficioso una alianza entre el análisis de los
grandes conjuntos de datos y el análisis comprometido con teoría. Se podrían interpretar las estructuras
estadísticas dentro de una narrativa general de la acción. Sugiere que los sociólogos analíticos podrían
aportar con mejores mecanismos de explicación de los explananda (causas) para ayudar a cerrar la
distancia entre teoría e investigación.

A pesar de que la importancia de la explicación siga retrocediendo en el discurso de la estadística, se dan


condiciones de madurez analítica y técnica que alientan a poder desarrollar evidencia empírica mejor
tratada y con mecanismos causales explicativos más conocidos y sistematizados dentro de la narrativa
acción-interacción, por lo que apela a las nuevas generaciones de sociólogos.