Академический Документы
Профессиональный Документы
Культура Документы
Revista De
Sociologia, 80, 223-25
El texto parte desde la problematización del concepto de causa. Se afirma que hay una preocupación por
establecer causalidad en los fenómenos sociales (qué es lo que causa un fenómeno social), de ahí que sea
importante para la sociología.
Luego, a modo de introducción, explica que el desarrollo de la estadística se dio de manera más lenta en
la sociología que en otras disciplinas como la biometría, la econometría y la psicometría. De esta manera,
el objetivo del texto será hacer una reconstrucción de los diferentes momentos del desarrollo de la
estadística institucional hasta llegar a un bosquejo de los desarrollos actuales, en un contexto de una
creciente autonomización de la disciplina, considerando también las alternativas que puede ofrecer una
conjunción entre investigación y teoría.
Sobre la estadística en la sociología fundacional, se dirá que la estadística institucional pierde fuerza en la
sociología europea a comienzos del siglo XIX y solo es retomada post II Guerra Mundial. Sin embargo,
destaca a Weber por un intento de “articulación de estadística y causalidad como las dos caras de
cualquier explicación sociológica (p.226)”.
Por el contrario, en Estados Unidos se institucionalizará con mayor fuerza la sociología estadística,
trayendo también la estandarización del análisis causal estadístico. De ahí en adelante, la sociología
estadística ha pasado por diferentes concepciones de estadística y ciencia empírica, reconocibles en
diferentes programas científicos. Es importante destacar que se enmarca en el debate con otras
disciplinas, en donde la sociología ha tendido a reaccionar más tardíamente a la influencia de las
tendencias filosóficas e innovaciones matemáticas de cada época.
Esta primera etapa, “la sociología cuantitativa norteamericana formada en Alemania estuvo expuesta a la
gran disputa del método de las ciencias sociales” (inductivismo histórico y deductivismo teórico). Las
diferencias que la escuela histórica evidenció entre las leyes causales y las regularidades inductivas
permitieron concebir una modalidad propia de la ciencia social empírica en la tradición de la estadística
descriptiva y con nociones diferentes de la econometría. Estas diferencias también se expresaron en el
plano político al combatir los principios del utilitarismo económico.
Luego, bajo esta tradición y de la mano de Small (1923), Handerson y Giddings (1903) , se da una transición
que da lugar a los inicios de una investigación propiamente científica, en donde hay una inclinación a
aceptar el análisis causal apoyado en la estadística y la inducción científica, para así establecer “leyes
sociales”. Se impulsan centros de investigación social con un programa de investigación sociológica
empírica.
Así mismo, las tablas de respuesta obtenidas por sondeo se presentan como un instrumento eficaz para
la ordenación de datos y para sintetizar resultados, ofreciendo una visión numérica de las relaciones entre
categorías y variables. Sin embargo, existía el problema de la representatividad de los datos al momento
de comparar las tablas, los cuales surgían de instancias limitadas y servían solo para estimar efectos para
cada grupo particular de forma separada. Esto se ha ido resolviendo cada vez más con los nuevos modelos
de tablas cruzadas, además de que en la actualidad se puede utilizar toda la información de la tabla para
calcular parámetros.
La estadística es funcional a esto. El énfasis de la discusión recae en la metodología sobre las operaciones
adecuadas para la introducción de términos y sobre sus repercusiones en la construcción del lenguaje de
las ciencias sociales.
La tendencia es convertir la técnica en un fin en sí misma, dejando varias generaciones alejadas de los
problemas relativos a la explicación causal y a la sistemática teórica. De esta manera, se sustituye la noción
de causa por correlación, pues es un término más eficiente a nivel operacional.
De esta manera, se propone integrar la comparación entre grupo de tratamiento y grupo de control. Si
bien esto tuvo alcances limitados, se introducen nuevos rigores en el diseño de los sondeos
individualizados, lo que los lleva a un momento histórico de gloria. Lo que marca la diferencia es la idea
de Lazarsfeld de controlar estadísticamente todas las variables que pueden proveer una historia causal
interesante. Propone una versión alternativa del diseño experimental, en donde se elabore una relación
estadística con datos de sondeo: una parcialización. Luego, hay que examinar las variaciones que sufren
las relaciones entre las variables cuando se introduce un factor de control. De esta manera, luego de
sucesivos controles logra dar con la relación estadística más robusta, aquella que sobrevive, es decir, la
relación no espuria. De esta manera, el control es espuridad se plantea como un requisito para el análisis
causal.
Lazarsfeld entendía que para la explicación causal hacía falta la elaboración de algún principio de
ordenación. Cuando se refería relación causal, la asociaba a interpretación de la asociación estadística
sobreviviente. Para esto se requería de conocimientos sustentados en teoría previa que permitan
reconocer una asimetría causal* (puesto que la causalidad no es observable). Esto se desarrollará más
adelante.
*La asimetría causal quiere decir que A causa B en una sola dirección, por ende, no cabe decir que B causa
A ni que son variables interdependientes. También se dice asociación causal irreversible.
En la práctica, se incorporan supuestos a priori al modelo. Estos sirven para completar el sistema de
ecuaciones en pos de la identificabilidad. Lo hacen a través de la adición u omisión de variables.
El siguiente paso es controlar la covariación no explicada. Se pueden añadir variables de control con
fundamento en la teoría previa. La teoría extendida puede traer nuevas hipótesis causales. *Para
entender esto mejor ver p. 242-243, figura 2).
El proceso de crear el modelo dependerá, entonces, de la posibilidad de realizar los pasos explicados. La
dificultad radica en que los supuestos sustantivos (los a priori) no son observables. Solo se observa la
covariación descrita por los datos empíricos. Queda abierta la duda de si los grados de covariación ocultan
o no variables espurias. De ahí que la propuesta de formulación de hipótesis causales se conecta con la
necesidad de contrastar las teorías.
Es por eso que, si una vez construido el modelo formal, sus predicciones teóricas no se ajustan a los valores
empíricos de los datos, la teoría se descarta. De esta manera, se rechaza la hipótesis causal si la relación
entre las variables es igual a la covariación de estas. En caso contrario, si la fuerza de la relación entre las
variables es diferente a la relación espuria, no se dice que se acepta la hipótesis, sino que no se rechaza.
Esto puede ser porque hay un posible efecto entre variables o porque se ha omitido alguna causa común
importante.
Más tarde, Boudon (1965) y Duncan (1966) proponen otra variable de análisis: análisis de senderos o de
dependencia. Busca estimar efectos causales especificados en la teoría interpretando parámetros como
índices de cambio estandarizado en la variable dependiente atribuibles al cambio estandarizado en la
variable independiente. Al no ser investigación experimental, pierde la ventaja del control por
aleatorización, pero tiene la comparación de medidas derivadas de la covariación con las de los datos
empíricos. La teoría debe ser más completa.
En suma, tiene que estar presente el tema de la contrastación, la formulación de hipótesis causales y
conocimiento teórico previo.
Si bien el modelo de regresión es el principal para analizar la relación entre variables, se ha dejado de lado
la intención interpretativa o teórica inicial. Estos modelos estadísticos automatizados se justifican en la
necesidad de una ponderación adecuada de la importancia relativa de las variables y de la significación
estadística de la varianza. Ignora el control de la espuridad de Lazarsfeld y olvida el lenguaje de causalidad
de los supuestos sustantivos de Simon.
Lo central serán los test de significación y la varianza explicada y se ignorará el sentido original de estos
mismos controles. Un resultado no buscado de la revolución informática ha sido el detrimento de la
sociología cuantitativa. Los medios tecnológicos han sido irrelevantes para el progreso de la disciplina y
ha pasado a una rama con identidad propia: Técnica refinada y en crecimiento que se revierte en contra
de la teoría. Hay un exceso de complacencia estadística que maneja grandes cantidades de datos que no
contribuye a la explicación sociológica. Se termina en una falta de especialización para comprender la
sociología cuantitativa, o bien, en desinterés en ella.
Finalmente, la autora afirma que el progreso de la estadística está lejos de las expectativas de sus primeros
promotores. No se explica bien por qué no domina un discurso explicativo ni la disposición a analizar sin
guía teórica.
En el estadio de desarrollo de la sociología actual sería beneficioso una alianza entre el análisis de los
grandes conjuntos de datos y el análisis comprometido con teoría. Se podrían interpretar las estructuras
estadísticas dentro de una narrativa general de la acción. Sugiere que los sociólogos analíticos podrían
aportar con mejores mecanismos de explicación de los explananda (causas) para ayudar a cerrar la
distancia entre teoría e investigación.