Академический Документы
Профессиональный Документы
Культура Документы
PROYECTO DE INVESTIGACIÓN
Waldo Mendoza Bellido
Departamento de Economía de la PUCP
Julio 2018
INTRODUCCIÓN
Como primer paso, abordamos el marco teórico del método de investigación en la Economía
basándonos, fundamentalmente, en la exposición sobre la técnica de investigación científica
presentada en Popper (1980, 1983) y llevada al campo de la Economía por Figueroa (2003,
2007). En la sección 2 desarrollamos las líneas básicas de una guía para que el investigador
proceda con su tema de una manera ordenada, siguiendo una secuencia de etapas
estrechamente conectadas por un cordón umbilical: el problema a investigar. En la parte 3 se
presenta un diagrama que resume los pasos de la investigación, el cual permite descubrir los
problemas metodológicos que suelen surgir en los trabajos que contienen “mediciones sin
teoría” o “teorías sin medición”. Por último, en la sección 4, mostramos un ejemplo pedagógico
sobre cómo hacer una investigación siguiendo las pautas de este trabajo, abordando el tema de
los efectos probables de una política monetaria restrictiva sobre el nivel de actividad económica.
¿Qué es una ciencia fáctica? Figueroa (2007), siguiendo a Popper (1968),a define como un
conjunto de proposiciones que deben cumplir con dos requerimientos; (a) deben ser
lógicamente correctos y (b) deben ser empíricamente falseables; es decir, cuando las
proposiciones pueden ser, en principio, rechazadas por la evidencia. Para Popper (1968) el
criterio de demarcación entre el conocimiento científico y no científico es el de falseabilidad.
Y teoría, según el mismo autor, “Es el conjunto de supuestos o axiomas (primeras nociones,
admitidas como ciertas sin demostración) que se establecen para comprender la realidad. Estos
supuestos se construyen como axiomas, no necesitan demostración. Las teorías siempre
representarán versiones simplificadas de la realidad. Se admiten como ciertas, pero solo en
principio. Será la evidencia empírica la que determinará su validez, pero eso se hará
aposteriori.”
¿Cuáles son los criterios de verdad de una teoría?: “Toda teoría es, en cierto grado, arbitraria
pues es axiomática. ¿Cuáles son los límites de la arbitrariedad?: las hipótesis, que son
empíricamente verificables. Al confrontarse las hipótesis con la realidad, se está evaluando, por
1
esa vía, la validez de la teoría. Si la hipótesis es inconsistente con los hechos, entonces la teoría
es falsa. Una teoría, que como sistema lógico es correcta, puede ser empíricamente falsa. Si la
hipótesis es consistente con los hechos, sólo se puede decir que hay “consistencia” con la
teoría. No se puede aceptar que la teoría sea verdadera. La razón es simple: la hipótesis
verificada puede también ser derivada lógicamente de otra teoría. Así, un hecho observado
puede ser consistente con una o más teorías. La verificación de la teoría es indirecta: a través
de las hipótesis. Es suficiente la falla estadística de una hipótesis para rechazar una teoría que
pretende explicar cierta realidad"
“Las hipótesis, aun si fuera verificable de manera unívoca, son estocásticas.., y puden ser
descubiertas sólo a través de la Ley de los Grandes números, por confrontación con datos
masivos y con datos individuales. Se requiere, entonces, de una grado de conformidad
estadística para aceptar o rechazar las hipótesis. Este es el método estadístico de verificación.
Como la experimentación controlada es rara vez posible en Economía, el análisis estadístico
debe realizarse sobre información generada en experimentos naturales, no controlados. La
falsación implica el uso de una muestra grande de observaciones. Una única observación es
inútil
La ciencia económica no puede pronosticar, no puede determinar los valores que tomarán las
variables endógenas en el futuro. La ciencia solo pude predecir: dado los valores de las varables
exógenas, puede determinarse el valor de las variables endógenas. Pero la ciencia no tiene
capacidad para saber cuales serán los valores de las variables exógenas en el tiempo; tendría
que endogenizarlas.” (Figueroa…)
Pag 28
Un modelo de la teoría se construye combinando las proposiciones alfa de la teoría
con un conjunto de supuestos auxiliares consistentes. El objetivo de construir un
modelo es formar proposiciones comprobables empíricamente, es decir, generar
proposiciones beta. Los principios de falsificación, sin embargo, se encuentra con un
problema ahora, por lo que se falsifica es un modelo de la teoría, no la teoría misma.
Una falsificación de una teoría implica falsificar todo lo posible modelos.
Ciertamente, el principio de falsabilidad requiere que el número de modelos de la
teoría sea finita.
Given a theory α, a set of consistent auxiliary assumption A’ is included to construct the model
α’, from which is derived the set of empirical predictions β’, which is tested out against the set
of empirical data b. If the theory does not fail, it can be accepted; if it does, the model α’ fails,
but not the theory. Another model is constructed and the algorithm is followed. If all the models
fail, then the theory fails and a new theory is constructed, and the algorithm is followed.
Introducing the language of mathematics, the set of assumptions (primary and auxiliary) of a
theoretical model can be represented by a system of structural equations, which shows the
interactions between endogenous and exogenous variables. The equilibrium conditions are
derived from the structural equations. The signs of the partial derivatives of the reduced form
equations constitute the beta propositions. Thus beta propositions represent causality relations,
the effect of exogenous variables upon endogenous variables; that is, beta propositions show
the effect of the ultimate factors on the endogenous variables of the model.
“… ninguna teoría resuelve nunca todos los rompecabezas a que se enfrenta en un momento
dado, ni son a menudo perfectas las soluciones ya obtenidas. Por el contrario, es precisamente
el carácter incompleto e imperfecto del acuerdo existente entre teoría y hechos el que, en todo
momento, define muchos de los rompecabezas que caracterizan a la ciencia normal. Si todos y
2
cada uno de los desacuerdos entre hechos y teoría fuesen motivo suficiente para rechazar la
teoría, todas ellas debieran rechazarse en todo momento” (Kuhn 2006: 262)
Pag 233
Figueroa (2007)
En la literatura sobre metodología, es común distinguir tres métodos principales:
inductivismo, deductivismo y hipotético-deductivismo (Achistein 2004)
pág 234
Como señaló Popper, este ejemplo ilustra que el principio de inducción es otra
inducción.
El otro método es el deductivismo, que busca producir conocimiento a partir de
pensamientos solamente. La teoría no solo tiene sus propios supuestos explícitos,
sino que hay otra suposición implícita: la teoría que es lógicamente correcta es
empíricamente cierta. Esta conclusión no puede ser justificada. En las ciencias
fácticas, por lo tanto, el riesgo de error del método deductivo es enorme.
El tercer método es hipotético-deductivismo, que también se puede llamar
falsificación. Este método busca interacciones entre la teoría y la realidad. Popper
desarrolló este método en su famosa The Logic of Scientific Discovery. El
Falsificación es un método para evitar el error de aceptar teorías falsas, tales como
proposiciones tautológicas o proposiciones que son aceptadas o rechazadas
dependiendo únicamente del aparente "realismo" de sus suposiciones. El
Falsacionismo no es, sin embargo, un método para descubrir una teoría verdadera.
Si las predicciones de una teoría son empíricamente falsas, la teoría es claramente
falsa. Si las predicciones de una teoría son empíricamente verdaderas, ¿es verdadera
la teoría? Popper rechaza esta conclusión porque
se basaría en el método inductivo: a partir de la verdad de casos particulares, se
deduce la verdad de la teoría. "No se puede demostrar que la teoría sea válida a
priori del razonamiento deductivo. Tampoco puede justificarse empíricamente por
sus éxitos pasados, ya que usaría la inducción para justificarse a sí misma
"(Achinstein 2004, p. 132 (...) una teoría no puede probarse como verdadera, solo
puede decirse que los datos empíricos han" corroborado " "La teoría. Todo lo que
podemos decir es que las predicciones de la teoría y las observaciones empíricas son
consistentes.
Sin embargo, es claro que el falsacionismo es el método más eficiente en
comparación con el inductivismo y el deductivismo. Es el método que minimiza
relativamente los errores en el proceso de producción de conocimiento.
3
Las teorías son muy genéricas y requieren de una mayor concreción para ser operativas;
se reuiqren hacer supuesto auxiliares que le permitan al economista un mayor grado de
aproximación a la realidad. Esta mayor concreción es el “modelo” de la teoría. Es
evidente que es posible generar varios modelos de una teoría. Por lo tanto, una teoría se
expresa a través de modelos.(el economista que sólo distingue modelos en su labor
revela que sólo conoce una teoría económica. Y el economista que sólo conoce teoría,
revela que no ha intentado explicar una realidad concreta. Esto último exige utilizar
modelos).
Las hipótesis son proposiciones que predicen relaciones de cuasalidad entre las variables
exógenas del modelo (que son la causa del fenómeno) y las variables endógenas (que
reciben el efecto). Estas son las proposiciones empíricamente verificables. Las hipótesis
deben ser refutables. Curanderos: “si tienes fe sanarás”. Cualquier proposición que en
principio no puede ser refutable está fuera del dominio de la ciencia
Bunge, Mario
1968 La ciencia, su método y su filosofía. Ediciones siglo veinte. Buenos Aires.
“..la coherencia es necesaria pero no suficiente en el campo de la ciencia de los hechos: para
afirmar que un enunciado es (probablemente) verdadero se requierendatos empíricos
(proposiciones acerca de observaciones o experimentos). En última instancia, solo la
experiencia puede decirnos si una hipótesis relativa a cierto grupo de hechos materiales es
adecudada o no” (15)
Bunge (1970).
“ciencias formales y ciencias factuales, o sea, entre las que estudian las ideas y las que
estudian hechos. La lógica y la matemática son ciencias formales; no se refieren a nada que se
encuentre en la realidad, y, por tanto, no pueden utilizar nuestros contactos con la realidad para
convalidar sus fórmulas” (38)
“la ciencia formal es autosuficiente por lo que hace al contenido y al método de prueba,
mientras que la ciencia factual depende del hecho por lo que hace al contenido o siginificación,
y del hecho experiencial para la
convalidación. Esto explica por qué puede conseguirse verdad formal completa, mientras que la
verdad factual resulta ser tan huidiza” (39)
Bunge (1968).
“Definimos una ciencia formal como una ciencia exacta que contiene únicamente proposiciones
formales o propositions de raison. Por por otra parte, al menos algunas de las proposiciones de
una ciencia fáctica deben ser fácticas: deben descrbir, explicar, o predecir cosas o procesos que
pertenezcan al mundo real (natural o social). La lógica, la semántica filosófica y la matemática
son ciencias formales. En contraposición, las ciencias naturales, sociales y biosociales son
fácticas. También lo son todas las tecnologías, desde la ingeniería y la enfermería hasta las
ciencias de la administración y el derecho”(270)
4
Popper (1983) y Blaug (1985), apoyándose en Hume, consideran que el método inductivo no es
consistente con las reglas de la lógica formal:
“Hume sostenía que no puede haber ningún argumento lógico válido que nos permita
establecer que lo casos de los cuales no hemos tenido ninguna experiencia se asemejan
a aquellos de los que hemos tenido experiencia. Por consiguiente, aun después de
observar la conjunción frecuente o constante de objetos, no tenemos ninguna razón para
extraer ninguna inferencia concerniente a algún otro objeto aparte de aquellos de los que
hemos tenido experiencia” (Popper 1983:67).
“En la medida que un enunciado científico habla acerca de la realidad, tiene que ser
falsable; y en la medida que no es falsable, no habla acerca de la realidad” (Popper 1980:
292).
“Una teoría así no puede verificarse comparando directamente sus supuestos con la
realidad. En verdad, no existe forma significativa alguna de llevar a cabo esta
comparación. Un realismo completo es claramente inalcanzable, y el problema de si una
teoría es lo suficientemente realista puede resolverse únicamente observando si
suministra predicciones suficientemente buenas para el objetivo de que se trate o si son
mejores que las ofrecidas por teorías alternativas” (Friedman 1967: 42)
“Como se ha subrayado ya hasta la saciedad, ninguna teoría resuelve nunca todos los
rompecabezas a que se enfrenta en un momento dado, ni son a menudo perfectas las
soluciones ya obtenidas. Por el contrario, es precisamente el carácter incompleto e
imperfecto del acuerdo existente entre teoría y hechos el que, en todo momento, define
muchos de los rompecabezas que caracterizan a la ciencia normal. Si todos y cada uno
de los desacuerdos entre hechos y teoría fuesen motivo suficiente para rechazar la teoría,
todas ellas debieran rechazarse en todo momento” (Kuhn 2006: 261-262).
Además:
“Popper begins with the logical asymmetry between verification and falsification: nothing
can ever be exhaustively verified but a single falsification suffices; in popular parlance,
you cannot prove anything but you can certainly disprove some things”(111)
“Thus, science, according to Popper, involves not just proposition that are at least in
principle falsifiable but also propositions that are increasingly strengthened by being more
severely tested that are increasingly strengthened by being more severely tested”(Blaug
1994: 111)
"La visión dominante de cómo uno prueba las teorías científicas se convirtió en el
llamado método hipotético-deductivo (HD) ... este método consta de los
siguientes cuatro pasos:
1. Formule alguna hipótesis o teoría H.
2. Deduce alguna predicción o afirmación observable, P, de H unida a una
variedad de otras afirmaciones. Estas otras declaraciones incluirán
descripciones de condiciones iniciales, otras teorías y cláusulas ceteris paribus.
3. Prueba P. (Una prueba H solo indirectamente mediante el método HD). Las
pruebas pueden implicar experimentación complicada u observación simple.
4. Juzgue si H se confirma o no según la naturaleza de P y si P resultó ser
verdadera o falsa. "Confirmado d no significa" probado "o" verdadero ", ni"
desconfirmado "
5. significa "refutado" o "falso", porque la hipótesis falsa puede tener
implicaciones verdaderas, y la falsedad de P puede deberse a alguna premisa
de la cual P se deriva a parte de H "(Hausman 1992:)
En el esquema ampliado que presentaremos en las secciones posteriores, el proceso de
investigación se inicia con la formulación del problema económico a estudiar y continúa con la
selección de las probables teorías que lo explican. A partir de la alternativa teórica optada, se
desarrolla el modelo de la teoría y de él derivamos hipótesis. Estas se someten a prueba
utilizando los métodos estadísticos o econométricos apropiados. Si los resultados corroboran las
hipótesis, o son consistentes con ellas, se dice que el modelo es apropiado y, por esa vía, la
6
teoría en la que se sostiene el modelo. Si las hipótesis son refutadas por la realidad, hay que
modificar el modelo o buscar otras teorías.
Bunge (1971)
“El procedimiento que consiste en desarrollar una teoría empezando por formular sus puntos de
partida o hipótesis básicas y deduciendo luego sus consecuencias con la ayuda de las
subyacentes teorías formales se llama método hipotético deductivo”. Los axiomasde una teoría
formal son, consiguientemente, hipótesis en sentido lógico, mientras que los axiomas de una
teoría factual son hipótesis en los dos sentidos: el lógico y el epistemológico y metodológico:
van más alla´de la experiencia y son además rectificables. Y todas las teorías, formales o
factuales, son sistemas hipotético- deductivos”(253)
La investigación se inicia con la elección del tema a investigar. Antes de inclinarse por uno en
particular, es recomendable tomar en consideración las siguientes dos recomendaciones.
En segundo lugar está el tema de investigación, el cual debe ser elegido teniendo en cuenta su
viabilidad teórica-empírica y la perspectiva de que proporcione un valor agregado sobre los
trabajos existentes, luego de haberse puesto en contacto con la literatura básica sobre el tema
de investigación y de haber explorado la disponibilidad de información estadística. Por ello,
reiteramos que el objetivo de una investigación en Economía es someter a prueba empírica
hipótesis de causalidad, utilizando los datos de una realidad específica y dentro de un periodo
determinado.
Este resumen (que se escribe al finalizar la investigación) permita dar a conocer al lector, en
muy pocas líneas:
1
Esta recomendación va dirigida especialmente a los estudiantes que están preparando su trabajo de investigación. Mi
preferencia es por que utilicen su tiempo fundamentalmente en la aplicación de sus conocimientos de la teoría económica, la
historia y la econometría, en lugar de utilizar ese tiempo en buscar información, construir series estadísticas o hacer encuestas.
En el futuro, cuando sean profesionales y su trabajo sea remunerado, podrán utilizar su tiempo y recursos en esas tareas.
Tienen una vida por delante para resolver los problemas del mundo; por ahora, los estudiantes deben demostrar,
básicamente, que saben utilizar los instrumentos apropiados para proceder “como si” estuvieran resolviendo un problema
económico de la vida real.
8
i) ¿Cuál es el contenido del trabajo?
Es necesario que el tema abordado sea preciso y observable. Ello posibilita facilitar la tarea de la
investigación cuando el problema económico se plantea bajo la forma de una relación probable
(hipótesis de causalidad preliminar) entre el comportamiento de una o más variables
explicativas (las variables exógenas) y el de una o más variables a explicar (las variables
endógenas); es decir, la relación entre las variables ( X ) e (Y ) , donde las primeras causan las
segundas.
Describir el problema a estudiar como una relación probable de causalidad entre dos variables o
grupo de variables contribuye a precisar el objetivo de la investigación. Como diría Hicks (1979):
"No solo preguntamos qué sucedió, sino por qué sucedió. Esa es una
causalidad; exhibiendo la historia, hasta ahora podemos, como un proceso
lógico "(Hicks 1979: Prefacio, ix-x).
También es recomendable, aunque no indispensable, que las variables exógenas del estudio
sean, al mismo tiempo, instrumentos de política económica. De esta manera, al final del trabajo
de investigación, la recomendación de política económica podrá girar en torno a qué hacer con
los instrumentos de política para alcanzar los objetivos perseguidos; es decir, sobre cómo influir
a través de las variables exógenas ( X ) sobre las variables endógenas (Y ) .
Por otro lado, siendo el primer contacto del lector con el estudio, la introducción debe buscar
llamar su atención y persuadirlo de que vale la pena continuar con la lectura hasta el final del
trabajo:
"Vale la pena recordar que los tópicos de salientes actuales, tanto teóricos
como en la llamada palabra real, son un campo lleno de gente ... A menos que
tengas algo original que decir sobre ellos, es recomendable evitar los temas
típicamente de estilo. de interés central para la disciplina. Por lo general,
estos son temas sobre los que todos escriben, y la razón es que alguien más
ya ha hecho las contribuciones decisivas y emocionantes "(Przeworski y
Salomón 1995: 7).
Como diría Bunge (1968)
Es decir, hay que exponer de manera clara las preguntas de la investigación, y las respuestas
preliminares no deberían ser obvias, tautológicas: hay que convencer al lector de que el tema
seleccionado amerita ser estudiado. ¿Fue el auge económico registrado en el periodo 2001-
2006 en el Perú resultado del crecimiento económico mundial exclusivamente? ¿Hay razones
para creer que la reducción del déficit fiscal observado entre el 2001 y el 2006 está
fundamentalmente explicada por el auge económico que elevó los ingresos, más que por la
propia acción del Ministerio de Economía y Finanzas? ¿Puede decirse lo mismo respecto a la
disminución del índice de cartera pesada de la banca comercial observada en el mismo periodo,
que no debe atribuirse únicamente al accionar de la Superintendencia de Banca y Seguros? ¿Por
qué la mayor apertura financiera al exterior experimentada en el Perú de los últimos años está
acompañada por una mayor concentración bancaria? ¿Por qué, a pesar del auge económico
9
experimentado en los últimos 5 años, la inflación ha estado por debajo del 2 % anual? ¿Cuáles
son los factores que explican los ciclos económicos en una economía pequeña y abierta como la
peruana? ¿Serán factores monetarios, fiscales o reales; o serán factores internacionales?
¿Puede ser posible que la expansión económica registrada en los últimos 5 años no haya
reducido los índices de pobreza?
Al final de la introducción, debe presentarse una descripción resumida del contenido del
informe.
Existen teorías, como las leyes técnicas de la producción, que son generales; y existen otras,
como la teoría de la demanda efectiva, que son específicas, y dependen de las características
institucionales de cada sociedad. Como lo afirma Lange:
”…las leyes económicas que se cumplen en un tipo de organización social pueden fallar
en otro distinto. Por esta razón, la mayor parte de las leyes económicas están
históricamente determinadas por ciertos tipos de organización e instituciones sociales “
(Lange 3).
En la revisión de los trabajos empíricos, los hallazgos al respecto, deben también estar referidos
a la vinculación estadística o econométrica entre las variables ( X ) e (Y ) , y pueden referirse a la
economía nacional o a la economía internacional.
En esta parte del trabajo corresponde precisar acerca del marco institucional que supone el
modelo económico a presentarse en la sección siguiente. Si, por ejemplo, se está elaborando un
modelo macroeconómico para el estudio de la política fiscal y la política monetaria en el Perú
sería importante dar a conocer las normas e instituciones que influyen en él. ¿Es la economía
abierta o cerrada al comercio internacional? ¿Existen controles o hay libre movilidad de capitales
financieros? ¿La moneda nacional cumple con sus tres funciones básicas o existe alguna
moneda que la ha reemplazado en algunas de sus funciones? ¿Cuáles son las normas que
regulan la operatividad de la política monetaria y la política fiscal? ¿Tiene el Banco Central de
Reserva autonomía constitucional? ¿El sistema financiero está dominado por los bancos o por
los mercados de bonos? ¿Cuáles son las normas que regula la política fiscal?
Por otro lado, a través de cuadros o gráficos, o de análisis de correlación básicos, deben
mostrase algunas regularidades empíricas o hechos estilizados a propósito del comportamiento
10
de las variables ( X ) e (Y ) , o de aquellas que se presuma conectan a otras anteriores. Este
ejercicio posibilita mostrar algunas regularidades que permiten adelantar, de manera preliminar,
visual, la pertinencia de las hipótesis planteadas en la introducción de la investigación. Así
mismo, estas relaciones entre variables, pueden sugerir algunos mecanismos de transmisión
entre las variables endógenas y exógenas, que podrían servir para la construcción de las
ecuaciones estructurales del modelo que se desarrollará en la sección siguiente.
Las teorías y modelos teóricos presentados en la sección 1 son genéricos y requieren de una
mayor concreción para ser operativas; es decir, contrastables con la realidad. En consecuencia,
resulta necesario incorporar en las teorías o modelos teóricos supuestos auxiliares para que el
investigador tenga un mayor grado de aproximación a la realidad.
Un modelo, de acuerdo con Hicks, “es un ejemplo de una teoría” (Hicks 1989: 9). En
consecuencia, como es posible generar varios modelos de una teoría, además de ciencia, hay
que tener el arte para elegir o construir el modelo adecuado para el estudio de la realidad
elegida. Es decir, no hay un algoritmo lógico para derivar un modelo de una teoría
determinada3.
El investigador debe elegir una teoría de las revisadas en la sección de los antecedentes
teóricos y puede adoptar alguno de los modelos teóricos presentados en esa sección, adaptar
alguno de ellos a las circunstancias particulares de la economía o construir uno propio si los
modelos existentes no son adecuados para el estudio de la realidad elegida.
2
Véase, por ejemplo, Novales (1996).
3
En Varian (1997) se encuentran algunas recomendaciones sobre cómo construir modelos.
11
El modelo no debe tener contradicciones lógicas internas y debe probarse que en él se puede
alcanzar un equilibrio estático o dinámico: y si ese equilibrio puede alcanzarse.
“Aun si existe el equilibrio, todavía tiene que demostrarse una tendencia hacia él” (Hicks
1989: 20-21)
Así mismo:
“En lo que respecta a las hipótesis auxiliares, decidimos establecer la regla de que se
considerarán aceptables únicamente aquéllas cuya introducción no disminuya el grado de
falsabilidad o contrastabilidad del sistema, sino que, por el contrario, lo aumente”
(Popper 1980:79).
Popper (1962)
“En lo que respecta a las hipótesis auxiliares, decidimos establecer la regla de que se
considerarán aceptables únicamente aquéllas cuya introducción no disminuya el grado de
falsabilidad o contrastabilidad del sistema, sino que, por el contrario, lo aumente”(79).
Hicks
Pag 22
12
Nuevamente, dejemos pasar lo anterior. Aunque el equilibrio exista, y la tendencia al equilibrio
también exista, todavía podríamos no tener suficientes bases para justificar la suposición de
equilibrio si la convergencia hacia el mismo es muy lenta.
Pag 23
El equilibrio debe existir, y debe haber una tendencia hacia él; si estas condiciones no se
sostienen en el modelo que hemos seleccionado, este no podrá emplearse en el análisis
estático de los hechos en cuestión, y deberá ser desechado.
(…) en la dinámica (…) el presente y futuro no sean idénticos es la esencia del problema
dinámico.
Las predicciones se derivan del modelo en su forma reducida, que pueden ser acompañadas por
una explicación basada en la forma estructural. En general, son proposiciones condicionales; es
decir, relaciones de causalidad que existen entre las variables ( X ) e (Y ) , suponiendo que el
resto de variables exógenas se mantienen constantes. En los modelos estáticos, resultan de los
ejercicios de estática comparativa desarrollados a partir del modelo, y en los modelos
dinámicos, de la dinámica comparativa.
Así mismo, como un objetivo fundamental de la ciencia económica es explicar qué causa qué,
las hipótesis tienen que ser necesariamente de causalidad, como bien lo precisan Popper
(1980), y Figueroa (2003):
“El objetivo de las ciencias sociales es establecer relaciones de causalidad, esto es,
determinar qué causa qué. La causalidad es lo que hace a la ciencia útil; otorga a las
personas poder para alterar la realidad. Las relaciones de causalidad indican el efecto de
los cambios en las variables exógenas sobre las variables endógenas.” (Figueroa 2003:
34).
Por último, las hipótesis, para tener sentido y ser refutables, tienen que ser empíricamente
observables. Proposiciones incondicionales, tales como cuando los curanderos arengan a sus
pacientes, “si tienes fé, sanarás” (Figueroa, 2003), o algunos economistas, cuando afirman que
“la inflación bajará si la política monetaria es creible”, son hipótesis no refutables, y por tanto
están fuera del domino de la investigación económica.
Figueroa ( 2007)
Pag 16
Cuando aplicamos una teoría, la estamos usando como medio de explicación: no preguntamos
solamente "que' ocurrió", preguntamos "por que" ocurrió". Esto es causación*; mostrar lo
ocurrido como un proceso lógico, en la medida en que podamos hacerlo.
(…)
Pag 39
A es un acontecimiento que ocurre en el tiempo T a; B es algún acontecimiento que ocurre en el
tiempo Tb, que por ahora seguiremos suponiendo que es posterior.
(…) no es preciso que Ta y Tb sean instantes; pueden ser periodos de tiempo, inclusive periodos
bastante Urgos. Así, es correcto decir que la inusual falta de equilibrio entre los sexos de la
población inglesa en la década de 1930 fue causada por la Primera Guerra Mundial.
Pag 40
(…) una causa tener muchos efectos; y es igualmente evidente (suponiendo que la guerra sea
el efecto y se busquen sus causas) que un efecto puede tener muchas causas. La afirmación de
que A causó B es entonces en cierto grado ambigua. Puede significar que A fue una de las
causas de B (causaci6n "débil") o que A fue la causa única de B (causación "fuerte"). La
causación fuerte implica la causación débil. Pero también implica que no hay otra causa
potencial que sea admitida como causa de B; es una combinación de una causación débil para
A con una negación de causación débil para otras alternativas.
Por consiguiente, la definición básica es la de la causación débil (…)
14
Pag 55
Hemos distinguido tres clases de causalidad con relación al tiempo: secuencial (en que la causa
precede al efecto), contemporánea (en la que ambos se refieren al mismo pen'odo de tiempo)
y estitica (en que ambos son permanentes). (…) Aun la causalidad estdtica puede ser fuerte o
débil; puede ser aditiva o superpuesta y no dejamos de lado las causas negativas.(…) Pero es
siempre cierto que cualquier afirmaci6n de causalidad, de cualquier clase que sea, ha-ce
referenda a una teoría. Es porque consideramos a ,acontccimientos que afirmamos que se
relacionan causalmentc como casos de una teori'a, que podemos enunciar Juna relación entre
ellos. Todas las afirmaciones de causalidad tienen que ver con la aplicacion de una teori'a.
Kmenta (1977).
Las afirmaciones relativas al valor de algún parámetro de la población son las hipótesis nulas,
ya que implican que no existe diferencia entre el verdadero valor del parámetro de la población.
La hipótesis nula es una proposición contrastable y, por lo tanto, es necesario que exista una
proposición contraria, ya que en otro caso no habría ninguna necesidad de efectuar la
contrastación.
“las hipótesis de carácter específico son más fáciles de refutar que las que tienen un carácter
vago o general y, por tanto, resulta deseable –y así ha ocurrido en la práctica común- que los
problemas de contrastación de hipótesis se formulen con una hipótesis nula tan específica como
sea posible (131)
“Ello significa que en muchas ocasiones introducimos como hipótesis nula la proposición que
realmente deseamos refutar. Un buen ejemplo de ello es el correspondiente a las pruebas de un
nuevo medicamento. Existe una obvia presunción de que, en términos de porcentaje medio de
curaciones, el nuevo medicamento dará mejores resultados que la terapia o medicamento
anteriores, ya que, en caso contrario, no tendría ningún sentido efectuar dicha contrastación.
Sin embargo, la hipótesis nula es en este caso la proposición de que el nuevo medicamento
produce el mismo porcentaje medio de curaciones que el viejo y la hipótesis alternativa será
que este porcentaje medio es mayor en el caso del nuevo medicamento” (131)
La hipótesis nula señala generalmente que la relación postulada no existe, lo cual normalmente
significa que el valor de uno o más parámetros es igual a cero, mientras que la hipótesis
alternativa afirma que la relación sí existe” (133)
Bunge (1970)
“las hipótesis factuales son conjeturas fromuladas para dar razón de hechos, sean éstos ya
conocidos por experiencia o no lo sean…En la ciencia se imponen tres requisitos principales a la
formulación (que no es sin más la aceptación) de las hipótesis: (i) la hipótesis tiene que ser
bien-formada (formalmente correcta) y significativa (no vacía semánticamente); (ii) la hipótesis
tiene que estar fundada en alguna medida en conocimiento previo; y si es completamente
nueva desde ese punto de vista, tiene que ser compatible con el cuerpo del conocimiento
científico; (iii) la hipótesis tiene que ser empíricamente contrastable mediante los
procedimientos objetivos de la ciencia, o sea, mediante su comparación con los datos empíricos
controlados a su vez por técnicas y teorías científicas.
Las hipótesis son proposiciones que predicen relaciones de cuasalidad entre las variables
exógenas del modelo (que son la causa del fenómeno) y las variables endógenas (que reciben el
efecto). Estas son las proposiciones empíricamente verificables. Las hipótesis deben ser
15
refutables. Curanderos: “si tienes fe sanarás”. Cualquier proposición que en principio no puede
ser refutable está fuera del dominio de la ciencia
Las hipótesis, aun si fuera verificable de manera unívoca, son estocásticas.., y puden ser
descubiertas sólo a través de la Ley de los Grandes números, por confrontación con datos
masivos y con datos individuales. Se requiere, entonces, de una grado de confromidad estad
´sitica para acepare o rechazar las hipótesis. Este es el método estad´sitico de verificación.
Como la experimentación controlada es rara vez posible en Economía, el análisis estad´sitico
debe realizarse sobre información generada en experimentos naturales, no controlados. La
falsación implica el uso de una muestra grande de observaciones. Una única observación es
inútil
La ciencia económica no puede pronosticar, no puede determinar los valores que tomarán las
variables endógenas en el futuro. La ciencia solo pude predecir: dado los valores de las varables
exógenas, puede determinarse el valor de las variables endógenas. Pero la ciencia no tiene
capacidad para saber cuales serán los valores de las variables exógenas en el tiempo; tendría
que endogenizarlas.
“Los modelos constituyen un marco o un esqueleto y la carne y la sangre tendrán que ser
añadidos con gran sentido común y conocimiento de los detalles” (Tinbergen 1969:4)
Las diferencias entre el modelo teórico y el modelo econométrico son varias. En primer lugar, el
segundo demanda una forma funcional definida, mientras que el primero puede eludir el
explicitar la forma funcional o solo imponerle ciertos requsitos como el de derivabilidad,
concavidad o la existencia de un mínimo. En segundo lugar, el modelo econométrico exige una
especificación estadística más precisa de las variables que lo componen. En tercer lugar, los
modelos econométricos se establecen como relaciones estocásticas entre variables, mientras
que los modelos teóricos suelen proponerse como relaciones determinísticas.
Los criterios de selección de un modelo econométrico dependen del objetivo que se propone la
investigación, que puede ser de carácter exploratorio o definitivo, del tipo de información
disponible (de series de tiempo cuantitativa o cualitativa, de corte transversal o información de
panel o longitudinal) y también de la naturaleza de las variables especificadas respecto a su
escala de medición u observabilidad.
Además del modelo econométrico, en esta sección hay que identificar empíricamente y describir
la base de datos de las variables exógenas ( X ) y endógenas (Y ) en estudio, indicando
claramente las fuentes de información, sus alcances y limitaciones en cuanto al periodo de
análisis, unidades de tiempo o consideraciones muestrales, de ser el caso. La base de datos
puede estar conformada por información cualitativa, siempre que pueda expresarse en forma
cuantitativa, tales como las variables ficticias o dummy. Este mini banco de datos servirá
también para que otros investigadores puedan replicar, discutir o refutar los hallazgos empíricos
de la investigación en curso.
En esta sección se deberá también precisar el destino que se dará al modelo econométrico, el
cual puede ser utilizado para desarrollar un análisis estructural (cuantificar las relaciones entre
las variables endógenas y la exógenas), para hacer predicciones (anticipar los valores futuros de
las variables endógenas, dadas las exógenas) o para hacer simulaciones de política económica
(comparar los efectos de distintas mezclas de política económica sobre las variables
endógenas).
Cuando se trata de series de tiempo, éstas pueden usarse para pronosticar o simplemente para
estimar parámetros de un modelo determinado, en cualquiera de estos casos, lo primero que se
debe hacer es verificar que no exista cambio estructural. En el primer caso (para pronosticar),
se trata de determinar el proceso generador de datos aproximándolo a los modelos ARIMA. En el
segundo caso, primero se deben hacer pruebas de raíz unitaria, para verificar que los datos son
estacionarios en media y varianza, de lo contrario podría producirse una mala estimación de los
coeficientes o el modelo no convergería; cuando no son estacionario en varianza lo modelos son
del tipo ARCH. Cuando se asegura que las series son estacionarias, se pueden plantear modelos
de Ecuaciones Simultáneas o modelos de Vectores Autoregresivos (VAR) o modelos que incluyen
restricciones teóricas como los SVAR (la S es de “structural”, y el resto es igual al VAR). En
realidad, existen algunos modelos más, pero que son un poco más complejos, por ejemplo el
filtro de Kalman que sirve para estimar variables no observables o parámetros cambiantes en el
tiempo, también se puede estudiar la posibilidad de cambio estructural, realizando distintos
tests a la serie, están tambien los modelos de transición suave y de umbral, que sirven para
verficar relaciones no lineales en el modelo, entre otros.
En el caso de datos de corte transversal, aparte de las estimaciones simples de MCO tenemos a
los modelos que mencionas, como los de elección discreta que pueden ser estimados con
modelos de tipo Logit, Probit y modelos de variable dependiente limitada q se estiman con los
Tobit, y modelos de duración.
En los casos de datos de panel, este modelo es muy flexible, como es una fusión de los dos
tipos de datos, se pueden realizar casi todos los modelos de series de tiempo y de corte
transversal. En principio, lo q debe de hacerse es verificar que realmente existe heterogeneidad
entre los individuos que se están analizando en el panel, de lo contrario se podría hacer un
simple MCO. Si existe heterogeniedad entre individuos, el tipo de modelo de panel puede ser de
Efectos Fijos o Efectos Aleatorios, para ello existe el test de Hausman. La ventaja del panel es
que incorpora justamente alguna variable que no es observable y que captura la
heterogeneidad de los individuos, como esta variable no es observable está capturada por el
error y una estimación simple de MCO puede producir estimadores sesgados, por ello el método
17
de estimación depende de si esta variable está relacionada con las explicativas del modelo
(Efectos Fijos) o no lo está (Efectos Aleatorios) en cada caso el método de estimación soluciona
los problemas que se puedan presentar.
Luego se debe de clasificar el panel, puede tener una gran cantidad de individuos y series de
tiempo no muy largas, en este caso se clasifica como panel estático; por el contrario si hay
pocos grupos o individuos y series de tiempo largas, el panel sería dinámico. En el primer caso,
se asemeja a los modelos de corte transversal y pueden usarse los modelos que señalas, probit,
logit, entre otros, etc. En el segundo caso se utilizan a su vez, otros tipos de estimadores como
el método de Arellano-Bond y Arellano-Bover, el problema es que la introducción de rezagos en
el modelo por ser semejante a los de series de tiempo produce otros problemas que los modelos
de Efectos fijos y aleatorios no solucionan. Estos métodos de estimación de panel dinámico
asumen que el modelo es de efectos fijos. Entonces, pueden usarse lo modelos de serioes de
tiempo para este tipo de panel.
Principio de parsimonia, Friedman “una hipótesis (modelo) es importante si ésta explica mucho
con poco
Gujarati (1997)
El término aleatrio es sinónimo de estocástico. Una variable estocástica es aquela que puede
tomar culauiqer valo, positivo o negativo, con una probabilidad dada
La mayor parte del trabajo empírico basados en datos de series de tiempo supone que estas son
estacionarias. Una serie de tiempo es estacionaria si el valor de su media y su varianza no
varían sistemáticamente con el tiempo
Se suele introducir la variable tendencia para evitar correlaciones espurias. Sin embargo, el
análisis basado en información de series de tiempo supone implícitamente que la serie de
tiempo bajo análisis es estacionaria. La eliminación de la tendencia es uno de los
procedimientos utilizados para convertir una serie de tiempo en estacionaria.
Tipos de errores de especificacion
El enfoque de Hendry o enfoque del London School of Economiscs es conocdio como el enfoque
de ariba hacia abajo o de lo general a lo específico en el sentido que se empieza con un
modelo que tiene diversos regresores y luego se va depurando hasta llegar a un modelo que
contiene solamentre las variables “importantes”.
En los modelos de series de tiempo del tipo BJ Y puede ser explicada por valores pasados o
rezagados de si misma, y por los términos estocásticos de errro. Por eso se les llama modelo a-
teóricos porque no pueden ser derivados de teoría económica alguna. Las ecuaciones
simultpanes si tenía como base teorias económicas.
De acuerdo con Sims, si hay verdadera simultaneidad entre un conjunto de variables , todas
deben ser tratadas sobre una base de igualdad, no debe haber ninguna distinción a priori entre
variables endógenas y exógenas. Es en este contexto que Sims desarrolló su modelo VAR
Problemas:
1 Un modelo VAR es a-teórico porque utiliza menos información previa. Recuérdese que
en el modelo de ecuaciones simultáneas la exclusión o inclusión de ciertas variables
juega un papel crucial en la identificación del modelo.
2 Debido a su énfasis en la predicción, los modelos VAR son menos apropiados para el
análisius de política.
3 El mayor desafío en el diseño del VAR es seleccionar la longitud apropiada del rezago.
19
4 Estrictamente hablando, en un modelo VAR de m variables, todas las m variables
deben ser estacionarias (en forma conjunta). Si éste no es el caso, se tedrá que
transformare la información en forma apropiada.
5 Puesto que los coeficientes individuales estimados en los modelos VAR son, con
frecuencia, difíciles de interpretar, los prácticantes de est técnica a menudo estiman
la llamada función de impulso respuesta (IRF). La IRF estudia la respuesta de la
variable dependiente en el sistema VAR ante shocks en los términos de error, tales
como u1 o u2 (cambios en el valor de la desviación estandar
Variable aleatoria: una variable cuyo valor está determinado por el resultado de un
experimento de azar..
Maddala (1996)
Novales (1996)
La hipótesis nula es aquélla en que el investigadro está dispuesto a creer a priori. La hipótesis
alternativa es aquélla que pasará a aceptar si rechaza la hipótesis nula. La idea previa a la
contrastación estad´sitica de hipótesis es que existen razones para creer que la hipótesis nula
pueda ser cierta: es aquel suceso que parece más posible a priori el que debe definir la
hipótesis nula. La hipótesis alternativa debe estar definida por aquellos sucesos, incompatibles
con los que definen la hipótesis nula, que tienen probabilidad positiva. Un suceso de
probabilidad nula no debe estar incluido ni en la hipótesis nula ni en la alternativa.
Contrastes no paramétricos.
Econometría
El método de la econometría:
Formular el modelo econométrico en una forma verificable empíricamente. Hay varias formas
pues hay que elegir la forma funcional, la especificación de la esrtructura estocástica de las
variables . Esta parte es la especificación del trabajo econométrico.
20
todas las variables consideradas como irrelevantes para el propósito de este modelo, así
como todos los sucesos no previstos)
Un enunciado con respecto a la existencia de errores de observación en las variables
observadas.
Una especificación de la distribución de probabilidad de las distorisiones (y errores de
medición).
¿Qué contiene la variable u?:
o Un elemento impredecible de aleatoriedad en las respuestas humanas.
o Efecto de un gran numero de variables omitidas.
o Error de medición en y.
Un ejemplo piola.
Una tienda esta haciendo ha hecho una campaña publicitari para un producto e una ciudad y
quiere saber si ha sido efectiva, para hacerla a nivel nacional.
La emprsa hace una ecuesta bien hecha a 200 personas. Se sabe que el % de perosnas que
consumi el producto era de 5 %. La campaña habría sido efectiva si ese consumo ha subido,
digamos, al 7 %
Hay que hacer la estimadion con la muestra de 200.
Decir que es un éxito es asignar a la información muestral una fiabilidad absoluta, que
posiblemente hubiera sido distinta con una muestra distinta.. Entonces, no conocemos el
VERDADERO valor de la proporción tras la campaña publicitaria. Podrimaos empzar la campaña
a nivel nacional.
Esa sewrpia un error tipo I: por rechazar la hipótesis nula de ausencia de cambio en la
proporcion de consumidores, cuando ésta es cierta, puesto que no ha habido variación
relevante, aunque la informacion muestral nos hace creer que sí
Supongamos que hubiesemos obtenido solo 13 respuesta afirmativas, 6.5%, lo que nos llevaria
a NO RECHAZR la hipótesis nula cuando, reealmente, el consumose ha extendido con respecto
al existente. Este es el error tipo II: consistente en no rechazar la hipótesis nula cuando ésta es
falsa.
Entonces:
n 2 x2 / E M2
E M x / n
Donde:
x2
E M2 : Error de estimación. Dado un nivel de confianza , es la máxima diferencia que
queremos permitir, con nivel de confianza 100(1- )% entre el parámetro desconocido y el
estad´sitico utilizado como estimador
E M x / n
Hoover (2006)
22
Primero, el más obvio es que la econometría se usa para probar una implicación de
una teoría.
En segundo lugar, la econometría puede usarse para medir valores desconocidos de
parámetros definidos teóricamente o variables inobservables.
En tercer lugar, la econometría puede usarse para predecir el valor de una variable.
La predicción puede basarse directamente en una teoría económica anterior o puede
ser un ejercicio estadístico ateórico.
La estrategia de Popper es más clara cuando las deducciones de una teoría son
deterministas. Sin embargo, como ya vimos en el caso del punto de vista recibido, la
economía casi con seguridad requiere conclusiones estadísticas más que
deterministas. Pero, en ese caso, ¿qué cuenta como una instancia de falsificación? ...
(68)
"Stigum (2003), quien enfatiza que el modelado tiene lugar en dos niveles, que él
considera como" mundos separados ".
El mundo de la teoría trata con modelos teóricos con conceptos nítidos. Las
deducciones teóricas generan solo conclusiones teóricas.
Koopmans, por ejemplo, sostuvo firmemente que la teoría debe ser anterior a los
datos. Los datos no deben interpretarse sin presupoposiciones teóricas. Tal enfoque
implicaba que el objetivo de la econometría era puramente de medición y no de
exploración y descubrimiento "(74).
En esta sección, se discuten los resultados del análisis estadístico y econométrico, y se evalúa
su relación con las hipótesis de la investigación. Acerca de la relación entre ( X ) e (Y ) : ¿Son los
resultados encontrados consistentes con las hipótesis? ¿Cuál es el grado de confiabilidad de
estos resultados? ¿Qué nos dice la evidencia encontrada respecto a hallazgos anteriores? Esta
sección es intensiva en el uso de la Econometría y la Estadística.
El grado de consistencia de los hechos con las predicciones, permite juzgar la pertinencia del
modelo que originó las predicciones, así como del marco teórico que dio lugar al modelo. Si la
predicción es inconsistente con los hechos, entonces la teoría es falsa. Esta es la esencia del
método popperiano de falsación en la ciencia.
Por otro lado, si la predicción es consistente con los hechos, lo será también con la teoría, pero
no se puede aceptar que la teoría sea verdadera, pues la predicción puesta a prueba puede
también ser derivada lógicamente de otra teoría. Así, un hecho observado puede ser consistente
con una o más teorías. Como la predicción se deriva del modelo, y no de la teoría, lo que en
realidad se está sometiendo a la prueba empírica es el modelo y no la teoría. De allí, de acuerdo
con Friedman (1967) y Figueroa (2003), la complejidad de establecer un criterio de verdad en la
economía y el enorme espacio que se deja para la controversia.
“La validez de una hipótesis en este sentido no es por sí misma un criterio suficiente para
elegir entre hipótesis alternativas. Los hechos observados son necesariamente finitos en
su número; las hipótesis posibles infinitas. Si existe una hipótesis compatible con la
evidencia disponible, hay siempre un numero infinito que lo es también” (Friedman
1967:15)
24
¿Qué sucede cuando una teoría que no ha sido rechazada en varias pruebas, no es confirmada
en una prueba adicional? Esa teoría, según Popper, debería ser rechazada. Hicks (1986), sin
embargo, sostiene que una teoría bien establecida, basada sobre un gran número de
observaciones, no puede ser falseada solo por una prueba. En este caso, el científico deberá
examinar las condiciones en las cuales ha sido ejecutada la nueva prueba, esperando establecer
que algunas de las condiciones que estuvieron presentes en los casos previos, no han estado en
el último.
Finalmente, el grado de consistencia de los hechos con las hipótesis está también afectado por
la calidad de las estadísticas y las limitaciones particulares de los métodos estadísticos y
econométricos de verificación de hipótesis. Además, de una teoría pueden derivarse diversos
modelos, y que cada uno de ellos puede expresarse mediante modelos econométricos
diferentes. Por eso es que la evidencia empírica permite refutar pero no verificar. Si las
predicciones incluidas en las hipótesis no son refutadas por la evidencia empírica, el teórico
puede adoptarlas, pero solo provisionalmente, pues siempre son susceptibles de refutaciones
por nueva evidencia o nuevos métodos de verificación: la investigación en Economía siempre es
un proceso, iterativo y no terminal.
Kmenta (1977).
“La decisión de cuál de las dos hipótesis rivales debe tomarse como hipótesis nula tiene
algunas implicaciones que es preciso no dejar de lado. Según la metodología establecida, una
hipótesis nula es una proposición que será considerada válida, a menos que la evidencia nos
haga dudar seriamente de ello. En este sentido, una contrastación estadística se parece a un
juicio ante los tribunales. En un juicio, el acusado es considerado inocente a menos que la
evidencia sugiera que es culpable, más allá de toda duda razonable. Del mismo modo, la
hipótesis nula se considera válida a menos que la evidencia sugiera- también más allá de toda
duda razonable- que no lo es. (Sin embargo, mientras en los tribunales la definición de “duda
razonable” es la misma en todos los casos, en las pruebas estadísticas puede variar según cual
sea el coste de efectuar un veredicto incorrecto.) Además, al igual que en el tribunal es el fiscal
quien tiene que probar la culpabilidad del acusado, en las pruebas estadísticas es el estadístico
quien tiene que la hipótesis nula es incorrecta. Naturalmente, la palabra “probar” no debe
tomarse en sentido absoluto en ninguno de los dos casos, puesto que siempre existe una
“sombra” de duda; solo Dios sabe si un hombre es realmente culpable o una hipótesis nula
realmente incorrecta. Por último, también el procedimiento resulta similar; en el tribunal se
presenta toda la evidencia y demás información que resulta relevante para el caso, y se pondera
de acuerdo con las reglas establecidas por la ley, llegándose a un veredicto de “culpable” o no
culpable”. Del mismo modo, cuando se efect´8ua una contrastación estadística, se utiliza toda
la evidencia y la información previa de acuerdo con unas reglas predeterminadas y se llega a la
conclusión de “rechazar” o “no rechazar” la hipótesis nula. Cabe señalar que, igual que el
tribunal dicta su veredicto en la forma de “no culpable” en lugar de “inocente”, la conclusión de
una contrastación estadística consiste en “no rechazar” en lugar de “aceptar””(131-132)
“El paralelismo entre los juicios y las contrastaciones estadísticas finaliza de repente cuando
consideramos la aplicación de la Quinta Enmienda de la Constitución de los Estados Unidos.
Contrariamente a lo que ocurre con un acusado, que no debe “verse sujeto a grave riesgo de su
vida o a perjuicio grave en dos ocasiones por una misma falta”, las hipótesis nulas están
siempre sujetas a la posibilidad de contrastación. En realidad, aunque las hipótesis nulas se
consideran válidas a menos que tengamos evidencia clara en sentido contrario, esta opinión
siempre tiene carácter provisional. En este sentido, una hipótesis nula se parece a un campeón
de cualquier deporte, que en cualquier momento puede verse superado por otro deportista. En
realidad, es posible imaginar el progreso de la ciencia como un proceso en el que se establecen
hipótesis y a continuación se efectúa un gran esfuerzo para obtener nuevos datos que permitan
refutar dichas hipótesis. Únicamente pueden sobrevivir a estos ataques continuados las
hipótesis más robustas haciéndose merecedoras de nuestra confianza, al menos hasta que se
produzca un nuevo ataque” (132)
25
El estadístico de prueba es simplemente una fórmula que nos indica la forma de confrontar la
hipótesis nula con la evidencia, y es una variable aleatoria cuyo valor varía de una muestra a
otra. La región en la que se rechaza la hipótesis se denomina a veces región crítica y es un
subconjunto del espacio muestral tal que si el valor del estadístico de prueba pertenece a él, se
rechaza la hipótesis nula. Del mismo modo, la región en la que no se rechaza la hipótesis,
llamada normalmente región de aceptación, es un subconjunto o espacio muestral tal que si el
valor del estadístico de prueba pertenece a él, no se rechaza la hipótesis nula “(134)
En esta última parte se consigna un resumen de los principales resultados del trabajo y sus
implicancias para la formulación de políticas económicas.
Como puede notarse, ( X ) e (Y ) están presentes en todas las etapas del estudio. Para la
investigación solo existen estas variables y hay que abstraer todo el resto de variables.
Las decisiones de política económica tienen como base los hallazgos empíricos; esto es, se
aplican sobre la base de si efectivamente se encontró una relación estadísticamente sólida entre
las variables exógenas y endógenas:
Sin embargo, dichas políticas no pueden derivarse unívocamente de los hallazgos empíricos
porque, como lo advierte Figueroa (2003), no hay una línea lógica que vaya de la teoría a la
política económica. La razón es que la causalidad no implica una relación única entre variables
exógenas (los medios de la política económica) y endógenas (los fines). Solamente si el modelo
tuviera dos variables, una endógena y una exógena, y si esta última fuese una de tipo
instrumental, podría la política económica desprenderse directamente de la teoría. Pero los
modelos establecen relaciones de causalidad entre muchas endógenas y exógenas y,
adicionalmente, no todas las exógenas pueden ser utilizadas como instrumentos de política
económica. En este caso general, el agente que define la política económica enfrenta un dilema,
pues tiene varios objetivos y varios instrumentos competitivos.
Se necesita, en consecuencia, juicios de valor para seleccionar los instrumentos y los objetivos
de la política económica:
“No se puede deducir el debe ser a partir del ser (Hume). En la ciencia, proposiciones
deontológicas no pueden ser lógicamente derivadas de proposiciones ontológicas” (Figueroa
2003:60)
26
Finalmente, la forma de la presentación del trabajo puede ser tan importante como el contenido
del mismo. Por eso:
No hay una línea lógica que vaya de la teoría a la política económica. La razón es que la
caudalidad no implica una relación única entre variables exógenas (los medios de la
política económica) y las variables endógenas (los fines). Solamente si el modelo tuviera
dos variables, una endógena y una exógena, podría la política económica desprenderse
directamente de la teoría. Pero los modelos establecen relaciones de causalidad entre
muchas endógenas y exógenas. Adicionalmente, no todas las exógenas pueden ser
utilizadas como instrumentos de política económica. En este caso general, el agente que
define la política económica enfrenta varios objetivos y varios instrumentos.
Se necesitan juicios de valor paraseleccionar medios y fines (Hume: “no se puede deducir
el debe ser a partir del ser”)En la ciencia, proposiciones deontológicas no pueden ser
lógicamente derivadas de proposiciones ontológicas. Las propuestas de política
económica no se derivan lógicamente de las teorías y modelos, pero tampoco son
independientes de estas.
Hoover (2001)
"La última justificación para el estudio de la macroeconomía es práctica:
proporcionar un conocimiento seguro sobre el cual basar la política. La política se
trata de influir en los resultados, sobre el control o el intento de control. El estudio
de la causalidad en cualquier contexto particular es el estudio de las conexiones
particulares que permiten el control de una cosa para influir en otra. La comprensión
causal está implícita en la discusión de la política "(1)
"La única utilidad inmediata de todas las ciencias es enseñarnos cómo controlar y
regular los eventos futuros por sus
causas" (Hume, 1777, pág 76) (10)
27
La investigación científica en Economía está constituida por diversas fases interconectadas de
una manera lógica, secuencial, pero también iterativa; es decir, que puede atravesarse las
distintas fases de la investigación una y otra vez. Esta secuencia de fases se puede apreciar en
el siguiente diagrama.
El problema a
investigar
La teoría y el
modelo de la
teoría
Las predicciones
(hipótesis)
Modelo economé-
trico y el método de
verificación de las
predicciones
Las predicciones
versus la
evidencia
Implicancias
para la política
económica
28
De acuerdo con el diagrama, la investigación se inicia con el planteamiento del problema
económico, el cual se presenta bajo la forma de una relación probable (hipótesis de causalidad
preliminar) sobre la relación entre las variables exógenas ( X ) y endógenas (Y ) donde las
primeras causan las segundas, y suponiendo constantes el resto de las variables exógenas. A
partir del problema económico a investigar, que es concreto, pues se origina en el mundo real,
transitamos a las teorías, que son abstracciones, pues constituyen versiones simplificadas de la
realidad, y contienen un conjunto de supuestos y axiomas no observables. Las teorías, pues, son
mapas de la realidad, y por ello son necesariamente abstractas. Partiendo de lo real, a través de
la presentación de los antecedentes teóricos de la investigación, ascendemos al nivel más alto
de abstracción.
Este procedimiento se inicia con la exposición de los trabajos empíricos que se hayan realizado
acerca del tema abordado, y continúa con la delimitación del marco institucional que supone la
economía en estudio y la presentación de las regularidades empíricas o hechos estilizados.
Estos tienen que estar circunscritos a las variables ( X ) e (Y ) presentadas previamente en la
introducción del informe de la investigación. Se reduce así, paulatinamente, el nivel de
abstracción.
Sobre la base de las teorías, las evidencias existentes, el marco institucional y los hechos
estilizados se construye el modelo económico. En este tránsito, no hay un algoritmo lógico o
matemático. El modelo se presenta primero en su forma estructural y luego se deriva, por
medio de las matemáticas, a su versión reducida, que es desde donde afloran las hipótesis o
relaciones de causalidad.
Es solamente en este tránsito, del modelo a las hipótesis, así como desde el modelo estructural
a su forma reducida, que no hay arbitrariedad: de un modelo en forma estructural sólo se puede
derivar uno en forma reducida; y hay un número acotado de hipótesis que podemos obtener a
partir de un modelo.
En el paso subsiguiente, sobre la base del modelo en su forma reducida y las hipótesis, se
construye el modelo econométrico, que es menos abstracto que el modelo económico y las
hipótesis.
En la siguiente etapa del trabajo de investigación, las hipótesis son sometidas a la prueba
empírica, contrastándolas con los datos de la realidad en estudio. Con lo que la investigación,
partiendo desde el problema económico, termina en el mismo punto, pero en su faceta de
problema explicado. Es decir, cuando investigamos partimos de la realidad, y terminamos en la
realidad; lo iniciamos sobre una base concreta, pasamos luego por una fase de abstracción, la
que reducimos paulatinamente, y culminamos otra vez en lo concreto:
29
Es en esta etapa que probamos si las hipótesis son o no consistentes con la realidad; y, en el
caso que lo sean, debe evaluarse aún cuál es el grado de confianza en esos resultados. Esta
sección es intensiva en Econometría y Estadística.
La última fase corresponde a las recomendaciones de política económica, que es la razón última
de la investigación en Economía. Estas recomendaciones tienen como base los hallazgos
empíricos, pero no se derivan lógicamente de ellos, pues son los juicios de valor de la persona
que toma las decisiones los que inclinan una opción de política económica sobre otra.
Debe quedar evidente que las citadas etapas de investigación están interconectadas, y que los
pasos de una fase a otra están limitados, pero no unívocamente circunscritos. Es por eso que,
en la práctica, las teorías son inmortales, porque, aun cuando las hipótesis que se derivan de
ellas son inconsistentes con los hechos, siempre se podrá decir que con otros modelos y por
tanto otras hipótesis, derivadas de la misma teoría, ésta podría seguir siendo “verdadera”.
Nos referimos al grupo de economistas empíricos que utiliza el método inductivo (Figueroa,
2003). Siguiendo este enfoque, a partir de una base de datos y con el uso de la econometría,
derivan relaciones entre las variables observadas e, incluso, por el método estadísitico, sugieren
relaciones de causalidad. Y, llegado a este punto, con base a dichas relaciones de causalidad
estadísticas, pasan a las prescripciones de política económica: es la “medición sin teoría”.
Si la “medición sin teoría” debe considerarse como una práctica inapropiada en la investigación
científica en el campo de la Economía, también debe rechazarse la teoría no sometida a la
contrastación empírica: la “teoría sin medición”.
Hace casi ochenta años, Schumpeter (1933), citado en Pulido (2001), nos decía:
En consecuencia, la investigación en Economía necesita pasar por todas las fases que hemos
descrito en este trabajo; es decir, debemos procurar presentar, en nuestras investigaciones,
“teorías con medición”.
El otro grupo es de economistas empíricos. Dada una base de datos, los economistas derivan
relaciones estadísticas entre las variables observadas. El uso intensivo de la econometría ha
significado que la derivación de esas relaciones sean también realizadas con mucho rigor y
sofisticación. De estas relaciones así obtenidas se pasa, usualmente, a la causalidad.Y sobre la
base de estos resultados se pasa, normalmente, al campo de las aplicaciones. Este es el método
inductivo”.
Maddala (1996)
Construcción de modelo después de la información
Mucchos ecometristas hacen com SH. Se formuilan hipótesis, se observa si los signos de los
coeficientes son correctos, magnitudes no palusibles o si los residuos tiene un patrón pecualir.
Luego se introducen más variables explicativas o se imponen algunas restricciones a los
parámetros. Una pregunta es si las inferencias tipo SH pueden utilizarse dentro del alcance de la
inferencia estads´sitica.
“La economía peruana ha registrado una caída del Producto Bruto Interno (PBI) entre los
años 2008 y 2010. Este ciclo recesivo (Y ) parece estar explicado por la política
monetaria contractiva aplicada por el Banco Central de Reserva del Perú (BCRP) en dicho
periodo, que ha consistido en la elevación sostenida de la tasa de interés interbancaria
( X ) ”.
En la sección 1 del informe deberán revisarse las teorías o modelos que muestran la conexión
entre el ciclo económico, representado por la brecha del producto (la diferencia entre el
producto observado y el producto potencial o de tendencia) y la tasa de interés de referencia
presentada en la introducción. Así mismo, en esta sección deben discutirse los resultados de los
trabajos empíricos acerca de la conexión entre la tasa de interés fijada por la autoridad
monetaria y la brecha del producto.
En la sección 2, como el objeto de estudio es la economía peruana, hay que considerar el marco
institucional correspondiente. En consecuencia, debiera advertirse que nuestra economía es
abierta, tanto en los mercados de bienes como en los mercados financieros; que en el país rige
un sistema de metas explícitas de inflación; que el principal instrumento de la política monetaria
es la tasa de interés de referencia, con la que se procura mantener fija la tasa de interés
interbancaria; que la economía está dolarizada y que está vigente un sistema de tipo de cambio
flexible.
En esta misma sección, también hay que presentar los principales hechos estilizados
relacionados al tema en estudio durante el periodo analizado. Es decir, siguiendo con nuestro
ejemplo, deberemos mostrar la evolución, mediante cuadros, gráficos o correlaciones
estadísticas, de la tasa de interés de referencia y la brecha del producto; así como de las
variables con las que presuntamente están conectadas, tales como la tasa de interés
interbancaria, la tasa de interés de mercado y el gasto privado.
31
En la parte 4 corresponde lanzar la predicción del modelo (la hipótesis), que debe ser muy
similar a la hipótesis tentativa presentada en la introducción, pero enriquecida con los canales
de transmisión que se señalaron en el modelo.
“El ciclo económico recesivo observado en la economía peruana entre el 2008 y el 2010
se explica por la política monetaria contractiva aplicada por el Banco Central de Reserva
del Perú (BCRP), consistente en la elevación sostenida de la tasa de interés de
interbancaria. El progresivo nivel de ésta condujo a la elevación de las distintas tasas de
interés de mercado y, en consecuencia, a la contracción del gasto privado, que provocó la
caída de la demanda y la producción”.
La hipótesis plantea el problema que debe ser sometido a la prueba empírica y también ensaya
una posible explicación sobre los canales que conducen a que una creciente tasa de referencia
reduzca la brecha del producto. La mayor tasa de interés de referencia, aumenta la tasa de
interés interbancaria; esta elevación se transmite a las otras tasas de mercado, lo que provoca
una reducción del gasto privado. El menor nivel de éste reduce la demanda y por tanto el nivel
de actividad. Dicha hipótesis se deriva lógicamente de un modelo keynesiano con alguna
variedad de Regla de Taylor y está estrechamente vinculada al problema a estudiar.
En la sección 5 debe describirse cómo, con qué método, estadístico o econométrico, se pondrá a
prueba la hipótesis. Como la naturaleza del tema de la investigación sugiere la utilización de
series de tiempo, el modelo econométrico debería ser el escogido, uno de la familia ARIMA, que
es el más adecuado para modelos uni-ecuacionales, tal como es, al parecer, el del ejemplo.
Por otro lado, hay que hacer la identificación empírica de las variables involucradas. Esto supone
precisar, por ejemplo, a qué se refiere exactamente la variable tasa de interés de referencia del
modelo. ¿La serie estadística es mensual, trimestral o anual? ¿La tasa de interés es nominal o
real?
Respecto a la brecha del producto, deberá describirse cómo se calculará el producto potencial o
de tendencia, para pasar a estimarla. ¿Se utilizará el método de la función de producción o se
aplicará a las series existentes algún filtro estadístico?
En la parte 6 se pone a prueba las hipótesis, a través del modelo econométrico presentado en la
sección anterior y con uno del tipo ARIMA. Deberá discutirse sobre la consistencia de los
resultados y su grado de confiabilidad: ¿es la relación entre la tasa de interés de referencia y la
brecha del producto estadísticamente sólida?
“La política monetaria contractiva aplicada en el periodo 2008-2011 ha hecho caer el PBI hasta
situarlo en un 20 % por debajo de su nivel potencial. En la coyuntura actual, del 2012, con la
inflación ya bajo control, y con el PBI por debajo de su potencial, la autoridad monetaria tiene
grados de libertad para ajustar la tasa de interés interbancaria, y a través de esa tasa, las de
mercado, reduciendo la tasa de interés de referencia, para de esta manera elevar el gasto
privado y en consecuencia el nivel de actividad económica, hasta llevarla a su nivel potencial”
32