Вы находитесь на странице: 1из 32

LA INVESTIGACIÓN EN ECONOMÍA: LA ELABORACIÓN Y EL DESARROLLO DE UN

PROYECTO DE INVESTIGACIÓN
Waldo Mendoza Bellido
Departamento de Economía de la PUCP
Julio 2018

INTRODUCCIÓN

En el presente documento exponemos algunas pautas para desarrollar una investigación en el


campo de la Economía de manera consistente, en términos generales, con el método de
investigación científica propuesto por Popper (1980, 1983), Bunge (1972, 1997), Hicks (1979,
1989), Friedman (1967) y, especialmente, con el expuesto por Figueroa (2003, 2007). Nuestro
objetivo fundamental es describir, paso a paso, las distintas etapas del proceso de investigación,
desde el planteamiento del problema económico a indagar, hasta su culminación, en la sección
de conclusiones y recomendaciones de política económica.

Como primer paso, abordamos el marco teórico del método de investigación en la Economía
basándonos, fundamentalmente, en la exposición sobre la técnica de investigación científica
presentada en Popper (1980, 1983) y llevada al campo de la Economía por Figueroa (2003,
2007). En la sección 2 desarrollamos las líneas básicas de una guía para que el investigador
proceda con su tema de una manera ordenada, siguiendo una secuencia de etapas
estrechamente conectadas por un cordón umbilical: el problema a investigar. En la parte 3 se
presenta un diagrama que resume los pasos de la investigación, el cual permite descubrir los
problemas metodológicos que suelen surgir en los trabajos que contienen “mediciones sin
teoría” o “teorías sin medición”. Por último, en la sección 4, mostramos un ejemplo pedagógico
sobre cómo hacer una investigación siguiendo las pautas de este trabajo, abordando el tema de
los efectos probables de una política monetaria restrictiva sobre el nivel de actividad económica.

1. LOS MÉTODOS DE INVESTIGACIÓN EN ECONOMÍA


En esta sección nos concentramos, fundamentalmente, en la exposición sobre la técnica de
investigación científica presentada en Popper (1980, 1983) y llevada al campo de la Economía
por Figueroa (2003, 2007).

¿Qué es una ciencia fáctica? Figueroa (2007), siguiendo a Popper (1968),a define como un
conjunto de proposiciones que deben cumplir con dos requerimientos; (a) deben ser
lógicamente correctos y (b) deben ser empíricamente falseables; es decir, cuando las
proposiciones pueden ser, en principio, rechazadas por la evidencia. Para Popper (1968) el
criterio de demarcación entre el conocimiento científico y no científico es el de falseabilidad.

Y teoría, según el mismo autor, “Es el conjunto de supuestos o axiomas (primeras nociones,
admitidas como ciertas sin demostración) que se establecen para comprender la realidad. Estos
supuestos se construyen como axiomas, no necesitan demostración. Las teorías siempre
representarán versiones simplificadas de la realidad. Se admiten como ciertas, pero solo en
principio. Será la evidencia empírica la que determinará su validez, pero eso se hará
aposteriori.”

El objetivo de las ciencias sociales es llegar a relaciones causales, es decir,


determinar qué causa qué. La causalidad es lo que hace que la ciencia sea útil. Las
relaciones causales indican el efecto de los cambios en las variables exógenas sobre
las variables endógenas. Debe quedar claro que las relaciones causales solo pueden
derivarse de una teoría; es decir, la causalidad requiere una teoría. Por lo tanto, las
relaciones causales deben ser observables. Viniendo de un proceso, la causalidad en
las ciencias sociales se refiere a regularidades, no a relaciones anecdóticas.

¿Cuáles son los criterios de verdad de una teoría?: “Toda teoría es, en cierto grado, arbitraria
pues es axiomática. ¿Cuáles son los límites de la arbitrariedad?: las hipótesis, que son
empíricamente verificables. Al confrontarse las hipótesis con la realidad, se está evaluando, por
1
esa vía, la validez de la teoría. Si la hipótesis es inconsistente con los hechos, entonces la teoría
es falsa. Una teoría, que como sistema lógico es correcta, puede ser empíricamente falsa. Si la
hipótesis es consistente con los hechos, sólo se puede decir que hay “consistencia” con la
teoría. No se puede aceptar que la teoría sea verdadera. La razón es simple: la hipótesis
verificada puede también ser derivada lógicamente de otra teoría. Así, un hecho observado
puede ser consistente con una o más teorías. La verificación de la teoría es indirecta: a través
de las hipótesis. Es suficiente la falla estadística de una hipótesis para rechazar una teoría que
pretende explicar cierta realidad"
“Las hipótesis, aun si fuera verificable de manera unívoca, son estocásticas.., y puden ser
descubiertas sólo a través de la Ley de los Grandes números, por confrontación con datos
masivos y con datos individuales. Se requiere, entonces, de una grado de conformidad
estadística para aceptar o rechazar las hipótesis. Este es el método estadístico de verificación.
Como la experimentación controlada es rara vez posible en Economía, el análisis estadístico
debe realizarse sobre información generada en experimentos naturales, no controlados. La
falsación implica el uso de una muestra grande de observaciones. Una única observación es
inútil

“La política económica es el producto final del conocimiento científico en la economía. La


política económica es la ingeniería de la ciencia económica, así como la agronomía es una
ingeniería de la biología y la medicina, una ingeniería de la biología y la quí. Si no hubiera
política económica, la Economía sería una ciencia estéril.”

La ciencia económica no puede pronosticar, no puede determinar los valores que tomarán las
variables endógenas en el futuro. La ciencia solo pude predecir: dado los valores de las varables
exógenas, puede determinarse el valor de las variables endógenas. Pero la ciencia no tiene
capacidad para saber cuales serán los valores de las variables exógenas en el tiempo; tendría
que endogenizarlas.” (Figueroa…)

Pag 28
Un modelo de la teoría se construye combinando las proposiciones alfa de la teoría
con un conjunto de supuestos auxiliares consistentes. El objetivo de construir un
modelo es formar proposiciones comprobables empíricamente, es decir, generar
proposiciones beta. Los principios de falsificación, sin embargo, se encuentra con un
problema ahora, por lo que se falsifica es un modelo de la teoría, no la teoría misma.
Una falsificación de una teoría implica falsificar todo lo posible modelos.
Ciertamente, el principio de falsabilidad requiere que el número de modelos de la
teoría sea finita.

Given a theory α, a set of consistent auxiliary assumption A’ is included to construct the model
α’, from which is derived the set of empirical predictions β’, which is tested out against the set
of empirical data b. If the theory does not fail, it can be accepted; if it does, the model α’ fails,
but not the theory. Another model is constructed and the algorithm is followed. If all the models
fail, then the theory fails and a new theory is constructed, and the algorithm is followed.
Introducing the language of mathematics, the set of assumptions (primary and auxiliary) of a
theoretical model can be represented by a system of structural equations, which shows the
interactions between endogenous and exogenous variables. The equilibrium conditions are
derived from the structural equations. The signs of the partial derivatives of the reduced form
equations constitute the beta propositions. Thus beta propositions represent causality relations,
the effect of exogenous variables upon endogenous variables; that is, beta propositions show
the effect of the ultimate factors on the endogenous variables of the model.

Según Kuhn (2006),

“… ninguna teoría resuelve nunca todos los rompecabezas a que se enfrenta en un momento
dado, ni son a menudo perfectas las soluciones ya obtenidas. Por el contrario, es precisamente
el carácter incompleto e imperfecto del acuerdo existente entre teoría y hechos el que, en todo
momento, define muchos de los rompecabezas que caracterizan a la ciencia normal. Si todos y
2
cada uno de los desacuerdos entre hechos y teoría fuesen motivo suficiente para rechazar la
teoría, todas ellas debieran rechazarse en todo momento” (Kuhn 2006: 262)

Es decir, de acuerdo con Blaug:

“Para Popper, la ciencia se encuentra en un estado de revolución permanente, ya que para él la


historia de la ciencia es la historia de una sucesión de conjeturas y refutaciones; mientras que
para Kuhn, la historia de la ciencia se caracteriza por largos periodos en los que se preserva el
status quo, y que solo en ocasiones se ven interrumpidos por saltos discontinuos de un
paradigma vigente a otro, sin puente conceptual alguno de comunicación entre ellos”(Blaug
1980: 49)

Pag 233
Figueroa (2007)
En la literatura sobre metodología, es común distinguir tres métodos principales:
inductivismo, deductivismo y hipotético-deductivismo (Achistein 2004)

pág 234
Como señaló Popper, este ejemplo ilustra que el principio de inducción es otra
inducción.
El otro método es el deductivismo, que busca producir conocimiento a partir de
pensamientos solamente. La teoría no solo tiene sus propios supuestos explícitos,
sino que hay otra suposición implícita: la teoría que es lógicamente correcta es
empíricamente cierta. Esta conclusión no puede ser justificada. En las ciencias
fácticas, por lo tanto, el riesgo de error del método deductivo es enorme.
El tercer método es hipotético-deductivismo, que también se puede llamar
falsificación. Este método busca interacciones entre la teoría y la realidad. Popper
desarrolló este método en su famosa The Logic of Scientific Discovery. El
Falsificación es un método para evitar el error de aceptar teorías falsas, tales como
proposiciones tautológicas o proposiciones que son aceptadas o rechazadas
dependiendo únicamente del aparente "realismo" de sus suposiciones. El
Falsacionismo no es, sin embargo, un método para descubrir una teoría verdadera.
Si las predicciones de una teoría son empíricamente falsas, la teoría es claramente
falsa. Si las predicciones de una teoría son empíricamente verdaderas, ¿es verdadera
la teoría? Popper rechaza esta conclusión porque
se basaría en el método inductivo: a partir de la verdad de casos particulares, se
deduce la verdad de la teoría. "No se puede demostrar que la teoría sea válida a
priori del razonamiento deductivo. Tampoco puede justificarse empíricamente por
sus éxitos pasados, ya que usaría la inducción para justificarse a sí misma
"(Achinstein 2004, p. 132 (...) una teoría no puede probarse como verdadera, solo
puede decirse que los datos empíricos han" corroborado " "La teoría. Todo lo que
podemos decir es que las predicciones de la teoría y las observaciones empíricas son
consistentes.
Sin embargo, es claro que el falsacionismo es el método más eficiente en
comparación con el inductivismo y el deductivismo. Es el método que minimiza
relativamente los errores en el proceso de producción de conocimiento.

Hicks (1984)Pag 225


Debemos limitar la atención al problema de explicar el pasado, una aplicación menos
exigente que la predicción de lo que sucederá o la prescripción de lo que debería
suceder, pero seguramente uno que viene primero. Si no podemos explicar el
pasado, ¿qué es lo correcto si tenemos que intentar predecir el futuro? (...)

Figueroa (2003), Cáp. 1

3
 Las teorías son muy genéricas y requieren de una mayor concreción para ser operativas;
se reuiqren hacer supuesto auxiliares que le permitan al economista un mayor grado de
aproximación a la realidad. Esta mayor concreción es el “modelo” de la teoría. Es
evidente que es posible generar varios modelos de una teoría. Por lo tanto, una teoría se
expresa a través de modelos.(el economista que sólo distingue modelos en su labor
revela que sólo conoce una teoría económica. Y el economista que sólo conoce teoría,
revela que no ha intentado explicar una realidad concreta. Esto último exige utilizar
modelos).

 Las hipótesis son proposiciones que predicen relaciones de cuasalidad entre las variables
exógenas del modelo (que son la causa del fenómeno) y las variables endógenas (que
reciben el efecto). Estas son las proposiciones empíricamente verificables. Las hipótesis
deben ser refutables. Curanderos: “si tienes fe sanarás”. Cualquier proposición que en
principio no puede ser refutable está fuera del dominio de la ciencia

Bunge, Mario
1968 La ciencia, su método y su filosofía. Ediciones siglo veinte. Buenos Aires.

“..la coherencia es necesaria pero no suficiente en el campo de la ciencia de los hechos: para
afirmar que un enunciado es (probablemente) verdadero se requierendatos empíricos
(proposiciones acerca de observaciones o experimentos). En última instancia, solo la
experiencia puede decirnos si una hipótesis relativa a cierto grupo de hechos materiales es
adecudada o no” (15)

Bunge (1970).

“ciencias formales y ciencias factuales, o sea, entre las que estudian las ideas y las que
estudian hechos. La lógica y la matemática son ciencias formales; no se refieren a nada que se
encuentre en la realidad, y, por tanto, no pueden utilizar nuestros contactos con la realidad para
convalidar sus fórmulas” (38)

“la ciencia formal es autosuficiente por lo que hace al contenido y al método de prueba,
mientras que la ciencia factual depende del hecho por lo que hace al contenido o siginificación,
y del hecho experiencial para la
convalidación. Esto explica por qué puede conseguirse verdad formal completa, mientras que la
verdad factual resulta ser tan huidiza” (39)

Bunge (1968).

“Definimos una ciencia formal como una ciencia exacta que contiene únicamente proposiciones
formales o propositions de raison. Por por otra parte, al menos algunas de las proposiciones de
una ciencia fáctica deben ser fácticas: deben descrbir, explicar, o predecir cosas o procesos que
pertenezcan al mundo real (natural o social). La lógica, la semántica filosófica y la matemática
son ciencias formales. En contraposición, las ciencias naturales, sociales y biosociales son
fácticas. También lo son todas las tecnologías, desde la ingeniería y la enfermería hasta las
ciencias de la administración y el derecho”(270)

El método popperiano de investigación, siguiendo la terminología de Blaug (1985), es el


hipotético-deductivo, en contraposición al método inductivo. Éste se basa en las inferencias que
permiten transitar desde los enunciados singulares (aquellos particulares, tales como
descripciones de los resultados de observaciones o experimentos) a enunciados universales,
como las hipótesis o las teorías. Hicks (1986) es uno de los partidarios de este enfoque:

“Toda ley científica está basada en observaciones; son generalizaciones de


observaciones, es decir, son inducciones” (Hicks 1986:….)

4
Popper (1983) y Blaug (1985), apoyándose en Hume, consideran que el método inductivo no es
consistente con las reglas de la lógica formal:

“Hume sostenía que no puede haber ningún argumento lógico válido que nos permita
establecer que lo casos de los cuales no hemos tenido ninguna experiencia se asemejan
a aquellos de los que hemos tenido experiencia. Por consiguiente, aun después de
observar la conjunción frecuente o constante de objetos, no tenemos ninguna razón para
extraer ninguna inferencia concerniente a algún otro objeto aparte de aquellos de los que
hemos tenido experiencia” (Popper 1983:67).

“No es posible derivar, o establecer de forma concluyente, afirmaciones universales a


partir de afirmaciones particulares, por muchas que sean éstas, mientras que cualquier
afirmación universal puede ser refutada, o lógicamente contradicha, por medio de la
lógica deductiva, por una sola afirmación particular. Ningún número de observaciones de
cisnes blancos nos permitirá inferir que todos los cisnes son blancos, pero la observación
de que un único cisne es negro, nos permite refutar aquella conclusión. En resumen, no
es posible demostrar que algo es materialmente cierto, pero siempre es posible
demostrar que algo es materalmente falso, y esta es la afirmación que constituye el
primer mandamiento de la metodología científica” (Blaug 1985:30-31).

El procedimiento popperiano de investigación científica es mas bien deductivo y falseable. Esto


es, a partir de unos supuestos, se determinan las relaciones que deben existir entre las
variables que se analizan, y estas relaciones así deducidas deben ser contrastadas, a su turno,
con la realidad. De modo que, según este enfoque, la característicia de contrastabilidad con los
hechos es la que diferencia a la economia de las ciencias formales.

“…sólo admitiré un sistema entre los científicos empíricos si es susceptible de ser


contrastado con la experiencia.” (Popper 1980: 40).

“En la medida que un enunciado científico habla acerca de la realidad, tiene que ser
falsable; y en la medida que no es falsable, no habla acerca de la realidad” (Popper 1980:
292).

Friedman (1967) también defiende el método deductivo de investigación. Como partidario de la


imposibilidad de “probar” una hipótesis y de la inadmisibilidad de contrastar los supuestos de la
teoría directamente con la realidad, señala:

“Considerada como un cuerpo de hipótesis sustantivas, la teoría ha de juzgarse por su


poder de predicción respecto a la clase de fenómenos que intenta explicar. Únicamente la
evidencia empírica puede mostrar si es aceptada como válida o rechazada (…) la única
prueba importante de la validez de una hipótesis es la comparación de sus predicciones
con la experiencia. La hipótesis se rechaza si
Sus predicciones se ven contradichas… se acepta si no lo son; se le concede una gran
confianza si sus predicciones han sobrevivido numerosas oportunidades de contrastación.
La evidencia empírica no puede probar nunca una hipótesis; únicamente puede dejar de
desaprobar que es lo que generalmente queremos decir, de forma un tanto inexacta,
cuando afirmamos que la hipótesis ha sido confirmada por la experiencia” (Friedman
1967: 14)

“Una teoría así no puede verificarse comparando directamente sus supuestos con la
realidad. En verdad, no existe forma significativa alguna de llevar a cabo esta
comparación. Un realismo completo es claramente inalcanzable, y el problema de si una
teoría es lo suficientemente realista puede resolverse únicamente observando si
suministra predicciones suficientemente buenas para el objetivo de que se trate o si son
mejores que las ofrecidas por teorías alternativas” (Friedman 1967: 42)

El planteamientp de Kuhn (2006) es distinto:


5
“consideramos como revoluciones científicas aquellos episodios de desarrollo no
acumulativo en los que un paradigma antiguo se ve sustituido en todo o en parte por otro
nuevo incompatible con él” (Kuhn 2006:186)

“Como se ha subrayado ya hasta la saciedad, ninguna teoría resuelve nunca todos los
rompecabezas a que se enfrenta en un momento dado, ni son a menudo perfectas las
soluciones ya obtenidas. Por el contrario, es precisamente el carácter incompleto e
imperfecto del acuerdo existente entre teoría y hechos el que, en todo momento, define
muchos de los rompecabezas que caracterizan a la ciencia normal. Si todos y cada uno
de los desacuerdos entre hechos y teoría fuesen motivo suficiente para rechazar la teoría,
todas ellas debieran rechazarse en todo momento” (Kuhn 2006: 261-262).

En resumen, según Blaug:

“Para Popper, la ciencia se encuentra en un estado de revolución permanente, ya que


para él la historia de la ciencia es la historia de una sucesión de conjeturas y
refutaciones; mientras que para Kuhn, la historia de la ciencia se caracteriza por largos
periodos en los que se preserva el status quo, y que solo en ocasiones se ven
interrumpidos por saltos discontinuos de un paradigma vigente a otro, sin puente
conceptual alguno de comunicación entre ellos” (Blaug, 1980:49).

Además:

“Popper begins with the logical asymmetry between verification and falsification: nothing
can ever be exhaustively verified but a single falsification suffices; in popular parlance,
you cannot prove anything but you can certainly disprove some things”(111)

“Thus, science, according to Popper, involves not just proposition that are at least in
principle falsifiable but also propositions that are increasingly strengthened by being more
severely tested that are increasingly strengthened by being more severely tested”(Blaug
1994: 111)

El esquema presentado en Hausman (1992) resume adecuadamente el método hipotético-


deductivo, popperiano, de investigación:

"La visión dominante de cómo uno prueba las teorías científicas se convirtió en el
llamado método hipotético-deductivo (HD) ... este método consta de los
siguientes cuatro pasos:
1. Formule alguna hipótesis o teoría H.
2. Deduce alguna predicción o afirmación observable, P, de H unida a una
variedad de otras afirmaciones. Estas otras declaraciones incluirán
descripciones de condiciones iniciales, otras teorías y cláusulas ceteris paribus.
3. Prueba P. (Una prueba H solo indirectamente mediante el método HD). Las
pruebas pueden implicar experimentación complicada u observación simple.
4. Juzgue si H se confirma o no según la naturaleza de P y si P resultó ser
verdadera o falsa. "Confirmado d no significa" probado "o" verdadero ", ni"
desconfirmado "
5. significa "refutado" o "falso", porque la hipótesis falsa puede tener
implicaciones verdaderas, y la falsedad de P puede deberse a alguna premisa
de la cual P se deriva a parte de H "(Hausman 1992:)
En el esquema ampliado que presentaremos en las secciones posteriores, el proceso de
investigación se inicia con la formulación del problema económico a estudiar y continúa con la
selección de las probables teorías que lo explican. A partir de la alternativa teórica optada, se
desarrolla el modelo de la teoría y de él derivamos hipótesis. Estas se someten a prueba
utilizando los métodos estadísticos o econométricos apropiados. Si los resultados corroboran las
hipótesis, o son consistentes con ellas, se dice que el modelo es apropiado y, por esa vía, la
6
teoría en la que se sostiene el modelo. Si las hipótesis son refutadas por la realidad, hay que
modificar el modelo o buscar otras teorías.

Bunge (1971)

Algunas reglas muy obvias del método científico:

“R1 Formular el problema con precisión y, al principio, especificamente. Por ejemplo, no


preguntar genéricamente “¿Qué es el aprendizaje?” sino plantear una cuestion bien
determinada, tal como “¿Cómo aprenden los ratones albinos a solucionar problemas de
laberintos? ¿Gradualmente o por pequeños saltos?”
R2 Proponer conjeturas bien definidas y fundadas de algún modo, y no suposiciones que no
comprometan en concreto, ni tampoco ocurrencias sin fundamento visible: hay que arriesgar
hipótesis que afirmen la existencia de relaciones bien definidas y entre variables netamente
determinadas, sin que esas hipótesis estén en conflicto con os princpal de nuestra herencia
científica. Por ejemplo: no hay que contentarse con suponer que es posible el aprendizaje con
solo proponer al animal experimental un único ensayo o intento; mejor es suponer con
precisión, por ejemplo, que el aprendizaje por un solo intento, tratándose de orientación en un
laberinto en forma de T, tiene tal o cual determinada probabilidad.
R3 Someter las hipótesis a contrastación dura, no laxa. Por ejemplo, al someter a
contrastación la hipótesis sobre el aprendizaje con un solo intento, no se debe proponer al
animal sujeto alguna tareapara lo cual ya esté previamente preparado, ni tampoco se deben
pasar por alto los resultados negativos: hay que proponer al sujeto experimental tareas
complementarias nuevas, y hay que aceptar toda la evidencia negativa.
R4 No declarar verdadera una hipótesis satisfactoriamente confirmada; considerarla, en el
mejor de los casos, como parcialmente verdadera. Por ejemplo, si se ha obtenido una
generalización empírica relativa a las probabilidades de aprendizaje de una determinada tarea
con un solo intento, con otro intento, y así sucesivamente, hay que seguir considerando la
afirmación como corregible por la investigación posterior.
R5 Preguntarse por qué la respuesta es como es, y no de otra manera: no limitarse a hallar
generalizaciones que se adecúen a los datos, sino intentar explicarlas a base de leyes más
fuertes. Por ejemplo, plantearse el problema de hallar los mecanismos nerviosos que den razón
del aprendizaje a la primera presentación de la tarea al sujeto: esto supondrácomplementar la
investigación conductista que se estab realizando con una investigación biológica”(26, 27)

“El procedimiento que consiste en desarrollar una teoría empezando por formular sus puntos de
partida o hipótesis básicas y deduciendo luego sus consecuencias con la ayuda de las
subyacentes teorías formales se llama método hipotético deductivo”. Los axiomasde una teoría
formal son, consiguientemente, hipótesis en sentido lógico, mientras que los axiomas de una
teoría factual son hipótesis en los dos sentidos: el lógico y el epistemológico y metodológico:
van más alla´de la experiencia y son además rectificables. Y todas las teorías, formales o
factuales, son sistemas hipotético- deductivos”(253)

2. LA ELABORACIÓN Y EL DESARROLLO DE UN PROYECTO DE INVESTIGACIÓN

La investigación se inicia con la elección del tema a investigar. Antes de inclinarse por uno en
particular, es recomendable tomar en consideración las siguientes dos recomendaciones.

En primer lugar, la información estadística sobre las variables exógenas y endógenas


involucradas, tanto si son de corte transversal o series de tiempo, o si son una mezcla de
ambas, información de panel, debe estar disponible en lugares claramente identificados. La
información estadística debe ser adecuada para ser sometida a las pruebas estadísticas o
econométricas en términos de cobertura, longitud de las series, homogeneidad de las variables,
etc.
Si no se cuenta con la información estadística sobre las variables exógenas y endógenas, debe
poder construirse unas “aproximadas” que las reemplacen satisfactoriamente o, si no es posible
seguir por esta vía, entonces aún queda la posibilidad de obtener las cifras a partir de
7
información primaria o a través de encuestas. Debe quedar claro que, si no se cuenta con
información estadística, no es posible llevar adelante la investigación con el método que se está
describiendo en este trabajo, pues una de sus exigencias es poner a prueba estadística o
econométrica una hipótesis de causalidad. En este caso, nuestra sugerencia es que el
investigador aborde otro tema de investigación1.

En segundo lugar está el tema de investigación, el cual debe ser elegido teniendo en cuenta su
viabilidad teórica-empírica y la perspectiva de que proporcione un valor agregado sobre los
trabajos existentes, luego de haberse puesto en contacto con la literatura básica sobre el tema
de investigación y de haber explorado la disponibilidad de información estadística. Por ello,
reiteramos que el objetivo de una investigación en Economía es someter a prueba empírica
hipótesis de causalidad, utilizando los datos de una realidad específica y dentro de un periodo
determinado.

Las reglas fundamentales de la investigación científica presentadas en la sección anterior nos


proporcionan un marco general acerca de los pasos que se deben seguir en la elaboración y el
desarrollo de un proyecto de investigación económica. Con base a ellas, expondremos una guía
que permita al investigador abordar su tema de una manera ordenada, como una secuencia de
etapas estrechamente conectadas por un cordón umbilical: el problema a investigar. El trabajo
de investigación constituye un proceso, que tiene un inicio, un final y puede ser repetitivo, hasta
lograr el objetivo último de la investigación: poner a prueba las hipótesis y plantear a partir de
los hallazgos opciones de política económica.

En adelante, llamaré (Y ) a las variables endógenas (variables a explicar o variables


dependientes) y ( X ) a las variables exógenas (variables explicativas o variables
independientes).

Resumen o abstract (200 palabras)

Este resumen (que se escribe al finalizar la investigación) permita dar a conocer al lector, en
muy pocas líneas:

i) ¿Cuál es el problema a investigar, la hipótesis y los objetivos de la investigación?


ii) ¿Cuál es el valor agregado de la investigación?
iii) ¿Cuáles son las principales conclusiones y recomendaciones de política económica
que se derivan de la investigación?

Introducción (hasta 600 palabras).

En una página, debe responderse a las siguientes preguntas:

i) ¿Cuál es el problema a investigar, la hipótesis preliminar y los objetivos de la


investigación?

i) ¿Cuál es el valor agregado que proporcionará la investigación propuesta?

1
Esta recomendación va dirigida especialmente a los estudiantes que están preparando su trabajo de investigación. Mi
preferencia es por que utilicen su tiempo fundamentalmente en la aplicación de sus conocimientos de la teoría económica, la
historia y la econometría, en lugar de utilizar ese tiempo en buscar información, construir series estadísticas o hacer encuestas.
En el futuro, cuando sean profesionales y su trabajo sea remunerado, podrán utilizar su tiempo y recursos en esas tareas.
Tienen una vida por delante para resolver los problemas del mundo; por ahora, los estudiantes deben demostrar,
básicamente, que saben utilizar los instrumentos apropiados para proceder “como si” estuvieran resolviendo un problema
económico de la vida real.
8
i) ¿Cuál es el contenido del trabajo?

Es necesario que el tema abordado sea preciso y observable. Ello posibilita facilitar la tarea de la
investigación cuando el problema económico se plantea bajo la forma de una relación probable
(hipótesis de causalidad preliminar) entre el comportamiento de una o más variables
explicativas (las variables exógenas) y el de una o más variables a explicar (las variables
endógenas); es decir, la relación entre las variables ( X ) e (Y ) , donde las primeras causan las
segundas.

Describir el problema a estudiar como una relación probable de causalidad entre dos variables o
grupo de variables contribuye a precisar el objetivo de la investigación. Como diría Hicks (1979):

"No solo preguntamos qué sucedió, sino por qué sucedió. Esa es una
causalidad; exhibiendo la historia, hasta ahora podemos, como un proceso
lógico "(Hicks 1979: Prefacio, ix-x).
También es recomendable, aunque no indispensable, que las variables exógenas del estudio
sean, al mismo tiempo, instrumentos de política económica. De esta manera, al final del trabajo
de investigación, la recomendación de política económica podrá girar en torno a qué hacer con
los instrumentos de política para alcanzar los objetivos perseguidos; es decir, sobre cómo influir
a través de las variables exógenas ( X ) sobre las variables endógenas (Y ) .

Por otro lado, siendo el primer contacto del lector con el estudio, la introducción debe buscar
llamar su atención y persuadirlo de que vale la pena continuar con la lectura hasta el final del
trabajo:

"El párrafo inicial, o la primera página como máximo, es su oportunidad de


captar la atención del crítico. Úselo. Este es el momento de exagerar, en lugar
de subestimar, su punto o pregunta "(Przeworski y Salomón 1995: 1)
Así mismo, hay que evaluar si tiene alguna ventaja que el tema seleccionado para la
investigación sea uno en el que estén involucrados una gran cantidad de estudiosos; o si es
preferible abordar un tema distinto:

"Vale la pena recordar que los tópicos de salientes actuales, tanto teóricos
como en la llamada palabra real, son un campo lleno de gente ... A menos que
tengas algo original que decir sobre ellos, es recomendable evitar los temas
típicamente de estilo. de interés central para la disciplina. Por lo general,
estos son temas sobre los que todos escriben, y la razón es que alguien más
ya ha hecho las contribuciones decisivas y emocionantes "(Przeworski y
Salomón 1995: 7).
Como diría Bunge (1968)

“Los problemas se formulan de manera clara; lo primero, y a menudo lo más difícil, es


distinguir cuáles son los problemas; ni hay artillería analítica o experimental que pueda
ser eficaz si no se ubica adecuadamente al enemigo (27);

Es decir, hay que exponer de manera clara las preguntas de la investigación, y las respuestas
preliminares no deberían ser obvias, tautológicas: hay que convencer al lector de que el tema
seleccionado amerita ser estudiado. ¿Fue el auge económico registrado en el periodo 2001-
2006 en el Perú resultado del crecimiento económico mundial exclusivamente? ¿Hay razones
para creer que la reducción del déficit fiscal observado entre el 2001 y el 2006 está
fundamentalmente explicada por el auge económico que elevó los ingresos, más que por la
propia acción del Ministerio de Economía y Finanzas? ¿Puede decirse lo mismo respecto a la
disminución del índice de cartera pesada de la banca comercial observada en el mismo periodo,
que no debe atribuirse únicamente al accionar de la Superintendencia de Banca y Seguros? ¿Por
qué la mayor apertura financiera al exterior experimentada en el Perú de los últimos años está
acompañada por una mayor concentración bancaria? ¿Por qué, a pesar del auge económico
9
experimentado en los últimos 5 años, la inflación ha estado por debajo del 2 % anual? ¿Cuáles
son los factores que explican los ciclos económicos en una economía pequeña y abierta como la
peruana? ¿Serán factores monetarios, fiscales o reales; o serán factores internacionales?
¿Puede ser posible que la expansión económica registrada en los últimos 5 años no haya
reducido los índices de pobreza?

Al final de la introducción, debe presentarse una descripción resumida del contenido del
informe.

1.El estado actual de conocimientos (hasta 2400 palabras)

En esta sección, el investigador resume el estado actual de conocimientos, tanto en el plano


teórico, como en el empírico. No se necesita hacer una reseña de la literatura revisada, sino solo
de las partes conectadas con el objetivo de vuestro estudio; que es investigar, recordemos,
acerca de la relación causal probable entre dos variables o grupos de variables, ( X ) e (Y ) .

"Las buenas propuestas demuestran la conciencia de puntos de vista


alternativos y argumentan la posición del autor de tal manera que
aborden el campo ampliamente, en lugar de desarrollar una tendencia
sectaria única indiferente a la alternativa" (Przeworski y Salomón 1995:
6).
Las teorías o los modelos teóricos asociados a ellas deberán tratar sobre el tema de la
investigación; esto es, deberán ser, en sentido estricto, modelos o teorías que contengan la
vinculación entre las variables endógenas (Y ) y exógenas ( X ) . Las teorías (Figueroa, 2003),
están constituidos por un conjunto de supuestos o axiomas que se establecen para comprender
la realidad; serán siempre versiones simplificadas de la realidad y se admiten como ciertas, pero
solo en principio. Será la evidencia empírica la que determinará su validez.

Existen teorías, como las leyes técnicas de la producción, que son generales; y existen otras,
como la teoría de la demanda efectiva, que son específicas, y dependen de las características
institucionales de cada sociedad. Como lo afirma Lange:

”…las leyes económicas que se cumplen en un tipo de organización social pueden fallar
en otro distinto. Por esta razón, la mayor parte de las leyes económicas están
históricamente determinadas por ciertos tipos de organización e instituciones sociales “
(Lange 3).

En la revisión de los trabajos empíricos, los hallazgos al respecto, deben también estar referidos
a la vinculación estadística o econométrica entre las variables ( X ) e (Y ) , y pueden referirse a la
economía nacional o a la economía internacional.

2. Marco institucional y hechos estilizados básicos (hasta 1600 palabras)

En esta parte del trabajo corresponde precisar acerca del marco institucional que supone el
modelo económico a presentarse en la sección siguiente. Si, por ejemplo, se está elaborando un
modelo macroeconómico para el estudio de la política fiscal y la política monetaria en el Perú
sería importante dar a conocer las normas e instituciones que influyen en él. ¿Es la economía
abierta o cerrada al comercio internacional? ¿Existen controles o hay libre movilidad de capitales
financieros? ¿La moneda nacional cumple con sus tres funciones básicas o existe alguna
moneda que la ha reemplazado en algunas de sus funciones? ¿Cuáles son las normas que
regulan la operatividad de la política monetaria y la política fiscal? ¿Tiene el Banco Central de
Reserva autonomía constitucional? ¿El sistema financiero está dominado por los bancos o por
los mercados de bonos? ¿Cuáles son las normas que regula la política fiscal?

Por otro lado, a través de cuadros o gráficos, o de análisis de correlación básicos, deben
mostrase algunas regularidades empíricas o hechos estilizados a propósito del comportamiento
10
de las variables ( X ) e (Y ) , o de aquellas que se presuma conectan a otras anteriores. Este
ejercicio posibilita mostrar algunas regularidades que permiten adelantar, de manera preliminar,
visual, la pertinencia de las hipótesis planteadas en la introducción de la investigación. Así
mismo, estas relaciones entre variables, pueden sugerir algunos mecanismos de transmisión
entre las variables endógenas y exógenas, que podrían servir para la construcción de las
ecuaciones estructurales del modelo que se desarrollará en la sección siguiente.

Esta sección es intensiva en estadística descriptiva2.La estadística nos enseña los


procedimientos para recoger, presentar, analizar e interpretar datos. Los datos pueden ser de
sección cruzada (o corte transversal) , cuando se recogen en un mismo instnate de tiempo, pero
de diferentes elementos poblacionales. Pueden ser series temporales, cuando se recogen de
una misma unidad poblacional, pero en distintos instantes del tiempo. O pueden ser un panel de
datos, cuando sons de distinta unidades poblacionales y en distintos puntos del tiepo.
La varianza es una medida de dispersión y es un indicador de dispersión respecto a la media
aritmética

Las unidades de la varianza no son comparables a las de la variable en consideración, ya que se


utilizan en su cálculo los cuadrados de los valores numéricos. La desviación típica, por ser la raiz
cuadrada de la varianza, sí está medida en las mismas unidades de la variable que se analiza

El coeficiente de variación es el cociente entre la desviación típica y la media. Es útil en


variables no negativas, pues en variables von valores positivos y negativos no tiene sentido
divdir por la media muestral. Al ser una medida de dispersi´pon relativa al valor medio, es decir,
corregida por el mismo, tiene la gran ventaja de ser comparable para variables diferentes, no
importa si éstas toman valores de ´rdenes de magnitud diferentes. El CV es un porcentaje, y
carece de unidades,

3. La teoría y el modelo de la teoría (hasta 1600 palabras).

Las teorías y modelos teóricos presentados en la sección 1 son genéricos y requieren de una
mayor concreción para ser operativas; es decir, contrastables con la realidad. En consecuencia,
resulta necesario incorporar en las teorías o modelos teóricos supuestos auxiliares para que el
investigador tenga un mayor grado de aproximación a la realidad.

Un modelo, de acuerdo con Hicks, “es un ejemplo de una teoría” (Hicks 1989: 9). En
consecuencia, como es posible generar varios modelos de una teoría, además de ciencia, hay
que tener el arte para elegir o construir el modelo adecuado para el estudio de la realidad
elegida. Es decir, no hay un algoritmo lógico para derivar un modelo de una teoría
determinada3.

El investigador debe elegir una teoría de las revisadas en la sección de los antecedentes
teóricos y puede adoptar alguno de los modelos teóricos presentados en esa sección, adaptar
alguno de ellos a las circunstancias particulares de la economía o construir uno propio si los
modelos existentes no son adecuados para el estudio de la realidad elegida.

Cualquiera que sea la opción seleccionada, en el modelo de la investigación debe observarse


con claridad el tipo de relación lógica existente entre las variables exógenas ( X ) y endógenas
(Y ) ; es decir, los mecanismos de transmisión entre dichas variables, los que en general se
alimentan de los modelos teóricos, los principales hechos estilizados o el marco institucional de
la economía estudiada. La presentación del modelo en su forma estructural contribuye a hacer
más transparente estos mecanismos de transmisión.

2
Véase, por ejemplo, Novales (1996).
3
En Varian (1997) se encuentran algunas recomendaciones sobre cómo construir modelos.
11
El modelo no debe tener contradicciones lógicas internas y debe probarse que en él se puede
alcanzar un equilibrio estático o dinámico: y si ese equilibrio puede alcanzarse.

“Aun si existe el equilibrio, todavía tiene que demostrarse una tendencia hacia él” (Hicks
1989: 20-21)

Así mismo:

“Aunque el equilibrio exista, y la tendencia al equilibrio también exista, todavía


podríamos no tener bases suficientes para justificar la suposición de equilibrio si la
convergencia hacia el mismo es muy lenta” (Hicks 1989: 21).

En un modelo estático, las variables endógenas deben permanecer estables, mientras no se


produzcan cambios en las variables exógenas; en un modelo dinámico, la trayectoria temporal
de las variables endógenas no debe modificarse mientras las variables exógenas permanezcan
constantes.

La claridad es un atributo necesario, especialmente en esta parte del trabajo de investigación:

“La claridad y la distinción no son criterios de verdad, pero la oscuridad y la confusión


pueden indicar el error. Análogamente, la coherencia no basta para establecer la verdad,
pero la incoherencia y la inconsistencia permiten establecer la falsedad” (Popper
1983:52).
Además, la elaboración del modelo de la teoría tiene sentido cuando dicho procedimiento
permite enriquecer el proceso de investigación, reduciendo el grado de abstracción y
facilitando la falsabilidad del modelo:

“En lo que respecta a las hipótesis auxiliares, decidimos establecer la regla de que se
considerarán aceptables únicamente aquéllas cuya introducción no disminuya el grado de
falsabilidad o contrastabilidad del sistema, sino que, por el contrario, lo aumente”
(Popper 1980:79).

Respecto a si es necesario o no presentar el modelo económico bajo una versión formalizada,


aun cuando no es indispensable, considero, como Solow (1991), que es recomendable hacerlo,
pues contribuye a hacer más claras las hipótesis y los mecanismos de transmisión entre las
variables X e Y :

"Espero que la hostilidad hacia la formalización no sea solo hostilidad hacia la


claridad (...). Ser preciso no es lo mismo que ser formal. Ser formal es una
forma de ser más preciso de lo que el material puede justificar (...). Hay una
distinción importante que hacer: no mezclar el rigor y la abstracción, incluso si
el rigor a veces exige abstracción. No hay excusa para la falta de rigor. No
puedes tener demasiado rigor "(Solow 1991: 30).
Por último, en esta sección hay que transformar el modelo estructural en su versión reducida, en
la que las variables endógenas están en función únicamente de las variables exógenas. Es a
partir de esta versión del modelo que se derivan las hipótesis de causalidad.

Popper (1962)
“En lo que respecta a las hipótesis auxiliares, decidimos establecer la regla de que se
considerarán aceptables únicamente aquéllas cuya introducción no disminuya el grado de
falsabilidad o contrastabilidad del sistema, sino que, por el contrario, lo aumente”(79).

Métodos de Economía dinámica

Hicks
Pag 22

12
Nuevamente, dejemos pasar lo anterior. Aunque el equilibrio exista, y la tendencia al equilibrio
también exista, todavía podríamos no tener suficientes bases para justificar la suposición de
equilibrio si la convergencia hacia el mismo es muy lenta.

Pag 23
El equilibrio debe existir, y debe haber una tendencia hacia él; si estas condiciones no se
sostienen en el modelo que hemos seleccionado, este no podrá emplearse en el análisis
estático de los hechos en cuestión, y deberá ser desechado.

(…) en la estática el futuro y el presente son idénticos.

(…) en la dinámica (…) el presente y futuro no sean idénticos es la esencia del problema
dinámico.

4 Las predicciones (hipótesis) (hasta 200 palabras)

Las predicciones se derivan del modelo en su forma reducida, que pueden ser acompañadas por
una explicación basada en la forma estructural. En general, son proposiciones condicionales; es
decir, relaciones de causalidad que existen entre las variables ( X ) e (Y ) , suponiendo que el
resto de variables exógenas se mantienen constantes. En los modelos estáticos, resultan de los
ejercicios de estática comparativa desarrollados a partir del modelo, y en los modelos
dinámicos, de la dinámica comparativa.

Las hipótesis deben estar estrechamente vinculadas al problema económico planteado en la


introducción. En dicho apartado se lanzó una hipótesis de manera provisional, como una
relación de causalidad entre las variables ( X ) e (Y ) . En esta sección, se presenta esa misma
hipótesis, pero más desarrollada, pues ahora ya se cuenta con el modelo en su forma reducida
como respaldo, del que se derivan lógicamente, por medio de la matemática, las predicciones,
que son hipótesis de causalidad. Además, como las ecuaciones estructurales del
Modelo señalan los mecanismos de transmisión entre las variables, las hipótesis, por ser de
causalidad, describen también los canales a través de los cuales las variables exógenas influyen
sobre las variables endógenas.

Así mismo, como un objetivo fundamental de la ciencia económica es explicar qué causa qué,
las hipótesis tienen que ser necesariamente de causalidad, como bien lo precisan Popper
(1980), y Figueroa (2003):

“El principio de causalidad consiste en la afirmación de que todo acontecimiento,


cualquiera que sea, puede explicarse causalmente, o sea, que puede deducirse
causalmente (…). No abandonaremos la búsqueda de leyes universales y de un sistema
teórico coherente, ni cesaremos en nuestros intentos de explicar causalmente todo tipo
de acontecimientos que podamos describir: esta regla guía al investigador científico en su
tarea” (Popper, 1980: 58-59).

“El objetivo de las ciencias sociales es establecer relaciones de causalidad, esto es,
determinar qué causa qué. La causalidad es lo que hace a la ciencia útil; otorga a las
personas poder para alterar la realidad. Las relaciones de causalidad indican el efecto de
los cambios en las variables exógenas sobre las variables endógenas.” (Figueroa 2003:
34).

Es necesario precisar que la causalidad, en el marco de este trabajo, no es un concepto


estadístico o econométrico; sino un concepto teórico, que viene establecido en el modelo
téorico. De acuerdo con Hicks (1979) y Figueroa (2003):
"He insistido en que la afirmación si no es A, entonces no B es teórica; se
deriva de algo que en el sentido más general puede describirse como una
teoría o modelo "(Hicks 1979: 22).
13
“No existe una ruta lógica desde la asociación o correlación empírica hacia la causalidad.
Esta última requiere una teoría subyacente, dado que las variables exógenas y
endógenas vienen de una teoría” (Figueroa 2003: 43).

Por último, las hipótesis, para tener sentido y ser refutables, tienen que ser empíricamente
observables. Proposiciones incondicionales, tales como cuando los curanderos arengan a sus
pacientes, “si tienes fé, sanarás” (Figueroa, 2003), o algunos economistas, cuando afirman que
“la inflación bajará si la política monetaria es creible”, son hipótesis no refutables, y por tanto
están fuera del domino de la investigación económica.

Figueroa ( 2007)

"En economía, la derivación de proposiciones beta se basa en la suposición de que


existe un estado de equilibrio en el proceso económico. Se dice que una situación de
producción y distribución está en equilibrio si, dadas las limitaciones que enfrentan
las personas, nadie tiene tanto el poder como el deseo de cambiar la situación.
(...) el equilibrio dinámico de una variable endógena implica una trayectoria
particular en el tiempo.
Pag 30
En el primer caso, Y cambiará si, y solo si, X cambia; en el caso dinámico, Y se
moverá a lo largo de una trayectoria determinada a lo largo del tiempo si X
permanece fijo y cambiará a otra trayectoria a lo largo del tiempo si, y solo si, X
cambia.
Si el equilibrio en el sistema estático es estable, el método estático comparativo
puede usarse para derivar proposiciones beta; de manera similar, en el caso de un
sistema dinámico, si el equilibrio es estable, se puede usar un método de dinámica
comparativa para derivar proposiciones beta. Un cambio en una variable exógena
dejará fuera de equilibrio una variable endógena; y debido a que el equilibrio es
estable, la variable endógena se moverá hacia el nuevo equilibrio, ya sea un nuevo
valor en el proceso estático o una nueva trayectoria (curva) en el proceso dinámico.
Por lo tanto, al comparar estas situaciones de equilibrio, uno puede derivar
proposiciones beta de una teoría. En ausencia del concepto de equilibrio, las
proposiciones beta no pudieron establecerse.

Hicks – Causalidad en economía

Pag 16
Cuando aplicamos una teoría, la estamos usando como medio de explicación: no preguntamos
solamente "que' ocurrió", preguntamos "por que" ocurrió". Esto es causación*; mostrar lo
ocurrido como un proceso lógico, en la medida en que podamos hacerlo.
(…)
Pag 39
A es un acontecimiento que ocurre en el tiempo T a; B es algún acontecimiento que ocurre en el
tiempo Tb, que por ahora seguiremos suponiendo que es posterior.
(…) no es preciso que Ta y Tb sean instantes; pueden ser periodos de tiempo, inclusive periodos
bastante Urgos. Así, es correcto decir que la inusual falta de equilibrio entre los sexos de la
población inglesa en la década de 1930 fue causada por la Primera Guerra Mundial.

Pag 40
(…) una causa tener muchos efectos; y es igualmente evidente (suponiendo que la guerra sea
el efecto y se busquen sus causas) que un efecto puede tener muchas causas. La afirmación de
que A causó B es entonces en cierto grado ambigua. Puede significar que A fue una de las
causas de B (causaci6n "débil") o que A fue la causa única de B (causación "fuerte"). La
causación fuerte implica la causación débil. Pero también implica que no hay otra causa
potencial que sea admitida como causa de B; es una combinación de una causación débil para
A con una negación de causación débil para otras alternativas.
Por consiguiente, la definición básica es la de la causación débil (…)
14
Pag 55
Hemos distinguido tres clases de causalidad con relación al tiempo: secuencial (en que la causa
precede al efecto), contemporánea (en la que ambos se refieren al mismo pen'odo de tiempo)
y estitica (en que ambos son permanentes). (…) Aun la causalidad estdtica puede ser fuerte o
débil; puede ser aditiva o superpuesta y no dejamos de lado las causas negativas.(…) Pero es
siempre cierto que cualquier afirmaci6n de causalidad, de cualquier clase que sea, ha-ce
referenda a una teoría. Es porque consideramos a ,acontccimientos que afirmamos que se
relacionan causalmentc como casos de una teori'a, que podemos enunciar Juna relación entre
ellos. Todas las afirmaciones de causalidad tienen que ver con la aplicacion de una teori'a.

Kmenta (1977).

Las afirmaciones relativas al valor de algún parámetro de la población son las hipótesis nulas,
ya que implican que no existe diferencia entre el verdadero valor del parámetro de la población.

La hipótesis nula es una proposición contrastable y, por lo tanto, es necesario que exista una
proposición contraria, ya que en otro caso no habría ninguna necesidad de efectuar la
contrastación.

“las hipótesis de carácter específico son más fáciles de refutar que las que tienen un carácter
vago o general y, por tanto, resulta deseable –y así ha ocurrido en la práctica común- que los
problemas de contrastación de hipótesis se formulen con una hipótesis nula tan específica como
sea posible (131)

“Ello significa que en muchas ocasiones introducimos como hipótesis nula la proposición que
realmente deseamos refutar. Un buen ejemplo de ello es el correspondiente a las pruebas de un
nuevo medicamento. Existe una obvia presunción de que, en términos de porcentaje medio de
curaciones, el nuevo medicamento dará mejores resultados que la terapia o medicamento
anteriores, ya que, en caso contrario, no tendría ningún sentido efectuar dicha contrastación.
Sin embargo, la hipótesis nula es en este caso la proposición de que el nuevo medicamento
produce el mismo porcentaje medio de curaciones que el viejo y la hipótesis alternativa será
que este porcentaje medio es mayor en el caso del nuevo medicamento” (131)

La hipótesis nula señala generalmente que la relación postulada no existe, lo cual normalmente
significa que el valor de uno o más parámetros es igual a cero, mientras que la hipótesis
alternativa afirma que la relación sí existe” (133)

Bunge (1970)

“las hipótesis factuales son conjeturas fromuladas para dar razón de hechos, sean éstos ya
conocidos por experiencia o no lo sean…En la ciencia se imponen tres requisitos principales a la
formulación (que no es sin más la aceptación) de las hipótesis: (i) la hipótesis tiene que ser
bien-formada (formalmente correcta) y significativa (no vacía semánticamente); (ii) la hipótesis
tiene que estar fundada en alguna medida en conocimiento previo; y si es completamente
nueva desde ese punto de vista, tiene que ser compatible con el cuerpo del conocimiento
científico; (iii) la hipótesis tiene que ser empíricamente contrastable mediante los
procedimientos objetivos de la ciencia, o sea, mediante su comparación con los datos empíricos
controlados a su vez por técnicas y teorías científicas.

Figueroa (2003), Cáp. 1

Las hipótesis son proposiciones que predicen relaciones de cuasalidad entre las variables
exógenas del modelo (que son la causa del fenómeno) y las variables endógenas (que reciben el
efecto). Estas son las proposiciones empíricamente verificables. Las hipótesis deben ser

15
refutables. Curanderos: “si tienes fe sanarás”. Cualquier proposición que en principio no puede
ser refutable está fuera del dominio de la ciencia

Las hipótesis, aun si fuera verificable de manera unívoca, son estocásticas.., y puden ser
descubiertas sólo a través de la Ley de los Grandes números, por confrontación con datos
masivos y con datos individuales. Se requiere, entonces, de una grado de confromidad estad
´sitica para acepare o rechazar las hipótesis. Este es el método estad´sitico de verificación.
Como la experimentación controlada es rara vez posible en Economía, el análisis estad´sitico
debe realizarse sobre información generada en experimentos naturales, no controlados. La
falsación implica el uso de una muestra grande de observaciones. Una única observación es
inútil

La ciencia económica no puede pronosticar, no puede determinar los valores que tomarán las
variables endógenas en el futuro. La ciencia solo pude predecir: dado los valores de las varables
exógenas, puede determinarse el valor de las variables endógenas. Pero la ciencia no tiene
capacidad para saber cuales serán los valores de las variables exógenas en el tiempo; tendría
que endogenizarlas.

las hipótesis de Causalidad se derivan del modelo en su versión estructural y no en su forma


reducida. Cuando se menciona este tema, recuerdo siempre los modelos de ecuaciones
Simultáneas o los VAR, la teoría se representa en el modelo estructural, mientras que la forma
reducida sirve para solucionar el modelo y finalmente estimarlo. Las relaciones en esta última
versión, son conocidas como efectos netos, dentro de los cuales se encuentran combinadas las
relaciones estructurales o llamados parámetros profundos. Entonces, la relación de Causalidad,
siempre debe estar en la forma estructural de un modelo.

5 El modelo econométrico y el método de verificación de las hipótesis (hasta


2000 palabras)

El nivel de abstracción del modelo económico, incluso en su forma reducida, no permite


confrontarlo directamente con los hechos. En consecuencia, hay que crear un canal adicional de
transmisión entre el modelo económico y los hechos, bajando el grado de abstracción del
modelo teórico y transformándolo en un modelo econométrico.

“Los modelos constituyen un marco o un esqueleto y la carne y la sangre tendrán que ser
añadidos con gran sentido común y conocimiento de los detalles” (Tinbergen 1969:4)

Las diferencias entre el modelo teórico y el modelo econométrico son varias. En primer lugar, el
segundo demanda una forma funcional definida, mientras que el primero puede eludir el
explicitar la forma funcional o solo imponerle ciertos requsitos como el de derivabilidad,
concavidad o la existencia de un mínimo. En segundo lugar, el modelo econométrico exige una
especificación estadística más precisa de las variables que lo componen. En tercer lugar, los
modelos econométricos se establecen como relaciones estocásticas entre variables, mientras
que los modelos teóricos suelen proponerse como relaciones determinísticas.

Los criterios de selección de un modelo econométrico dependen del objetivo que se propone la
investigación, que puede ser de carácter exploratorio o definitivo, del tipo de información
disponible (de series de tiempo cuantitativa o cualitativa, de corte transversal o información de
panel o longitudinal) y también de la naturaleza de las variables especificadas respecto a su
escala de medición u observabilidad.

Si la información es de series de tiempo, deben utilizarse algunos modelos de la familia del


método autorregresivo integrado de media móvil (ARIMA) para modelos uni-ecuacionales, o
modelos estructurales dinámicos o Vectores Autoregresivos (VAR) para multiecuaciones que
incluyen el test de raíz unitaria y ejercicios de Cointegración. Si los datos son de corte
transversal, los modelos que deben utilizarse son los modelos Probit, Logit, Tobit, Modelos de
16
frecuencia, Regresión Múltiple con o sin variables ficticias y Regresiones de Multinivel si las
unidades de observación están a varios niveles (modelos jerárquicos). Y si la información es
combinada, pueden utilizarse los modelos de datos de panel en sus versiones de coeficientes
fijos o aleatorios.

Además del modelo econométrico, en esta sección hay que identificar empíricamente y describir
la base de datos de las variables exógenas ( X ) y endógenas (Y ) en estudio, indicando
claramente las fuentes de información, sus alcances y limitaciones en cuanto al periodo de
análisis, unidades de tiempo o consideraciones muestrales, de ser el caso. La base de datos
puede estar conformada por información cualitativa, siempre que pueda expresarse en forma
cuantitativa, tales como las variables ficticias o dummy. Este mini banco de datos servirá
también para que otros investigadores puedan replicar, discutir o refutar los hallazgos empíricos
de la investigación en curso.

En esta sección se deberá también precisar el destino que se dará al modelo econométrico, el
cual puede ser utilizado para desarrollar un análisis estructural (cuantificar las relaciones entre
las variables endógenas y la exógenas), para hacer predicciones (anticipar los valores futuros de
las variables endógenas, dadas las exógenas) o para hacer simulaciones de política económica
(comparar los efectos de distintas mezclas de política económica sobre las variables
endógenas).

La econometría ha avanzado desde los modelos estructurales (modelos de caja translucida)


cuya base de formalización es la teoría económica (medición con teoría), hasta las recientes
metodologías de series temporales (medición sin teoría), cuyos presupuesto básicos son
semejantes a los de los métodos estad´siticos de los años veinte que se pretendían sustituir.

Cuando se trata de series de tiempo, éstas pueden usarse para pronosticar o simplemente para
estimar parámetros de un modelo determinado, en cualquiera de estos casos, lo primero que se
debe hacer es verificar que no exista cambio estructural. En el primer caso (para pronosticar),
se trata de determinar el proceso generador de datos aproximándolo a los modelos ARIMA. En el
segundo caso, primero se deben hacer pruebas de raíz unitaria, para verificar que los datos son
estacionarios en media y varianza, de lo contrario podría producirse una mala estimación de los
coeficientes o el modelo no convergería; cuando no son estacionario en varianza lo modelos son
del tipo ARCH. Cuando se asegura que las series son estacionarias, se pueden plantear modelos
de Ecuaciones Simultáneas o modelos de Vectores Autoregresivos (VAR) o modelos que incluyen
restricciones teóricas como los SVAR (la S es de “structural”, y el resto es igual al VAR). En
realidad, existen algunos modelos más, pero que son un poco más complejos, por ejemplo el
filtro de Kalman que sirve para estimar variables no observables o parámetros cambiantes en el
tiempo, también se puede estudiar la posibilidad de cambio estructural, realizando distintos
tests a la serie, están tambien los modelos de transición suave y de umbral, que sirven para
verficar relaciones no lineales en el modelo, entre otros.

En el caso de datos de corte transversal, aparte de las estimaciones simples de MCO tenemos a
los modelos que mencionas, como los de elección discreta que pueden ser estimados con
modelos de tipo Logit, Probit y modelos de variable dependiente limitada q se estiman con los
Tobit, y modelos de duración.

En los casos de datos de panel, este modelo es muy flexible, como es una fusión de los dos
tipos de datos, se pueden realizar casi todos los modelos de series de tiempo y de corte
transversal. En principio, lo q debe de hacerse es verificar que realmente existe heterogeneidad
entre los individuos que se están analizando en el panel, de lo contrario se podría hacer un
simple MCO. Si existe heterogeniedad entre individuos, el tipo de modelo de panel puede ser de
Efectos Fijos o Efectos Aleatorios, para ello existe el test de Hausman. La ventaja del panel es
que incorpora justamente alguna variable que no es observable y que captura la
heterogeneidad de los individuos, como esta variable no es observable está capturada por el
error y una estimación simple de MCO puede producir estimadores sesgados, por ello el método

17
de estimación depende de si esta variable está relacionada con las explicativas del modelo
(Efectos Fijos) o no lo está (Efectos Aleatorios) en cada caso el método de estimación soluciona
los problemas que se puedan presentar.

Luego se debe de clasificar el panel, puede tener una gran cantidad de individuos y series de
tiempo no muy largas, en este caso se clasifica como panel estático; por el contrario si hay
pocos grupos o individuos y series de tiempo largas, el panel sería dinámico. En el primer caso,
se asemeja a los modelos de corte transversal y pueden usarse los modelos que señalas, probit,
logit, entre otros, etc. En el segundo caso se utilizan a su vez, otros tipos de estimadores como
el método de Arellano-Bond y Arellano-Bover, el problema es que la introducción de rezagos en
el modelo por ser semejante a los de series de tiempo produce otros problemas que los modelos
de Efectos fijos y aleatorios no solucionan. Estos métodos de estimación de panel dinámico
asumen que el modelo es de efectos fijos. Entonces, pueden usarse lo modelos de serioes de
tiempo para este tipo de panel.

Principio de parsimonia, Friedman “una hipótesis (modelo) es importante si ésta explica mucho
con poco

Gujarati (1997)

El término aleatrio es sinónimo de estocástico. Una variable estocástica es aquela que puede
tomar culauiqer valo, positivo o negativo, con una probabilidad dada

La mayor parte del trabajo empírico basados en datos de series de tiempo supone que estas son
estacionarias. Una serie de tiempo es estacionaria si el valor de su media y su varianza no
varían sistemáticamente con el tiempo

Que cubre la perturbación estocástica:

i) Sustituye a las variables excluidas u omitidas del modelo.


ii) Quizá no se introdujo la variable “verdadera” porque se sabe que no hay datos.
iii) Puede reflejar la aleatoriedad intrinseca de Y.
iv) Las variables proximas pueden ser inadecuadas y el u mide tambien eso.
v) Principio de parsimonia(economía, sobriedad, moderación). Explicar mucho con poco.
vi) Forma funcional incorrecta.

El número de observaciones debe ser mayor que el número de parámetros a estimar.

Las variables deben variar.


En estadística, cuando se rechaza la hipótesis nula, se dice quew el hallazgo es estad
´siticamente significativo. Por otra parte, cuando no se hace, se dice que el hallazgo no es estad
´siticamente significativo.
De la misma manera que una corte pronuncia un veredicto de “no culpable” en lugar de decir
“inocente”, así la conclusión de un estadisitico de prueba es la de n” no rechazar” en lugar de
“aceptar”

Se suele introducir la variable tendencia para evitar correlaciones espurias. Sin embargo, el
análisis basado en información de series de tiempo supone implícitamente que la serie de
tiempo bajo análisis es estacionaria. La eliminación de la tendencia es uno de los
procedimientos utilizados para convertir una serie de tiempo en estacionaria.
Tipos de errores de especificacion

i) Omitir una variable relevante


ii) Incluir una variable innecesaria o irrelevante.
iii) Adoptar una forma funcional equivocada.
iv) Errores de medición.
18
Los econometristas deben tomar el modelo como dados. Pero recientemente, están diciendo
que antes de recurrir a la metodologia estandar, es preciso prestar atención cuidadosa a la
labor de especificación, es decir, a la selección del modelo apropiado. Y luego aplicar la receta
estándar.. Se trata de construcción del mmodelo posterior a los datos, es decir, se realiza una
revisi´pon del modelo original a la luyz de los resultados iniciales

El enfoque de Hendry o enfoque del London School of Economiscs es conocdio como el enfoque
de ariba hacia abajo o de lo general a lo específico en el sentido que se empieza con un
modelo que tiene diversos regresores y luego se va depurando hasta llegar a un modelo que
contiene solamentre las variables “importantes”.

Se dice que un proceso estocástico es estacionario si su media y su varianza son constantes en


el tiempo y si el valor de la covarianza entre dos periodos depende solamente de la distancia o
rezago entre estos dos periodos de tiempo y no del tiempo en el cual se ha calculado la varianza
(en rigor, es un proceso estocástico débilmente estacionario). Entonces, si una serie de tiempo
es estacionaria, su media, su varianza y su autocovarianza (en los diferentes rezagos)
permanecen iguales sin importar el momento en el cual se midan.

En los modelos de series de tiempo del tipo BJ Y puede ser explicada por valores pasados o
rezagados de si misma, y por los términos estocásticos de errro. Por eso se les llama modelo a-
teóricos porque no pueden ser derivados de teoría económica alguna. Las ecuaciones
simultpanes si tenía como base teorias económicas.

La metodología VAR se asemeja a los modelos de ecuaciones simultáneas pues consideran


diversas variables endógenas de manera conjunta. Pero cada variable endógena es explicada
por sus valores rezagados, o pasados, y por los valores rezagados de todas las demás variables
endógenas en el modelo. Usualmente no hay variables exógenas en el modelo.

De acuerdo con Sims, si hay verdadera simultaneidad entre un conjunto de variables , todas
deben ser tratadas sobre una base de igualdad, no debe haber ninguna distinción a priori entre
variables endógenas y exógenas. Es en este contexto que Sims desarrolló su modelo VAR

El término autoreegresivo se refiere a la aparicipon del valor rezagado de variables


dependientes en el lado derecho y el término vector se atribuye al hecho de que se está
tratando con un vector de dos (o más)

Virtudes del método:

1 El método es simple, no es preciso determinar cuáles variables son endógenas y


cuáles son exógenas. Todas en el VAR son endópgenas(algunas veces incluyen
variables puramente exógenas para dar cabida a factores estacionales y de
tendencia).
2 La estimación es simple, el MCO puede ser aplicado a cada ecuación or separado.
3 Las predicciones obtenidas mediante este método son mejores que aquéllas obtenidas
de modelos de ecuaciones simultáneas más complejas.

Problemas:

1 Un modelo VAR es a-teórico porque utiliza menos información previa. Recuérdese que
en el modelo de ecuaciones simultáneas la exclusión o inclusión de ciertas variables
juega un papel crucial en la identificación del modelo.
2 Debido a su énfasis en la predicción, los modelos VAR son menos apropiados para el
análisius de política.
3 El mayor desafío en el diseño del VAR es seleccionar la longitud apropiada del rezago.

19
4 Estrictamente hablando, en un modelo VAR de m variables, todas las m variables
deben ser estacionarias (en forma conjunta). Si éste no es el caso, se tedrá que
transformare la información en forma apropiada.
5 Puesto que los coeficientes individuales estimados en los modelos VAR son, con
frecuencia, difíciles de interpretar, los prácticantes de est técnica a menudo estiman
la llamada función de impulso respuesta (IRF). La IRF estudia la respuesta de la
variable dependiente en el sistema VAR ante shocks en los términos de error, tales
como u1 o u2 (cambios en el valor de la desviación estandar

Variable aleatoria: una variable cuyo valor está determinado por el resultado de un
experimento de azar..

Maddala (1996)

Granger se basa en la premisa de que el futuro no puede provocar el presente o el pasado.


¿Preceden los movimeitos en los precios a los de la tasas de interés, ocrurre lo opuesto, o
ambos movimientos suceden al mismo tiempo? Este es el propósito de la causalidad de
Granger, que no es causalidad en el sentido que se entiende normalmente. Es mejor llamarlo
“precedencia”

Novales (1996)
La hipótesis nula es aquélla en que el investigadro está dispuesto a creer a priori. La hipótesis
alternativa es aquélla que pasará a aceptar si rechaza la hipótesis nula. La idea previa a la
contrastación estad´sitica de hipótesis es que existen razones para creer que la hipótesis nula
pueda ser cierta: es aquel suceso que parece más posible a priori el que debe definir la
hipótesis nula. La hipótesis alternativa debe estar definida por aquellos sucesos, incompatibles
con los que definen la hipótesis nula, que tienen probabilidad positiva. Un suceso de
probabilidad nula no debe estar incluido ni en la hipótesis nula ni en la alternativa.

Contrastes no paramétricos.

En ocasiones el investigador no está seguro acerca del tipo de distribución de probabilidad de la


que proceden las observaciones muestrales que ha recogido, y le parece muy arriesgado hacer
un supuesto concreto acerca de la misma. En el estandar, hacemos un supuesto sobre la
distribucion de probabilidad que generó la juestra: Poisso, Normal, etc y a partir de allí
estimamos parámetros.

Econometría

La econometría ha avanzado desde los modelos estructurales (modelos de caja translucida)


cuya base de formalización es la teoría económica (medición con teoría), hasta las recientes
metodologías de series temporales (medición sin teoría), cuyos presupuesto básicos son
semejantes a los de los métodos estad´siticos de los años veinte que se pretendían sustituir.

El método de la econometría:

Formular el modelo econométrico en una forma verificable empíricamente. Hay varias formas
pues hay que elegir la forma funcional, la especificación de la esrtructura estocástica de las
variables . Esta parte es la especificación del trabajo econométrico.

Un modelo econométrico consiste de lo siguiente:

 Un conjunto de ecuaciones de conducta que se derivan del modelo económico. Tales


ecuaciones incluyen algunas variables observadas y ciertas “distorsiones” (conjunto de

20
todas las variables consideradas como irrelevantes para el propósito de este modelo, así
como todos los sucesos no previstos)
 Un enunciado con respecto a la existencia de errores de observación en las variables
observadas.
 Una especificación de la distribución de probabilidad de las distorisiones (y errores de
medición).
 ¿Qué contiene la variable u?:
o Un elemento impredecible de aleatoriedad en las respuestas humanas.
o Efecto de un gran numero de variables omitidas.
o Error de medición en y.

Diferencias entre un modelo económico y el modelo econométrico


 El modelo econométrico exige una especificación estad´sitica más precisa de las
variables que lo componen.
 Un modelo econométrico siempre exige una forma funcional definida mientras qe
un modelo económico puede eludir el explicitar la forma funcional o solo imponerle
ciertos requsitos (derivabilidad,concavidad, existencia de máximo, Etc.)
 Los modelos econométricos se establecen como relaciones no determinísticas
entre variables, suponiendo la existencia de uno o varios elementos de azar; por el
contrario los modelos económicos suelen proponerse como relaciones exactas.
 Las variables relevantes para un modelo económico no suelen coincidir
plenamente con las del modelo econométrico, al menos por las siguientes razones:
o Olvido en el modelo teórico de variables muy concretas de situaciones
determinadas.
o Inclusión implícita de ciertas variables en el modelo económico.
o La posible constancia de variables teóricas que, por consiguiente, no inciden
en la explicación de los cambios en el sistema real.
Novales (1996)

Un ejemplo piola.

Una tienda esta haciendo ha hecho una campaña publicitari para un producto e una ciudad y
quiere saber si ha sido efectiva, para hacerla a nivel nacional.

La emprsa hace una ecuesta bien hecha a 200 personas. Se sabe que el % de perosnas que
consumi el producto era de 5 %. La campaña habría sido efectiva si ese consumo ha subido,
digamos, al 7 %
Hay que hacer la estimadion con la muestra de 200.

Imaginemos que 15 perosna ha contestado afirmativamente, 7.5 % Entonces ¿es un éxito?.

Decir que es un éxito es asignar a la información muestral una fiabilidad absoluta, que
posiblemente hubiera sido distinta con una muestra distinta.. Entonces, no conocemos el
VERDADERO valor de la proporción tras la campaña publicitaria. Podrimaos empzar la campaña
a nivel nacional.

Esa sewrpia un error tipo I: por rechazar la hipótesis nula de ausencia de cambio en la
proporcion de consumidores, cuando ésta es cierta, puesto que no ha habido variación
relevante, aunque la informacion muestral nos hace creer que sí

Supongamos que hubiesemos obtenido solo 13 respuesta afirmativas, 6.5%, lo que nos llevaria
a NO RECHAZR la hipótesis nula cuando, reealmente, el consumose ha extendido con respecto
al existente. Este es el error tipo II: consistente en no rechazar la hipótesis nula cuando ésta es
falsa.

(La hipotyesi nula es la campaña no ha tenido efecto)


21
Ho: B=0.05 (hipótesis simple)

H1: B diferente 0.05 (hipótesis compuesta, pues ioncluye un rango de valores)

Entonces:

Error tipo I Rechazar Ho, aceptar H1, cuando Ho es ciewrta.

Error tipo II: No rechazar Ho cuando H1 es cierta, es decir, cuando Ho es falsa.

El nivel de significancia o tamaño de un contraste de hipótesis es la probabilidad de cometer un


error tipo I, es decir, la probabilidad de rechazar la hipótesi nula cuando es cierta.

Determinación del tamaño óptimo muestral para la estimación de parámetros poblacionales.

n  2  x2 / E M2

E M    x / n

Donde:

n: Tamaño óptimo de la muestra


 :
2
 Nivel crítico de las tablas, que será mayor cuando mayor sea el nivel de confianza
deseado.

 : la abscisa de la tabal de distribucipon.


x : Desviación t´pica poblacional
 x2 : varianza d ela muestral

 x2
E M2 : Error de estimación. Dado un nivel de confianza , es la máxima diferencia que
queremos permitir, con nivel de confianza 100(1-  )% entre el parámetro desconocido y el
estad´sitico utilizado como estimador

E M    x / n

Eentonces, el tamño de la muestra sera mayor:


i) cuanto menor sea el máximo error admisible.
ii) Cuanto mayor sea el nivel de confianza deseado.
iii) Cuanto mayor sea la vaianza de la muestra.

Si la poblacio es finita (N), y la prporcion de la muestra respecto a la poblacion es conocida (P)

n   2 P (1  P) N  / ( N  1) E M2  2 P(1  P)

Hoover (2006)

¿Qué puede hacer la econometría?

22
Primero, el más obvio es que la econometría se usa para probar una implicación de
una teoría.
En segundo lugar, la econometría puede usarse para medir valores desconocidos de
parámetros definidos teóricamente o variables inobservables.

En tercer lugar, la econometría puede usarse para predecir el valor de una variable.
La predicción puede basarse directamente en una teoría económica anterior o puede
ser un ejercicio estadístico ateórico.

... Finalmente, la econometría puede usarse para caracterizar una relación o


fenómeno. Encomienda los datos de una manera que revela relaciones que, a su vez,
se convierten en el forraje para la teoría "(65-66)

"Si la conclusión aún no se ha observado, la deducción proporciona una predicción;


si ya se conoce, una explicación. La explicación y la predicción son simétricas: la
explicación es solo predicción dirigida al pasado "(67).

"Popper propone un one-modus tollens válido: A implica B; B es falso; por lo tanto, A


es falso. La evidencia, no importa cuántos casos positivos se recopilen, no puede
establecer la verdad de una teoría; solo puede establecer su falsedad. No debemos
adoptar teorías porque disfrutan de un alto nivel de apoyo afirmativo, sino que
rechazan aquellas que son falsificadas.

La estrategia de Popper es más clara cuando las deducciones de una teoría son
deterministas. Sin embargo, como ya vimos en el caso del punto de vista recibido, la
economía casi con seguridad requiere conclusiones estadísticas más que
deterministas. Pero, en ese caso, ¿qué cuenta como una instancia de falsificación? ...
(68)

"Stigum (2003), quien enfatiza que el modelado tiene lugar en dos niveles, que él
considera como" mundos separados ".

El mundo de la teoría trata con modelos teóricos con conceptos nítidos. Las
deducciones teóricas generan solo conclusiones teóricas.

El mundo de los datos es el campo de la econometría y la estadística. Los datos son


lo que son, pero las propiedades interesantes si los datos son las relaciones entre
ellos, que no son inmediatamente evidentes sino que deben ser modelados por ellos
mismos. Idealmente, uno querría saber la verdadera distribución de probabilidad
que gobierna los datos. En la práctica, un modelo de probabilidad particular puede
ser más o menos exitoso como una aproximación; pero su éxito debe juzgarse por
motivos distintos a la correspondencia con la verdad, ya que ese vardstick no es
directamente accesible

El mundo de la teoría y el mundo de los datos no son inmediatamente


conmensurables ... Un concepto teórico como la tasa natural de desempleo, por
ejemplo, solo puede vincularse mediante el compromiso con una estrategia de
medición dependiente del modelo "(70-71)

Koopmans, por ejemplo, sostuvo firmemente que la teoría debe ser anterior a los
datos. Los datos no deben interpretarse sin presupoposiciones teóricas. Tal enfoque
implicaba que el objetivo de la econometría era puramente de medición y no de
exploración y descubrimiento "(74).

La propuesta de los "Sims" fue eliminar la pretensión de aplicar una estructura


teórica a los datos y, en cambio, utilizar sistemas sin restricciones de ecuaciones de
formas reducidas (o autorregresiones vectoriales o VAR) para modelar las respuestas
23
de las variables a los shocks. Cada ecuación en un sistema VAR retrocede una
variable en sus propios rezagos y los rezagos de todas las otras variables. Todavía un
procedimiento requiere una forma de identificación. "(75)

"La metodología de la London School of Economics (LSE) ... Prácticamente, el


enfoque general a específico implica comenzar con una especificación general tan
amplia como sea posible y luego buscar en el espacio de posibles restricciones para
encontrar la especificación más parsimoniosa" (76)

"La metodología de calibración es el polo opuesto de la metodología de LSE:


mantiene un compromiso con la teoría económica básica anterior sobre todo. La
calibración está asociada en gran medida al programa de Finn Kydland y Edward
Prescott (1991) de cuantificación de modelos macroeconómicos de equilibrio general
dinámico, aunque está estrechamente relacionado con la metodología de modelos
computables de equilibrio general comunes en la literatura sobre comercio,
desarrollo e impuestos. .

Un modelo calibrado comienza con un modelo teórico ... y lo completa asignando


valores numéricos a los parámetros clave. Estos valores no se estiman a través de
métodos de ecuación de sistemas de acuerdo con el programa Cowles Commission ...
En cambio, se extraen de consideraciones de contabilidad nacional, las "grandes
proporciones", estimaciones estadísticas no relacionadas, sentido común,
experiencia y otras fuentes informales. Una vez parametrizado, el modelo calibrado
se valida mediante simulación. Una vez validados, los modelos calibrados se utilizan
para explicar el desempeño económico histórico y para el análisis de políticas.

Muchos econometristas cuestionan si la calibración, con su rechazo de la estimación


estadística, se puede contar como una metodología econométrica "(78)

6. Las predicciones versus la evidencia empírica (hasta 2000 palabras)

En esta sección, se discuten los resultados del análisis estadístico y econométrico, y se evalúa
su relación con las hipótesis de la investigación. Acerca de la relación entre ( X ) e (Y ) : ¿Son los
resultados encontrados consistentes con las hipótesis? ¿Cuál es el grado de confiabilidad de
estos resultados? ¿Qué nos dice la evidencia encontrada respecto a hallazgos anteriores? Esta
sección es intensiva en el uso de la Econometría y la Estadística.

El grado de consistencia de los hechos con las predicciones, permite juzgar la pertinencia del
modelo que originó las predicciones, así como del marco teórico que dio lugar al modelo. Si la
predicción es inconsistente con los hechos, entonces la teoría es falsa. Esta es la esencia del
método popperiano de falsación en la ciencia.

Por otro lado, si la predicción es consistente con los hechos, lo será también con la teoría, pero
no se puede aceptar que la teoría sea verdadera, pues la predicción puesta a prueba puede
también ser derivada lógicamente de otra teoría. Así, un hecho observado puede ser consistente
con una o más teorías. Como la predicción se deriva del modelo, y no de la teoría, lo que en
realidad se está sometiendo a la prueba empírica es el modelo y no la teoría. De allí, de acuerdo
con Friedman (1967) y Figueroa (2003), la complejidad de establecer un criterio de verdad en la
economía y el enorme espacio que se deja para la controversia.

“La validez de una hipótesis en este sentido no es por sí misma un criterio suficiente para
elegir entre hipótesis alternativas. Los hechos observados son necesariamente finitos en
su número; las hipótesis posibles infinitas. Si existe una hipótesis compatible con la
evidencia disponible, hay siempre un numero infinito que lo es también” (Friedman
1967:15)

24
¿Qué sucede cuando una teoría que no ha sido rechazada en varias pruebas, no es confirmada
en una prueba adicional? Esa teoría, según Popper, debería ser rechazada. Hicks (1986), sin
embargo, sostiene que una teoría bien establecida, basada sobre un gran número de
observaciones, no puede ser falseada solo por una prueba. En este caso, el científico deberá
examinar las condiciones en las cuales ha sido ejecutada la nueva prueba, esperando establecer
que algunas de las condiciones que estuvieron presentes en los casos previos, no han estado en
el último.

Finalmente, el grado de consistencia de los hechos con las hipótesis está también afectado por
la calidad de las estadísticas y las limitaciones particulares de los métodos estadísticos y
econométricos de verificación de hipótesis. Además, de una teoría pueden derivarse diversos
modelos, y que cada uno de ellos puede expresarse mediante modelos econométricos
diferentes. Por eso es que la evidencia empírica permite refutar pero no verificar. Si las
predicciones incluidas en las hipótesis no son refutadas por la evidencia empírica, el teórico
puede adoptarlas, pero solo provisionalmente, pues siempre son susceptibles de refutaciones
por nueva evidencia o nuevos métodos de verificación: la investigación en Economía siempre es
un proceso, iterativo y no terminal.

Kmenta (1977).

“La decisión de cuál de las dos hipótesis rivales debe tomarse como hipótesis nula tiene
algunas implicaciones que es preciso no dejar de lado. Según la metodología establecida, una
hipótesis nula es una proposición que será considerada válida, a menos que la evidencia nos
haga dudar seriamente de ello. En este sentido, una contrastación estadística se parece a un
juicio ante los tribunales. En un juicio, el acusado es considerado inocente a menos que la
evidencia sugiera que es culpable, más allá de toda duda razonable. Del mismo modo, la
hipótesis nula se considera válida a menos que la evidencia sugiera- también más allá de toda
duda razonable- que no lo es. (Sin embargo, mientras en los tribunales la definición de “duda
razonable” es la misma en todos los casos, en las pruebas estadísticas puede variar según cual
sea el coste de efectuar un veredicto incorrecto.) Además, al igual que en el tribunal es el fiscal
quien tiene que probar la culpabilidad del acusado, en las pruebas estadísticas es el estadístico
quien tiene que la hipótesis nula es incorrecta. Naturalmente, la palabra “probar” no debe
tomarse en sentido absoluto en ninguno de los dos casos, puesto que siempre existe una
“sombra” de duda; solo Dios sabe si un hombre es realmente culpable o una hipótesis nula
realmente incorrecta. Por último, también el procedimiento resulta similar; en el tribunal se
presenta toda la evidencia y demás información que resulta relevante para el caso, y se pondera
de acuerdo con las reglas establecidas por la ley, llegándose a un veredicto de “culpable” o no
culpable”. Del mismo modo, cuando se efect´8ua una contrastación estadística, se utiliza toda
la evidencia y la información previa de acuerdo con unas reglas predeterminadas y se llega a la
conclusión de “rechazar” o “no rechazar” la hipótesis nula. Cabe señalar que, igual que el
tribunal dicta su veredicto en la forma de “no culpable” en lugar de “inocente”, la conclusión de
una contrastación estadística consiste en “no rechazar” en lugar de “aceptar””(131-132)

“El paralelismo entre los juicios y las contrastaciones estadísticas finaliza de repente cuando
consideramos la aplicación de la Quinta Enmienda de la Constitución de los Estados Unidos.
Contrariamente a lo que ocurre con un acusado, que no debe “verse sujeto a grave riesgo de su
vida o a perjuicio grave en dos ocasiones por una misma falta”, las hipótesis nulas están
siempre sujetas a la posibilidad de contrastación. En realidad, aunque las hipótesis nulas se
consideran válidas a menos que tengamos evidencia clara en sentido contrario, esta opinión
siempre tiene carácter provisional. En este sentido, una hipótesis nula se parece a un campeón
de cualquier deporte, que en cualquier momento puede verse superado por otro deportista. En
realidad, es posible imaginar el progreso de la ciencia como un proceso en el que se establecen
hipótesis y a continuación se efectúa un gran esfuerzo para obtener nuevos datos que permitan
refutar dichas hipótesis. Únicamente pueden sobrevivir a estos ataques continuados las
hipótesis más robustas haciéndose merecedoras de nuestra confianza, al menos hasta que se
produzca un nuevo ataque” (132)

25
El estadístico de prueba es simplemente una fórmula que nos indica la forma de confrontar la
hipótesis nula con la evidencia, y es una variable aleatoria cuyo valor varía de una muestra a
otra. La región en la que se rechaza la hipótesis se denomina a veces región crítica y es un
subconjunto del espacio muestral tal que si el valor del estadístico de prueba pertenece a él, se
rechaza la hipótesis nula. Del mismo modo, la región en la que no se rechaza la hipótesis,
llamada normalmente región de aceptación, es un subconjunto o espacio muestral tal que si el
valor del estadístico de prueba pertenece a él, no se rechaza la hipótesis nula “(134)

7. Conclusiones e implicancias para la política económica (hasta 1200 palabras).

En esta última parte se consigna un resumen de los principales resultados del trabajo y sus
implicancias para la formulación de políticas económicas.

La política económica es el producto final de la investigación en Economía. Si este trabajo no


concluye con propuestas de política económica; esto es, con planteamientos que alteren el valor
de los instrumentos de política para alcanzar los objetivos deseados, la investigación habrá sido
estéril. En los modelos estáticos, y cuando el número de objetivos independientes de política
económica es igual al numero de instrumentos, puede utilizarse la Regla de Tinbergen, en
términos de qué hacer con ( X ) para poder influir en la dirección deseada sobre (Y ) .

Como puede notarse, ( X ) e (Y ) están presentes en todas las etapas del estudio. Para la
investigación solo existen estas variables y hay que abstraer todo el resto de variables.

Las decisiones de política económica tienen como base los hallazgos empíricos; esto es, se
aplican sobre la base de si efectivamente se encontró una relación estadísticamente sólida entre
las variables exógenas y endógenas:

“..la Economía Normativa y el arte de la economía no pueden ser independientes de la


Economía Positiva. Cualquier conclusión política se basa necesariamente sobre una
predicción acerca de las consecuencias de hacer una cosa en lugar de la otra, predicción
que debe estar basada –implícita o explícitamente-en la Economía Positiva.” (Friedman
1967:11)

Sin embargo, dichas políticas no pueden derivarse unívocamente de los hallazgos empíricos
porque, como lo advierte Figueroa (2003), no hay una línea lógica que vaya de la teoría a la
política económica. La razón es que la causalidad no implica una relación única entre variables
exógenas (los medios de la política económica) y endógenas (los fines). Solamente si el modelo
tuviera dos variables, una endógena y una exógena, y si esta última fuese una de tipo
instrumental, podría la política económica desprenderse directamente de la teoría. Pero los
modelos establecen relaciones de causalidad entre muchas endógenas y exógenas y,
adicionalmente, no todas las exógenas pueden ser utilizadas como instrumentos de política
económica. En este caso general, el agente que define la política económica enfrenta un dilema,
pues tiene varios objetivos y varios instrumentos competitivos.

Se necesita, en consecuencia, juicios de valor para seleccionar los instrumentos y los objetivos
de la política económica:

“No se puede deducir el debe ser a partir del ser (Hume). En la ciencia, proposiciones
deontológicas no pueden ser lógicamente derivadas de proposiciones ontológicas” (Figueroa
2003:60)

El “Proyecto de Investigación” consiste en un informe satisfactorio que comprende la


introducción y las secciones 1-6. El trabajo de investigación concluido contiene, adicionalmente,
la evaluación de los resultados empíricos y las conclusiones y recomendaciones de política
económica.

26
Finalmente, la forma de la presentación del trabajo puede ser tan importante como el contenido
del mismo. Por eso:

"Escribir una buena propuesta lleva mucho tiempo. Comenzar temprano.


Comience a pensar en su tema con bastante anticipación y conviértalo en un
hábito de recopilar referencias mientras trabaja en otras tareas. Revisa el
texto nuevamente por sustancia. Repase el idioma, el estilo y la forma.
Reajusta tu párrafo de apertura o primera página para que te lleve a casa
exactamente lo que quieres decir con la mayor eficacia posible "(Przeworski y
Salomón 1995: 10)
Bunge (1968)
Comparación de las conclusiones con las predicciones: contraste de los resultados de la prueba
con las consecuencias del modelo teórico, precisando en qué medida éste puede considerarse
confirmado o disconfirmado (inferencia probable).
Reajuste del modelo: eventual corrección o aun reemplazo del modelo.
Sugerencias a cerca del trabajo ulterior: búsqueda de lagunas o errores en la teoría y/o los
procedimientos empíricos, si el modelo ha sido disconfirmado; si ha sido confirmado, examen de
posibles extensiones y de posibles consecuencias en otros departamentos del saber”(89, 90, 91,
92)

Figueroa (2003), Cáp. 1

 No hay una línea lógica que vaya de la teoría a la política económica. La razón es que la
caudalidad no implica una relación única entre variables exógenas (los medios de la
política económica) y las variables endógenas (los fines). Solamente si el modelo tuviera
dos variables, una endógena y una exógena, podría la política económica desprenderse
directamente de la teoría. Pero los modelos establecen relaciones de causalidad entre
muchas endógenas y exógenas. Adicionalmente, no todas las exógenas pueden ser
utilizadas como instrumentos de política económica. En este caso general, el agente que
define la política económica enfrenta varios objetivos y varios instrumentos.

 La política económica es el producto final del conocimiento científico en la economía. La


política económica es la ingeniería de la ciencia económica, así como la agronomía es
una ingeniería de la biología y la medicina, una ingeniería de la biología y la quí. Si no
hubiera política económica, la Economía sería una ciencia estéril.

 Se necesitan juicios de valor paraseleccionar medios y fines (Hume: “no se puede deducir
el debe ser a partir del ser”)En la ciencia, proposiciones deontológicas no pueden ser
lógicamente derivadas de proposiciones ontológicas. Las propuestas de política
económica no se derivan lógicamente de las teorías y modelos, pero tampoco son
independientes de estas.

Hoover (2001)
"La última justificación para el estudio de la macroeconomía es práctica:
proporcionar un conocimiento seguro sobre el cual basar la política. La política se
trata de influir en los resultados, sobre el control o el intento de control. El estudio
de la causalidad en cualquier contexto particular es el estudio de las conexiones
particulares que permiten el control de una cosa para influir en otra. La comprensión
causal está implícita en la discusión de la política "(1)

"La única utilidad inmediata de todas las ciencias es enseñarnos cómo controlar y
regular los eventos futuros por sus
causas" (Hume, 1777, pág 76) (10)

3. MEDICIÓN SIN TEORÍA Y TEORÍA SIN MEDICIÓN: LA INVESTIGACIÓN ECONÓMICA


EN LA ACTUALIDAD

27
La investigación científica en Economía está constituida por diversas fases interconectadas de
una manera lógica, secuencial, pero también iterativa; es decir, que puede atravesarse las
distintas fases de la investigación una y otra vez. Esta secuencia de fases se puede apreciar en
el siguiente diagrama.

El problema a
investigar

El estado actual Marco institucional y


de conocimientos hechos estilizados

La teoría y el
modelo de la
teoría

Las predicciones
(hipótesis)

Modelo economé-
trico y el método de
verificación de las
predicciones

Las predicciones
versus la
evidencia

Implicancias
para la política
económica

28
De acuerdo con el diagrama, la investigación se inicia con el planteamiento del problema
económico, el cual se presenta bajo la forma de una relación probable (hipótesis de causalidad
preliminar) sobre la relación entre las variables exógenas ( X ) y endógenas (Y ) donde las
primeras causan las segundas, y suponiendo constantes el resto de las variables exógenas. A
partir del problema económico a investigar, que es concreto, pues se origina en el mundo real,
transitamos a las teorías, que son abstracciones, pues constituyen versiones simplificadas de la
realidad, y contienen un conjunto de supuestos y axiomas no observables. Las teorías, pues, son
mapas de la realidad, y por ello son necesariamente abstractas. Partiendo de lo real, a través de
la presentación de los antecedentes teóricos de la investigación, ascendemos al nivel más alto
de abstracción.

Posteriormente, en las siguientes fases de la investigación -cuyo objetivo es explicar la realidad-,


contando ya con las teorías que nos permiten observar lo sustantivo y abstraer lo accesorio,
intentamos aproximarnos nuevamente a la realidad, reduciendo gradualmente el nivel de
abstracción.

Este procedimiento se inicia con la exposición de los trabajos empíricos que se hayan realizado
acerca del tema abordado, y continúa con la delimitación del marco institucional que supone la
economía en estudio y la presentación de las regularidades empíricas o hechos estilizados.
Estos tienen que estar circunscritos a las variables ( X ) e (Y ) presentadas previamente en la
introducción del informe de la investigación. Se reduce así, paulatinamente, el nivel de
abstracción.

Sobre la base de las teorías, las evidencias existentes, el marco institucional y los hechos
estilizados se construye el modelo económico. En este tránsito, no hay un algoritmo lógico o
matemático. El modelo se presenta primero en su forma estructural y luego se deriva, por
medio de las matemáticas, a su versión reducida, que es desde donde afloran las hipótesis o
relaciones de causalidad.

Es solamente en este tránsito, del modelo a las hipótesis, así como desde el modelo estructural
a su forma reducida, que no hay arbitrariedad: de un modelo en forma estructural sólo se puede
derivar uno en forma reducida; y hay un número acotado de hipótesis que podemos obtener a
partir de un modelo.

En el paso subsiguiente, sobre la base del modelo en su forma reducida y las hipótesis, se
construye el modelo econométrico, que es menos abstracto que el modelo económico y las
hipótesis.

Por su parte, una hipótesis puede expresarse estadísticamente de diferentes maneras,


dependiendo de la forma cómo se identifican empíricamente las variables del modelo y del tipo
de especificación (lineal, logarítimico, exponencial, etc). Es decir, de cada hipótesis, pueden
derivarse varios modelo econométricos. Lo que indica que no hay un camino único en el tránsito
hacia estos modelos desde aquel en su forma reducida y de las hipótesis.

En la siguiente etapa del trabajo de investigación, las hipótesis son sometidas a la prueba
empírica, contrastándolas con los datos de la realidad en estudio. Con lo que la investigación,
partiendo desde el problema económico, termina en el mismo punto, pero en su faceta de
problema explicado. Es decir, cuando investigamos partimos de la realidad, y terminamos en la
realidad; lo iniciamos sobre una base concreta, pasamos luego por una fase de abstracción, la
que reducimos paulatinamente, y culminamos otra vez en lo concreto:

“El esquema en su conjunto muestra que la ciencia se origina en problemas y finaliza en


problemas, así como que ésta progresa mediante la invención audaz de teorías y la
crítica de las diferentes teorías rivales” (Popper 1983: 484).

29
Es en esta etapa que probamos si las hipótesis son o no consistentes con la realidad; y, en el
caso que lo sean, debe evaluarse aún cuál es el grado de confianza en esos resultados. Esta
sección es intensiva en Econometría y Estadística.

La última fase corresponde a las recomendaciones de política económica, que es la razón última
de la investigación en Economía. Estas recomendaciones tienen como base los hallazgos
empíricos, pero no se derivan lógicamente de ellos, pues son los juicios de valor de la persona
que toma las decisiones los que inclinan una opción de política económica sobre otra.

Debe quedar evidente que las citadas etapas de investigación están interconectadas, y que los
pasos de una fase a otra están limitados, pero no unívocamente circunscritos. Es por eso que,
en la práctica, las teorías son inmortales, porque, aun cuando las hipótesis que se derivan de
ellas son inconsistentes con los hechos, siempre se podrá decir que con otros modelos y por
tanto otras hipótesis, derivadas de la misma teoría, ésta podría seguir siendo “verdadera”.

No todos los trabajos de investigación económica se realizan respetando el contenido y la


secuencia sugerida en este documento. Conciente de esta práctica, Solow (1991) muestra su
preocupación por la magnitud de trabajos que prescinden de las teorías y abordan la
investigación directamente a partir de la fase de las hipótesis:

"Si me siento oprimido por algo, es por la NBER y esa avalancha de


documentos de trabajo cubiertos. Ninguno de ellos contiene un teorema de
existencia. La mayoría de ellos son empíricos. De hecho, prueban hipótesis. El
problema es que muchos de ellos son totalmente poco convincentes,
absolutamente olvidable, completamente mecánico, y no hay forma de saber
de antemano cuáles son y cuáles no "(Solow 1991: 30).

Nos referimos al grupo de economistas empíricos que utiliza el método inductivo (Figueroa,
2003). Siguiendo este enfoque, a partir de una base de datos y con el uso de la econometría,
derivan relaciones entre las variables observadas e, incluso, por el método estadísitico, sugieren
relaciones de causalidad. Y, llegado a este punto, con base a dichas relaciones de causalidad
estadísticas, pasan a las prescripciones de política económica: es la “medición sin teoría”.

Metodológicamente, en el proceso de investigación económica todo modelo econométrico debe


fundarse en una teoría y un modelo teórico previo. Pues, si bien es cierto que el análisis de las
series de datos nos permite detectar ciertas regularidades en los hechos, ello no resulta
suficiente para conocer la causa de los fenómenos. Esto último sólo lo provee la teoría.

Si la “medición sin teoría” debe considerarse como una práctica inapropiada en la investigación
científica en el campo de la Economía, también debe rechazarse la teoría no sometida a la
contrastación empírica: la “teoría sin medición”.

Hace casi ochenta años, Schumpeter (1933), citado en Pulido (2001), nos decía:

“cada economista es un económetra, lo desee o no(….) porque, mientras no seamos


capaces de exponer nuestros argumentos en cifras, la voz de nuestra ciencia, aunque
ocasionalmente puede ayudar a dispersar errores groseros, nunca será oída por los
hombres prácticos.” (Pulido 2001:48-49)

En consecuencia, la investigación en Economía necesita pasar por todas las fases que hemos
descrito en este trabajo; es decir, debemos procurar presentar, en nuestras investigaciones,
“teorías con medición”.

“¿Cómo investigan normalmente los economistas en la mayoría de las publicaciones?. Método


deductivo. A partir de unos supuestos determinan las relaciones que deben existir entre las
variables que analizan. El uso intensivo de las matemáticas ha significado que esas derivaciones
lógicas sean realizadas con mucho rigor. De estas relaciones así deducidas se pasa, usualmente,
30
al campo de las aplicaciones. Se supone, implícitamente, que si la derivación es lógicamente
correcta, la relación propuesta debe ser también empíricamente correcta.

El otro grupo es de economistas empíricos. Dada una base de datos, los economistas derivan
relaciones estadísticas entre las variables observadas. El uso intensivo de la econometría ha
significado que la derivación de esas relaciones sean también realizadas con mucho rigor y
sofisticación. De estas relaciones así obtenidas se pasa, usualmente, a la causalidad.Y sobre la
base de estos resultados se pasa, normalmente, al campo de las aplicaciones. Este es el método
inductivo”.

Maddala (1996)
Construcción de modelo después de la información

Mucchos ecometristas hacen com SH. Se formuilan hipótesis, se observa si los signos de los
coeficientes son correctos, magnitudes no palusibles o si los residuos tiene un patrón pecualir.
Luego se introducen más variables explicativas o se imponen algunas restricciones a los
parámetros. Una pregunta es si las inferencias tipo SH pueden utilizarse dentro del alcance de la
inferencia estads´sitica.

4. LA INVESTIGACIÓN EN ECONOMÍA: UN EJEMPLO SENCILLO

Supongamos que el problema macroeconómico a estudiar, presentado en la introducción, es el


siguiente:

“La economía peruana ha registrado una caída del Producto Bruto Interno (PBI) entre los
años 2008 y 2010. Este ciclo recesivo (Y ) parece estar explicado por la política
monetaria contractiva aplicada por el Banco Central de Reserva del Perú (BCRP) en dicho
periodo, que ha consistido en la elevación sostenida de la tasa de interés interbancaria
( X ) ”.

En la sección 1 del informe deberán revisarse las teorías o modelos que muestran la conexión
entre el ciclo económico, representado por la brecha del producto (la diferencia entre el
producto observado y el producto potencial o de tendencia) y la tasa de interés de referencia
presentada en la introducción. Así mismo, en esta sección deben discutirse los resultados de los
trabajos empíricos acerca de la conexión entre la tasa de interés fijada por la autoridad
monetaria y la brecha del producto.

En la sección 2, como el objeto de estudio es la economía peruana, hay que considerar el marco
institucional correspondiente. En consecuencia, debiera advertirse que nuestra economía es
abierta, tanto en los mercados de bienes como en los mercados financieros; que en el país rige
un sistema de metas explícitas de inflación; que el principal instrumento de la política monetaria
es la tasa de interés de referencia, con la que se procura mantener fija la tasa de interés
interbancaria; que la economía está dolarizada y que está vigente un sistema de tipo de cambio
flexible.

En esta misma sección, también hay que presentar los principales hechos estilizados
relacionados al tema en estudio durante el periodo analizado. Es decir, siguiendo con nuestro
ejemplo, deberemos mostrar la evolución, mediante cuadros, gráficos o correlaciones
estadísticas, de la tasa de interés de referencia y la brecha del producto; así como de las
variables con las que presuntamente están conectadas, tales como la tasa de interés
interbancaria, la tasa de interés de mercado y el gasto privado.

En la sección 3 debe adoptarse, adaptarse o elaborar un modelo que refleje adecuadamente el


marco institucional, que tenga como variable endógena a la brecha del producto y como
variable exógena a la tasa de interés de referencia, y como sus canales de transmisión a la tasa
de interés interbancaria, las tasas de interés de mercado y el gasto privado.

31
En la parte 4 corresponde lanzar la predicción del modelo (la hipótesis), que debe ser muy
similar a la hipótesis tentativa presentada en la introducción, pero enriquecida con los canales
de transmisión que se señalaron en el modelo.

La predicción correspondiente a nuestro ejemplo, sería la siguiente:

“El ciclo económico recesivo observado en la economía peruana entre el 2008 y el 2010
se explica por la política monetaria contractiva aplicada por el Banco Central de Reserva
del Perú (BCRP), consistente en la elevación sostenida de la tasa de interés de
interbancaria. El progresivo nivel de ésta condujo a la elevación de las distintas tasas de
interés de mercado y, en consecuencia, a la contracción del gasto privado, que provocó la
caída de la demanda y la producción”.

La hipótesis plantea el problema que debe ser sometido a la prueba empírica y también ensaya
una posible explicación sobre los canales que conducen a que una creciente tasa de referencia
reduzca la brecha del producto. La mayor tasa de interés de referencia, aumenta la tasa de
interés interbancaria; esta elevación se transmite a las otras tasas de mercado, lo que provoca
una reducción del gasto privado. El menor nivel de éste reduce la demanda y por tanto el nivel
de actividad. Dicha hipótesis se deriva lógicamente de un modelo keynesiano con alguna
variedad de Regla de Taylor y está estrechamente vinculada al problema a estudiar.

En la sección 5 debe describirse cómo, con qué método, estadístico o econométrico, se pondrá a
prueba la hipótesis. Como la naturaleza del tema de la investigación sugiere la utilización de
series de tiempo, el modelo econométrico debería ser el escogido, uno de la familia ARIMA, que
es el más adecuado para modelos uni-ecuacionales, tal como es, al parecer, el del ejemplo.

Por otro lado, hay que hacer la identificación empírica de las variables involucradas. Esto supone
precisar, por ejemplo, a qué se refiere exactamente la variable tasa de interés de referencia del
modelo. ¿La serie estadística es mensual, trimestral o anual? ¿La tasa de interés es nominal o
real?

Respecto a la brecha del producto, deberá describirse cómo se calculará el producto potencial o
de tendencia, para pasar a estimarla. ¿Se utilizará el método de la función de producción o se
aplicará a las series existentes algún filtro estadístico?

En la parte 6 se pone a prueba las hipótesis, a través del modelo econométrico presentado en la
sección anterior y con uno del tipo ARIMA. Deberá discutirse sobre la consistencia de los
resultados y su grado de confiabilidad: ¿es la relación entre la tasa de interés de referencia y la
brecha del producto estadísticamente sólida?

Por último, en la sección 7, si se “demostrase” que efectivamente el ciclo recesivo se debe al


alza de la tasa de interés de referencia, una conclusión y una sugerencia de política monetaria
para enfrentar el ciclo recesivo podría ser la siguiente:

“La política monetaria contractiva aplicada en el periodo 2008-2011 ha hecho caer el PBI hasta
situarlo en un 20 % por debajo de su nivel potencial. En la coyuntura actual, del 2012, con la
inflación ya bajo control, y con el PBI por debajo de su potencial, la autoridad monetaria tiene
grados de libertad para ajustar la tasa de interés interbancaria, y a través de esa tasa, las de
mercado, reduciendo la tasa de interés de referencia, para de esta manera elevar el gasto
privado y en consecuencia el nivel de actividad económica, hasta llevarla a su nivel potencial”

32

Вам также может понравиться