Академический Документы
Профессиональный Документы
Культура Документы
Abstract Resumen
In this paper the authors present a model of evaluating El presente trabajo plantea un modelo de evaluación de
guidance programs; it is bassed on the asumption that eval- programas de orientación que parte del supuesto de que
uation a) is a process designed to provide data for manage- dicha evaluación no es un mero acto puntual, sino que ha de
ment decisions, b) both during the planning and the imple- entenderse como un proceso que abarca todas las fases de
mentation stages. The model offers an approach to program diseño y validación del programa y ha de iniciarse en el
evaluation on five steps and suggests the following questions momento en que se aborda la programación y planificación
to be asked in each of them: del mismo. El modelo establece cinco fases para el desarro-
1- Theoretical asumptions. Evaluators must state reasons llo de la evaluación:
for evaluation: Why and on behalf of whom the evluation 1ª- De los supuestos previos o preliminares, en la que se van
will be started? a fijar los supuestos teóricos-previos en los que se basará
2-Program viability: What program will be evaluated? dicha evaluación (destinatarios, receptores de la evaluación,
Does this program fit the needs of the target group? finalidad, propósitos, objetivos de la evaluación, papel del
3- Program evaluability: Is it really possible to evaluate evaluador, etc.).
this particular program? 2ª- Viabilidad de la evaluación, en la cual se pretenden esta-
4- Process evaluation: Were the plans implemented as blecer las características de la calidad formal/intrínseca del
designed? programa, la adecuación / adaptación al contexto y la acep-
5.- Product evaluation: Wich outcomes have been reached? tación en el mismo.
Every step is important and must relate to each preceding 3ª Evaluabilidad o validación de la evaluación; en esta terce-
an succeeding step in order to demonstrate that it is done ra fase se persigue específicamente responder a la cuestión
what program designers want to be done... Accordingly to básica de si el programa reúne las condiciones para poder
this evaluation model, it is the best way to make decissions ser evaluado.
about a program. 4ª- Evaluación del Proceso, que engloba la evaluación de la
implementación y la evaluación de desarrollo.
5ª- Evaluación de la Eficacia, la última fase de este modelo,
en que se trata de realizar una evaluación de resultados y
efectos del programa.
Keywords Descriptores
Guidance, evaluation Orientación, evaluación
g) utilidad, adecuación de la evaluación en el (e) ¿Qué agentes son los responsables de llevar-
contexto a que va dirigido, lo que en cierta lo a cabo?
medida matizará los destinatarios y los res- (f) ¿Cuál es la temporalización del mismo?
ponsables de tomar decisiones sobre el (g) ¿Qué tipo de recursos requiere?
programa, teniendo en cuenta tanto la pro- (h) ¿De qué tipo de actividades, estrategias o
cedencia de la demanda del programa co- habilidades se trata?
mo la de la evaluación. (i) ¿Qué metodología requiere? Esta subfase o
dimensión de la viabilidad nos ofrece un co-
Estos aspectos, junto con las características
nocimiento técnico del programa que se va a
del programa y las del contexto en que se va a
evaluar y trata de responder a la cuestión ge-
llevar a cabo el mismo, nos servirán para de-
neral ¿qué programa vamos a evaluar?, fi-
terminar el modelo y tipo de evaluación en el
jando la atención básicamente en la calidad
diseño de ésta, una vez que se valide el progra-
de su estructura formal, pero pudiendo com-
ma y podamos pasar a precisar la metodología
prender también aspectos tales como su con-
de evaluación.
gruencia con el marco teórico de referencia y
En resumen, en esta primera pretendemos con el diagnóstico previo. En definitiva,
contestar a la cuestión; ¿por qué y para quién permite al evaluador interno examinar (y
evaluamos? modificar en su caso) la adecuación del di-
2ª Fase: Viabilidad de la evaluación seño del programa a los requisitos mínimos
de programación, a lo que se añade en el ca-
Esta segunda fase, junto con la siguiente, co- so del evaluador externo, la posibilidad de
rresponde al momento de evaluación del diseño familiarizarse con el programa a evaluar
del programa. Aunque algunos autores prefie-
ren considerar a ambas como una fase única de En resumen, esta subfase de la viabilidad
evaluabilidad de la evaluación, nuestra expe- del proceso evaluador comprenderá el cono-
riencia en la aplicación del modelo nos reafirma cimiento y familiarización con todos los as-
en la decisión de considerarlas como dos fases pectos y factores que configuran el diseño de
con entidad propia (aunque interrelacionadas) planificación del programa de Orientación.
dentro del momento de la evaluación del dise- De ahí que sea necesario que el programa a
ño, puesto que, al margen de aspectos metodo- evaluar esté escrito con especificación de los
lógicos, cada una de ellas responde a una cues- aspectos citados
tión básica y secuenciada: La metodología de trabajo en esta subfase
(1) ¿es un programa y un buen programa para de evaluación será el análisis crítico del con-
este contexto? tenido del documento escrito en el que se re-
(2) ¿es un programa evaluable? fleja el programa, así como el análisis com-
parativo con otros programas emanados del
Esta segunda fase se divide en tres aspectos o mismo marco teórico y de reconocido pres-
dimensiones fundamentalmente: tigio y/o eficacia.
A) características de la calidad for- Un segundo aspecto o dimensión de esta
mal/intrínseca del programa, que hace refe- fase es B) la adecuación y adaptación al
rencia al conocimiento de las características contexto, es decir, se trata de responder a la
técnicas del programa, es decir, trata de respon- pregunta ¿es adecuado y adaptable el pro-
der a las siguientes cuestiones: grama al contexto donde va dirigido?; para
ello nos planteamos una serie de cuestiones
(a) ¿De qué programa se trata? que se derivan de la general:
(b) ¿Cuáles son sus metas?
(c) ¿Quiénes son los destinatarios? (j) ¿El programa a evaluar parte de un Análisis
(d) ¿Cuál es la estructura y contenido del pro- del Contexto?
grama?
VIABILIDAD
CRITERIO INDICADORES METODOLOGÍA
- ámbito
-tipo de programa
- objetivos ANÁLISIS DOCUMENTAL
CALIDAD
- destinatarios
FORMAL
- agentes ANÁLISIS COMPARATIVO
- temporalización
- recursos
- contexto CONSTATACIÓN
ADECUACIÓN - necesidades CON ANÁLISIS DE CONTEXTO
ADAPTACIÓN - estructura organizativa CONSTATACIÓN CON ANÁLISIS
- adecuación de recursos DE NECESIDADES
- inclusión en el PEC PEC
- actitud de los subsistemas CONSTATACIÓN ANÁLISIS DE
ACEPTACIÓN - inclusión en el programa de CONTEXTO
orientación ENTREVISTAS
TÉCNICAS DE GRUPO
.
cientes para la consecución de los objetivos luación del programa o b) tomar decisiones
planteados. para la mejora de aquellos aspectos que resulten
deficitarios en este control, nos servirá para
(7) No tiene delimitadas las acciones o activi- fijar aquellos aspectos a los que se deberá pres-
dades a realizar en unas coordenadas espa- tar más atención en la evaluación y/o cuáles son
cio/temporales. aquellos que se deben obviar por no estar sufi-
cientemente validados y ser imposible su mejo-
(8) No se conocen los recursos materiales y
ra en el diseño.
humanos disponibles para implantar el pro-
grama.
De otro lado, estos datos junto con todas las
(9) Existen graves obstáculos y/o contingencias especificaciones logradas en las fases anteriores
previsibles que imposibiliten la ejecución de tales como utilidad, efectos, objetivos, etc, nos
la evaluación. servirán para determinar el tipo de evaluación y
los aspectos que específicamente se van a eva-
(10) No existen en el programa procedimientos luar del programa, pues es éste el momento en
para la recogida de información de los datos que comienza propiamente el diseño de evalua-
de evaluación o son de muy baja calidad. ción con la especificación del tipo de evalua-
ción que se va a realizar, el diseño de la inves-
(11) Los datos previstos son de muy baja cali- tigación elegido y el análisis de datos pertinen-
dad. te.
(12) El coste previsto (esfuerzo, tiempo, recur-
sos materiales) es superior a la utilidad y/o La metodología de esta fase será fundamen-
ventajas de la misma talmente, como en la anterior, el análisis de la
documentación del programa, de los datos del
Para que un programa sea evaluable ha de análisis de contexto y de las fases previas al
cumplir la mayoría de estos criterios (aunque diseño, en el que primará la valoración cualita-
no necesariamente todos) y en un nivel acepta- tiva de la misma apoyada en el juicio experto
ble de cumplimiento. Ante la inexistencia de del evaluador, aunque es aconsejable, en la me-
una normativa específica en este sentido, es el dida de lo posible, que se pueda cuantificar y
propio evaluador como experto, y a la luz de los objetivar, o al menos justificar ampliamente
supuestos previos que dirigen la evaluación con los datos del propio programa.
(objetivos, destinatarios, utilidad...), el que debe
fijar ambos aspectos: qué aspectos considera En lo referente a la temporalización cabe de-
prioritarios en la validación del programa y qué cir lo mismo que para la fase anterior.
nivel debe exigirse en el cumplimiento (logro)
de los mismos. La fase concluye cuando se definen estos cri-
Lo ideal sería que para cada criterio antes re- terios e indicadores y se comprueba que el pro-
ferido se fijara al menos un indicador acerca de grama a evaluar cumple con los criterios de
la validez de la evaluación. De acuerdo con evaluación mínimos, que se pueden se resumir
Hernández y Rubio (1992), el peso de cada en que el contexto es favorable para realizar la
criterio depende de dos factores: las concepcio- evaluación, el programa de orientación en sí
nes y técnicas del evaluador, y las peculiarida- mismo es evaluable y el evaluador (externo,
des específicas del contexto y personas impli- interno o mixto) es capaz de realizar dicha fun-
cadas en la implementación del programa. ción.
A su vez, los datos obtenidos además de dar
respuesta a la cuestión básica de la fase, ¿es Proponemos a modo indicativo algunos de los
evaluable o no el programa? y por tanto servir- criterios e indicadores que pueden ser útiles
nos, según sea la situación en que se realice la para el control de esta fase.
validación, para: a) proseguir o no con la eva-
Es en este momento, como hemos afirmado pecto o pregunta que se quiera responder (Ro-
antes, cuándo comienza el diseño de evaluación dríguez Espinar, 1986:373), dadas las caracte-
propiamente dicho y cuando se ha de decidir el rísticas de la mayoría de las intervenciones
tipo de evaluación o qué aspectos del programa orientadoras desarrolladas en los centros docen-
se van a evaluar de acuerdo con el programa, tes de nuestro contexto y siguiendo una secuen-
contexto, y finalidades de la evaluación, es de- cialización jerárquica de los distintos tipos de
cir de acuerdo con las características del pro- evaluación (Alvira, 1991), proponemos dos
grama y los supuestos previos fijados en el tipos básicos de evaluación para los programas
planteamiento de la evaluación. de intervención orientadora: evaluación del
proceso del programa, que englobaría a su vez
Aunque un programa de Orientación, como la evaluación de la implementación o puesta en
programa socio-educativo, puede ser sometido marcha y la evaluación del desarrollo, y la eva-
a distintos tipos de evaluación según sea el as-
luación del producto o de eficacia, a las que En esta fase nos fijamos o centramos en cinco
consideramos fases necesarias para una correcta dimensiones o aspectos que no buscan otra cosa
evaluación de un programa de intervención que la adecuación e identificación de las activi-
orientadora. dades diseñadas. A partir de estas dimensiones,
Otro aspecto a decidir en este momento es el especificaremos los criterios e indicadores de
diseño de investigación que se va a utilizar, si evaluación.
este no se ha decidido en los supuestos previos Las dimensiones a las que nos referimos son:
o no viene prefijado con anterioridad; diseño de (13) Cobertura del programa: El programa se ha
investigación que, a su vez, vendrá condiciona- dirigido a los sujetos que previamente se ha-
do por las decisiones tomadas en el plantea- bía previsto.
miento de la evaluación y los condicionantes en
que se desarrolle la misma. Sin entrar a fondo (14) Realización de actividades: Se han llevado
en la cuestión de los distintos diseños de inves- a la práctica todas y cada una de las activida-
tigación, nos inclinamos por la utilización de des planificadas.
los diseños pre-experimentales y cuasiexperi-
mentales para los diseños (15) Ejecución de la temporalización: Muy re-
intergrupos, por ser los más aplicables a las lacionada con la anterior, hace referencia que
condiciones habituales en que se desarrollan los se han llevado a cabo las actividades previstas
programas de orientación, si bien la elección en los períodos de tiempo prefijado, es decir
siempre debe atenerse a los propósitos evaluati- hay un ajuste entre la temporalización real
vos. (ejecución real) y la planificación (temporali-
zación diseñada).
4ª Fase: Evaluación del Proceso
En esta fase de evaluación de proceso el aná- (16) Funciones de los agentes implicados: Cada
lisis de los datos y poder tomar decisiones. El agente implicado en el programa ha llevado a
análisis girará en torno a la marcha del progra- la práctica las actividades de las que era res-
ma tanto en su adecuación a la programación ponsable, tal y como se diseñó.
previa como a los aspectos dinámicos y de rela-
(17) Utilización de los recursos disponibles: Se
ción del mismo. Tiene por tanto un carácter
han empleado los recursos materiales y huma-
formativo e implica la realización de evaluacio-
nos que se habían previsto.
nes intermedias que permitan la retroalimenta-
ción del programa. En cada una de ellas se pue- En cuanto a la metodología (instrumentos)
de distinguir como fases sucesivas, la evalua- general a utilizar en la recogida de información
ción de la implementación y la evaluación del en esta cuarta fase será: las fichas de control de
desarrollo. las sesiones, el propio esquema del programa,
rejillas, escalas de estimación...
a) Evaluación de la implementación El análisis de resultados se realizará en base a:
Consiste en evaluar «qué» está funcionando (18) Un análisis meramente cuantitativo en
del programa una vez que se ha puesto en mar- términos de porcentajes o grados de cumpli-
cha, es decir, la instrumentalización del pro- miento de cada uno de los aspectos controla-
grama de intervención, su puesta en práctica dos y su comparación con los niveles de lo-
siguiendo las etapas y esquemas teóricos pre- gro, ejecución o utilización prefijados con an-
viamente concretados. El fin último de esta fase terioridad por el evaluador. En este sentido es
de evaluación, es contrastar si hay o no discre- conveniente tener en cuenta que aunque
pancias entre el diseño y la realidad; y en caso «idealmente» se pudiera pretender un cum-
afirmativo, realizar la adaptación pertinente, plimiento total (100%) del programa, el pro-
redefinir el programa para lograr su óptima y pio contexto o el punto de partida nos debe
adecuada puesta en marcha. hacer «realistas» en cuanto al nivel de ejecu-
ción a lograr. Así por ejemplo en un programa
dirigido a padres (o incluso a tutores) es im- (21) La recogida de datos de información: que
pensable fijar un nivel de cobertura excesiva- se hará de modo continuado a lo largo del
mente alto cuando la participación previa en programa y adaptandose a la naturaleza y fi-
actividades ha sido muy baja; o en el caso de nalidad del dato a obtener. Así se llevará un
un programa con flexibilidad prevista en la control diario del desarrollo de las sesiones en
utilización de recursos, la no utilización de to- el que se tomará nota, entre otros aspectos, de
dos los inicialmente incluidos en el programa las actividades realizadas, recursos utilizados,
puede no indicar una mala ejecución de pro- participación de alumnos, incidencias, actua-
grama. Por ello se hace preciso el análisis si- ción del orientador... en fin, de todos aquellos
guiente aspectos que, salvo que se haya previsto un
muestreo en la recogida de datos, sea conve-
(19) Análisis cualitativo sobre qué aspectos del niente contar con el mayor número (o la tota-
programa no se han ejecutado de la manera lidad) de ellos. A su vez, habrá que prefijar en
prevista. qué momento del programa se utilizarán los
(20) Por último se realizará un análisis que: instrumentos específicos de control del pro-
grama: cuestionarios, tests, actividades de
(a) En todos los casos se dirigirá a la bús-
control de logro de objetivos, entrevistas... pa-
queda de las causas, dificultades o contin-
ra lo que se tendrá en cuenta, entre otros, el
gencias que han impedido la ejecución di-
tipo de programa, duración, disposición a la
señada, bien por deficiencias en el diseño,
evaluación, tipo de instrumento a utilizar...
bien por las características del contexto o
de la integración de programa en el contex- (22)Momentos de toma de decisión: se debe
to. Para ello se hace preciso que los ins- prefijar en qué puntos del desarrollo del pro-
trumentos de recogida de información (reji- grama se van a realizar los análisis de los da-
llas, fichas de control, diario de sesio- tos de evaluación recogidos, que nos sirvan
nes...etc.) den cabida también a este tipo de para, de modo objetivo y documentado com-
información. Dependiendo de la entidad probar la marcha del programa, el cumpli-
del programa (amplitud, población, tiempo, miento de criterios de evaluación, el logro de
etc..), del enfoque evaluativo, o de los fines objetivos... de forma que podamos tomar de-
de la propia evaluación este análisis se po- cisiones sobre el programa. Dependiendo del
drá realizar en base al juicio valorativo del tipo, estructura y duración del mismo, de la
evaluador como experto, a los juicios y finalidad y objetivos de la propia evaluación,
opiniones de los participantes del programa de los datos recogidos etc, se determinará el
(discusión de grupos, TNG, entrevistas...) o número y tiempo de los momentos de toma de
bien, en su caso, requerir los tratamientos y decisión a lo largo del programa y, obviamen-
análisis estadísticos pertinentes. te, siempre habrá uno final.
(b) En la misma línea, los datos obtenidos
servirán en una evaluación explicativa co- A continuación se clarifican a modo de ejem-
mo base de la relación entre el nivel de eje- plo e ilustrativo los criterios e indicadores en
cución del programa y los resultados y que se concretan estas dimensiones:
efectos obtenidos.
En cuanto a la temporalización cabe hacer
una distinción, aplicable por otra parte a las
restantes fases o tipos de evaluación, desa-
rrollo y producto. En este sentido, se debe
planificar la temporalización de:
En resumen, en esta cuarta fase de evalua- Lo que realmente interesa en esta fase es eva-
ción, se debe recoger información sobre el luar la identificación y adecuación de las acti-
cumplimiento del programa en su cobertura, vidades diseñadas al contexto real, responder a
realización de actividades, ejecución de la tem- la pregunta de si existe o no actividades uni-
poralización implicación y cumplimiento de formes implementadas de manera sistemática
funciones por los agentes, utilización de recur- (Alvira, 1991); en definitiva queremos evaluar
sos... Para ello se debe tener muy claro cuáles si las actividades que se están implementando
son los aspectos nucleares del programa y las son las adecuadas en las coordenadas espa-
unidades de análisis a utilizar (muestreo si es el cio/temporales establecidas y se pueden desa-
caso) de modo que se pueda realizar correcta- rrollar con los instrumentos, medios y recursos
mente la comparación entre lo planificado y lo prefijados.
realizado porque en resumen, en esta fase se b) La evaluación de desarrollo
quiere ver cómo se desenvuelve en la praxis y Si la evaluación de la implementación se re-
realidad diarias, el programa de intervención fiere a «qué» se hace en un programa, la eva-
orientadora diseñado previamente, comparando luación de desarrollo explica el «cómo» (Mu-
el modelo ideal con el modelo real que se desa- nicio,1992:389); es decir, qué requisitos debe
rrolla. cumplir el proceso de puesta en marcha para
que se considere adecuado, correcto, acorde con La evaluación del proceso viene a cubrir en
un buen desarrollo del mismo. gran parte el binomio programa-factor humano,
Es la fase en la que resulta más difícil definir tanto en la faceta del modo de realización de
los criterios e indicadores porque es donde más actividades o tareas como en la de las relacio-
claramente entra en juego la visión subjetiva nes que se establecen entre los miembros impli-
del evaluador, o si se quiere, los aspectos más cados en el programa (agentes y sujetos). En
cualitativos del marco teórico del evaluador, este sentido la evaluación de proceso nos debe
por lo que es frecuente que, mientras en las de indicar la adecuación de la actuación (com-
demás etapas o tipos de evaluación se logra portamientos) de los agentes del programa, tan-
definir los criterios de cumplimiento con mayor to a los objetivos del mismo como a los estilos
o menor dificultad guiandose por la propia fina- de actuación y metodologías previstos, así co-
lidad y objetivos de la fase, la de desarrollo se mo las respuestas de los sujetos del programa a
presta a pretender un visión comprensiva del dichos comportamiento. En cierto modo impli-
programa, por lo que se intenta embutir en esta ca, entre otros aspectos una evaluación o auto-
fase los apectos que no quedan contemplados evaluación del orientador o agente.
en otras fases, o que supuestamente quedan De otro lado, la evaluación de desarrollo debe
«limitados» por un enfoque muy cuantitivista, analizar la adecuación del formato técnico del
lo que facilita la traducción de los deseos del programa (estrategias, recursos, actividades,
orientador en criterios e indicadores practica- tareas...) a los objetivos del programa, en tanto
mente inaprensibles y/o en listados amplísimos, que su realización ayude al logro de los mis-
con lo que la confusión puede estar servida. mos, así como el papel real que dicho formato
Por ello es conveniente que se aplique en esta técnico juega en la realización del programa, en
fase con más empeño que en las demás el prin- la línea de la evaluación de pertinencia o pro-
cipio de parsimonia, de forma que es preferible piedad y de idoneidad o suficiencia que señalan
fijar unos pocos criterios claros y que se traduz- Aguilar y Ander-Egg (1992:48). En otras pala-
can en indicadores objetivos, aunque sean, tanto bras, se trata de analizar cómo se han instru-
en su naturaleza y en el método de recogida de mentalizado y utilizado los recursos técnicas y
información como en su tratamiento de análisis, procedimientos del programa. Para ello es ne-
de carácter cualitativo, (lo cual no está reñido cesario además de la formulación de criterios e
con su carácter científico). Esto es necesario a indicadores que nos señalen el modo y adecua-
pesar de que parezca que dejamos al margen ción del proceso (agentes, relaciones y formato
aspectos que creamos «interesantes», pero que técnico), el contar con un apropiado sistema de
harían muy complejo el proceso de evaluación control e información sobre la marcha del pro-
o que nos lleve a pretender evaluar o controlar grama que permita revisiones periódicas del
matices claramente no evaluables por su difícil mismo.
especificación. En definitiva, debido a la difi- La metodología en esta fase puede ser muy
cultad intrínseca que la finalidad de la fase en- amplia, al adaptarse a la naturaleza cuantitativa
cierra, se debe tener en cuenta estrictamente los o cualitativa de los indicadores. Por ello preci-
principios de selección y fijación de criterios e samente es necesario fijar con más exactitud el
indicadores. instrumento con que se va a medir cada uno de
Siguiendo nuestras propias recomendaciones los indicadores en cada caso en particular (pro-
y apoyandonos en las dimensiones revisionadas grama). De modo general, se puede indicar co-
en la literatura especializada, hemos fijado co- mo instrumentos apropiados en esta fase los
mo dimensiones básicas en la evaluación del cuestionarios, escalas de observación, diario de
desarrollo del programa: sesiones, entrevistas...
(a) El binomio programa- factor humano En cuanto a la temporalización, si bien puede
(b) Evaluación de la actuación del agente aplicarse lo dicho en la subfase anterior, cabe
(c) Análisis técnico del programa una mayor flexibilidad en la recogida de infor-
mación, al depender de otras personas y no sólo rior a la aplicación del programa la temporali-
del investigador/orientador y por tanto se hace zación se adaptará a esta circunstancia.
precisa una más exacta planificación de los De igual modo, es necesario fijar los niveles
puntos temporales en que se va a realizar. Lógi- de cumplimiento de los criterios e indicadores,
camente, estas precisiones son aplicables en el adaptandose a los datos concretos que se pidan
caso en que el diseño de evaluación coincide en cada caso.
con el diseño del programa y se pretende reali- Como en las fases anteriores brindamos, a
zar la evaluación durante la aplicación y desa- modo indicativo, algunos de los criterios e indi-
rrollo del programa, tanto de modo externo co- cadores en que se pueden especificar las tres
mo interno. En el caso de una evaluación poste- dimensiones antes dichas.
adquieran un conocimiento de sí mismo, del Herr (1976) demostrar que se ha hecho lo que
objeto de elección y del proceso de toma de se quería hacer, a lo que nosotras añadimos, de
decisión antes de poder aplicarlo al campo de la mejor manera posible. Para ello el modelo
toma decisión vocacional y poder lograr el/los propone las diferentes fases, que responden a
objetivos del programa sobre la correcta toma las siguientes preguntas básicas:
de decisión vocacional. En otras ocasiones y (1) ¿Por qué y para quién evaluamos?
dado el carácter retroalimentador del modelo de
evaluación que proponemos, será conveniente, (2) ¿Qué programa vamos a evaluar?
siempre que los objetivos lo permitan, realizar
evaluaciones parciales del logro de objetivos (3) ¿Se puede evaluar ese programa?
que puedan indicar la continuación o modifica-
(4) ¿Se ha llevado a cabo el programa tal y
ción del programa tal y como se diseñó.
como se diseñó?; ¿Cómo ha sido esa puesta
Síntesis en marcha y por qué funciona el programa?
El modelo de evaluación propuesto, destinado (5) ¿Se ha logrado lo que nos proponíamos y
a la toma de decisiones de programas de inter- por qué?
vención orientadora, pretende ser un esquema
secuenciado y lógico, que permita a los orienta- A continuación ofrecemos una representación
dores, siguiendo la ya clásica afirmación de gráfica del modelo de evaluación propuesto:
RELIEVE
Revista ELectrónica de Investigación y EValuación Educativa
E-Journal of Educational Research, Assessment and Evaluation
[ISSN: 1134-4032]
© Copyright, RELIEVE. Reproduction and distribution of this articles it is authorized if the content is no modified
and their origin is indicated (RELIEVE Journal, volume, number and electronic address of the document).
© Copyright, RELIEVE. Se autoriza la reproducción y distribución de este artículo siempre que no se modifique el
contenido y se indique su origen (RELIEVE, volumen, número y dirección electrónica del documento).