Вы находитесь на странице: 1из 15

Hernández Fernández, J. y Martínez Clares, P. (1996).

Propuesta metodológica para evaluar programas de orientación


educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

e-Journal of Educational Revista ELectrónica de


Research, Assessment and Investigación y EValuación
Evaluation Educativa

PROPUESTA METODOLÓGICA PARA EVALUAR


PROGRAMAS DE ORIENTACIÓN EDUCATIVA
Proposed methodology for assessing guidance educational programs
by/por

Article record Ficha del artículo


Hernández Fernández, Josefina (jhernan@fcu.um.es)
About authors Sobre los autores
Martínez Clares, Pilar (pmclares@fcu.um.es)
HTML format Formato HTML

Abstract Resumen
In this paper the authors present a model of evaluating El presente trabajo plantea un modelo de evaluación de
guidance programs; it is bassed on the asumption that eval- programas de orientación que parte del supuesto de que
uation a) is a process designed to provide data for manage- dicha evaluación no es un mero acto puntual, sino que ha de
ment decisions, b) both during the planning and the imple- entenderse como un proceso que abarca todas las fases de
mentation stages. The model offers an approach to program diseño y validación del programa y ha de iniciarse en el
evaluation on five steps and suggests the following questions momento en que se aborda la programación y planificación
to be asked in each of them: del mismo. El modelo establece cinco fases para el desarro-
1- Theoretical asumptions. Evaluators must state reasons llo de la evaluación:
for evaluation: Why and on behalf of whom the evluation 1ª- De los supuestos previos o preliminares, en la que se van
will be started? a fijar los supuestos teóricos-previos en los que se basará
2-Program viability: What program will be evaluated? dicha evaluación (destinatarios, receptores de la evaluación,
Does this program fit the needs of the target group? finalidad, propósitos, objetivos de la evaluación, papel del
3- Program evaluability: Is it really possible to evaluate evaluador, etc.).
this particular program? 2ª- Viabilidad de la evaluación, en la cual se pretenden esta-
4- Process evaluation: Were the plans implemented as blecer las características de la calidad formal/intrínseca del
designed? programa, la adecuación / adaptación al contexto y la acep-
5.- Product evaluation: Wich outcomes have been reached? tación en el mismo.
Every step is important and must relate to each preceding 3ª Evaluabilidad o validación de la evaluación; en esta terce-
an succeeding step in order to demonstrate that it is done ra fase se persigue específicamente responder a la cuestión
what program designers want to be done... Accordingly to básica de si el programa reúne las condiciones para poder
this evaluation model, it is the best way to make decissions ser evaluado.
about a program. 4ª- Evaluación del Proceso, que engloba la evaluación de la
implementación y la evaluación de desarrollo.
5ª- Evaluación de la Eficacia, la última fase de este modelo,
en que se trata de realizar una evaluación de resultados y
efectos del programa.
Keywords Descriptores
Guidance, evaluation Orientación, evaluación

brado en Madrid en 1993, realizada a partir de


Introducción la experiencia adquirida con el mismo en traba-
Nuestra propuesta es el resultado de la adap- jos prácticos de carácter interno de nuestra Fa-
tación del modelo, presentado en el VI Semina- cultad.
rio de AIDIPE (Asociación Interuniversitaria de Nuestro objetivo es delimitar las fases del
Investigación Pedagógica Experimental) cele- proceso de evaluación de programas en el con-

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 1


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

texto de la Orientación Educativa, para lo que - Evaluación de contexto - necesidades


partimos, entre otros supuestos básicos, del - Evaluación de diseño - programación
entendimiento de que el proceso de evaluación - Evaluación de proceso - desarrollo
y el de programación/planificación se interrela- - Evaluación de resultados- producto
cionan y se deben producir paralelamente; es
decir, la evaluación puede realizarse en cual- En definitiva, la finalidad general de la eva-
quier etapa o fase de la programación, en un luación es tomar decisiones de cambio y mejora
proceso de retroalimentación permanente. a lo largo del proceso y tras finalizar la inter-
vención del programa.
De otra parte, damos por sentado que el pro- Aunque nuestra propuesta va destinada ini-
grama se basa en la identificación y determina- cialmente al profesional que en su práctica pre-
ción de necesidades de la comunidad educativa, tende evaluar un programa que diseña o adapta
a partir de una evaluación del contexto socio- para cubrir las necesidades de un contexto con-
ambiental y educativo del centro escolar donde creto, en la línea de lo que hemos afirmado an-
se va a desarrollar. A la vez que consideramos teriormente de entender la evaluación como
como finalidad general de la evaluación de pro- núcleo de todo el proceso de planificación y
gramas de orientación la toma de decisiones programación (y esta es la postura que defen-
para la mejora del proceso de intervención y del demos), pensamos que es perfectamente aplica-
logro de resultados. ble en sus orientaciones generales a otras situa-
ciones posibles en la práctica orientadora: eva-
En definitiva, la evaluación de un programa luación externa, evaluación de un programa ya
consiste en realizar un seguimiento a lo largo de implementado, sólo responsabilidad en el dise-
un proceso, que permita obtener información ño... En todos los casos el diseño de evaluación
acerca de cómo se está llevando a cabo, con la se deberá adaptar- a veces obligatoriamente- en
finalidad de reajustar la intervención orientado- sus cuestiones evaluativas, contenido y tipo de
ra, de acuerdo con los datos obtenidos. Es nece- evaluación, a los datos de que se disponga. En
sario tener en cuenta en toda evaluación que la exposición de cada una de las fases, iremos
ésta debe ajustarse a las características del con- especificando las posibles adaptaciones a estas
texto donde el programa se lleva a cabo. situaciones.

La evaluación de un programa de orientación


Fases en el proceso de evaluación de
tiene una metodología concreta, que permite programas de orientación educativa
evidenciar si la intervención o proceso de ac- 1ª Fase: Supuestos previos o Preliminares
tuación llevado a cabo es no sólo correcto sino
eficaz. Antes de iniciar el diseño de la evaluación de
cualquier programa de Orientación (y por tanto
Así, la evaluación de un programa de orienta- en el momento de iniciar la propia planificación
ción no es un mero acto puntual, sino puesto y diseño del mismo) hay que fijar los supuestos
que sirve para una mejora continuada del pro- teóricos-previos en los que se va a basar dicha
grama, la hemos de entender como un proceso. evaluación. En ellos se debe especificar, entre
Este proceso de evaluación ha de estar íntima- otros aspectos:
mente relacionado con la programación y plani- a) finalidad
ficación del programa, pudiendo de este modo b) propósitos, objetivos de la evaluación
efectuar una constante retroalimentación. En c) papel del evaluador: tipo de evaluación: in-
este sentido, en nuestra propuesta, al igual que terna, externa, mixta
hacen otros autores (Stufflebeam, Pérez Juste, d) destinatarios, receptores de la evaluación
Caride), el proceso de evaluación se puede fijar e) tipo de información que se va a dar
en cuatro momentos o tipos de evaluación: f) diseño de investigación en la evaluación

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 2


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

g) utilidad, adecuación de la evaluación en el (e) ¿Qué agentes son los responsables de llevar-
contexto a que va dirigido, lo que en cierta lo a cabo?
medida matizará los destinatarios y los res- (f) ¿Cuál es la temporalización del mismo?
ponsables de tomar decisiones sobre el (g) ¿Qué tipo de recursos requiere?
programa, teniendo en cuenta tanto la pro- (h) ¿De qué tipo de actividades, estrategias o
cedencia de la demanda del programa co- habilidades se trata?
mo la de la evaluación. (i) ¿Qué metodología requiere? Esta subfase o
dimensión de la viabilidad nos ofrece un co-
Estos aspectos, junto con las características
nocimiento técnico del programa que se va a
del programa y las del contexto en que se va a
evaluar y trata de responder a la cuestión ge-
llevar a cabo el mismo, nos servirán para de-
neral ¿qué programa vamos a evaluar?, fi-
terminar el modelo y tipo de evaluación en el
jando la atención básicamente en la calidad
diseño de ésta, una vez que se valide el progra-
de su estructura formal, pero pudiendo com-
ma y podamos pasar a precisar la metodología
prender también aspectos tales como su con-
de evaluación.
gruencia con el marco teórico de referencia y
En resumen, en esta primera pretendemos con el diagnóstico previo. En definitiva,
contestar a la cuestión; ¿por qué y para quién permite al evaluador interno examinar (y
evaluamos? modificar en su caso) la adecuación del di-
2ª Fase: Viabilidad de la evaluación seño del programa a los requisitos mínimos
de programación, a lo que se añade en el ca-
Esta segunda fase, junto con la siguiente, co- so del evaluador externo, la posibilidad de
rresponde al momento de evaluación del diseño familiarizarse con el programa a evaluar
del programa. Aunque algunos autores prefie-
ren considerar a ambas como una fase única de En resumen, esta subfase de la viabilidad
evaluabilidad de la evaluación, nuestra expe- del proceso evaluador comprenderá el cono-
riencia en la aplicación del modelo nos reafirma cimiento y familiarización con todos los as-
en la decisión de considerarlas como dos fases pectos y factores que configuran el diseño de
con entidad propia (aunque interrelacionadas) planificación del programa de Orientación.
dentro del momento de la evaluación del dise- De ahí que sea necesario que el programa a
ño, puesto que, al margen de aspectos metodo- evaluar esté escrito con especificación de los
lógicos, cada una de ellas responde a una cues- aspectos citados
tión básica y secuenciada: La metodología de trabajo en esta subfase
(1) ¿es un programa y un buen programa para de evaluación será el análisis crítico del con-
este contexto? tenido del documento escrito en el que se re-
(2) ¿es un programa evaluable? fleja el programa, así como el análisis com-
parativo con otros programas emanados del
Esta segunda fase se divide en tres aspectos o mismo marco teórico y de reconocido pres-
dimensiones fundamentalmente: tigio y/o eficacia.
A) características de la calidad for- Un segundo aspecto o dimensión de esta
mal/intrínseca del programa, que hace refe- fase es B) la adecuación y adaptación al
rencia al conocimiento de las características contexto, es decir, se trata de responder a la
técnicas del programa, es decir, trata de respon- pregunta ¿es adecuado y adaptable el pro-
der a las siguientes cuestiones: grama al contexto donde va dirigido?; para
ello nos planteamos una serie de cuestiones
(a) ¿De qué programa se trata? que se derivan de la general:
(b) ¿Cuáles son sus metas?
(c) ¿Quiénes son los destinatarios? (j) ¿El programa a evaluar parte de un Análisis
(d) ¿Cuál es la estructura y contenido del pro- del Contexto?
grama?

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 3


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

(k) ¿Surge de un Análisis de Necesidades?; En cuanto a la temporalización de la fase, es


¿cuál es la/s necesidad/es de partida? decir, el momento de realizarla y tomar deci-
(l) ¿Dispone el centro de los recursos precisos o siones sobre la viabilidad del diseño del pro-
está dispuesto a facilitarlos? grama, variará, obviamente, según la situación
(m) ¿Permite la estructura organizativa del cen- o tipo de evaluación de que se trate. En el caso
tro (horarios, tutoría...) la realización del de que el evaluador (orientador) sea el propio
programa? diseñador de programa, el control del mismo
La metodología para la evaluación de esta bajo estos criterios deberá tenerse en cuenta
subfase será básicamente el examen de los da- tanto en la elaboración del programa como una
tos extraídos del Análisis de Contexto y del vez terminada y siempre antes de su implemen-
análisis de necesidades, completado con alguna tación y tendrá un carácter de información re-
técnica de recogida de información dirigida a troactiva para la mejora del diseño. Lo mismo
aspectos que no aparezcan suficientemente ex- cabe decir en el caso en el que el programa ha-
plicitados en el análisis de contexto (actitud ya sido diseñado por otros (tutores, programas
ante el programa de los agentes implicados, publicados...) sea cual sea el grado de compro-
expectativas, grado de implicación en el dise- miso del orientador (evaluador) en la imple-
ño...) mentación, siempre y cuando el programa no se
haya llevado a la práctica, por lo que a las pro-
El tercer aspecto de esta fase es C) la acepta- puestas de mejora sobre el diseño se puede aña-
ción, que trata de responder a la cuestión ¿es dir la toma de decisión sobre la implementación
aceptable el programa en el contexto donde se o no del programa. En el caso de que el pro-
dirige?; para responder, también nos plantea- grama se haya implementado, lógicamente, la
mos una serie de cuestiones, entre otras desta- evaluación de esta fase del modelo se realizará
camos las que siguen: cuando el programa esté disponible para el eva-
(n) ¿Es aceptado por todos los agentes o subsis- luador y tendrá un carácter sumativo, sanciona-
temas de la comunidad educativa? dor y de información para una futura mejora del
(o) ¿Está integrado en el Proyecto Educativo de diseño del programa.
Centro (P.E.C.)? En resumen, estos aspectos de la viabilidad
(p) ¿Está contemplado en la programación ge- nos permiten conocer las características técni-
neral del departamento de orientación? cas del programa y constatar si dicha interven-
ción es adecuada y aceptable al contexto donde
La metodología básicamente la formará la se dirige. Sintetizando la fase en términos de
consulta al Proyecto Educativo de Centro criterios e indicadores, puede quedar esquema-
(PEC), entrevistas o reuniones con los agentes tizada la misma en el siguiente cuadro:
de la comunidad educativa, dinámicas de gru-
pos, constatación con el Análisis de Contexto...

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 4


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

Cuadro 1: Criterios e indicadores de la viabilidad de la evaluación

VIABILIDAD
CRITERIO INDICADORES METODOLOGÍA
- ámbito
-tipo de programa
- objetivos ANÁLISIS DOCUMENTAL
CALIDAD
- destinatarios
FORMAL
- agentes ANÁLISIS COMPARATIVO
- temporalización
- recursos
- contexto CONSTATACIÓN
ADECUACIÓN - necesidades CON ANÁLISIS DE CONTEXTO
ADAPTACIÓN - estructura organizativa CONSTATACIÓN CON ANÁLISIS
- adecuación de recursos DE NECESIDADES
- inclusión en el PEC PEC
- actitud de los subsistemas CONSTATACIÓN ANÁLISIS DE
ACEPTACIÓN - inclusión en el programa de CONTEXTO
orientación ENTREVISTAS
TÉCNICAS DE GRUPO
.

3ª Fase: Evaluabilidad o Validación de la Las dimensiones propias de esta fase no que-


evaluación dan determinadas ni concretadas si no se esta-
blecen una serie de criterios de validación de
En esta tercera fase de validación de la eva- evaluación; así, Berk y Rossi (1990) estiman
luación específicamente se pretende responder que un programa no es evaluable si:
a la cuestión básica de si el programa reúne las
condiciones para poder ser evaluado. Si con la (1) Sus objetivos no están claramente especifi-
superación del control de la fase anterior pode- cados.
mos afirmar que lo que tenemos entre las ma- (2) No esta definida la estructura y componen-
nos es realmente un programa porque responde tes de forma adecuada.
a la estructura formal de lo que se considera
como tal -y no es una mera serie de actividades (3) No se pueden predecir con un mínimo de
más o menos secuenciadas o un cúmulo de rigor las consecuencias de su no aplicación.
buenas intenciones o una pequeña intervención-
y es adecuado y aceptable al contexto, necesi- (4) No se conocen los recursos reales disponi-
dades y subsistemas a los que se dirige e impli- bles para implantarlo.
ca. En esta fase se pretende comprobar que los
En función de estos criterios sugerimos
elementos formales están diseñados de tal for-
que, al menos, deberían seguirse los si-
ma que pueden ser evaluados, que reúnen los
guientes para la validación de un programa
requisitos mínimos para que puedan «pasar»
de orientación, que no podrá ser evaluado
aceptablemente los criterios, valoraciones, di-
si:
seños y análisis propios de la evaluación de
programas, si merece la pena los costes y es- (5) Sus objetivos no están formulados de forma
fuerzos de la misma, e incluso los aspectos en operativa/conductual (si no son medibles y
que se debe centrar la evaluación. observables).
(6) Las actividades planificadas no son sufi-

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 5


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

cientes para la consecución de los objetivos luación del programa o b) tomar decisiones
planteados. para la mejora de aquellos aspectos que resulten
deficitarios en este control, nos servirá para
(7) No tiene delimitadas las acciones o activi- fijar aquellos aspectos a los que se deberá pres-
dades a realizar en unas coordenadas espa- tar más atención en la evaluación y/o cuáles son
cio/temporales. aquellos que se deben obviar por no estar sufi-
cientemente validados y ser imposible su mejo-
(8) No se conocen los recursos materiales y
ra en el diseño.
humanos disponibles para implantar el pro-
grama.
De otro lado, estos datos junto con todas las
(9) Existen graves obstáculos y/o contingencias especificaciones logradas en las fases anteriores
previsibles que imposibiliten la ejecución de tales como utilidad, efectos, objetivos, etc, nos
la evaluación. servirán para determinar el tipo de evaluación y
los aspectos que específicamente se van a eva-
(10) No existen en el programa procedimientos luar del programa, pues es éste el momento en
para la recogida de información de los datos que comienza propiamente el diseño de evalua-
de evaluación o son de muy baja calidad. ción con la especificación del tipo de evalua-
ción que se va a realizar, el diseño de la inves-
(11) Los datos previstos son de muy baja cali- tigación elegido y el análisis de datos pertinen-
dad. te.
(12) El coste previsto (esfuerzo, tiempo, recur-
sos materiales) es superior a la utilidad y/o La metodología de esta fase será fundamen-
ventajas de la misma talmente, como en la anterior, el análisis de la
documentación del programa, de los datos del
Para que un programa sea evaluable ha de análisis de contexto y de las fases previas al
cumplir la mayoría de estos criterios (aunque diseño, en el que primará la valoración cualita-
no necesariamente todos) y en un nivel acepta- tiva de la misma apoyada en el juicio experto
ble de cumplimiento. Ante la inexistencia de del evaluador, aunque es aconsejable, en la me-
una normativa específica en este sentido, es el dida de lo posible, que se pueda cuantificar y
propio evaluador como experto, y a la luz de los objetivar, o al menos justificar ampliamente
supuestos previos que dirigen la evaluación con los datos del propio programa.
(objetivos, destinatarios, utilidad...), el que debe
fijar ambos aspectos: qué aspectos considera En lo referente a la temporalización cabe de-
prioritarios en la validación del programa y qué cir lo mismo que para la fase anterior.
nivel debe exigirse en el cumplimiento (logro)
de los mismos. La fase concluye cuando se definen estos cri-
Lo ideal sería que para cada criterio antes re- terios e indicadores y se comprueba que el pro-
ferido se fijara al menos un indicador acerca de grama a evaluar cumple con los criterios de
la validez de la evaluación. De acuerdo con evaluación mínimos, que se pueden se resumir
Hernández y Rubio (1992), el peso de cada en que el contexto es favorable para realizar la
criterio depende de dos factores: las concepcio- evaluación, el programa de orientación en sí
nes y técnicas del evaluador, y las peculiarida- mismo es evaluable y el evaluador (externo,
des específicas del contexto y personas impli- interno o mixto) es capaz de realizar dicha fun-
cadas en la implementación del programa. ción.
A su vez, los datos obtenidos además de dar
respuesta a la cuestión básica de la fase, ¿es Proponemos a modo indicativo algunos de los
evaluable o no el programa? y por tanto servir- criterios e indicadores que pueden ser útiles
nos, según sea la situación en que se realice la para el control de esta fase.
validación, para: a) proseguir o no con la eva-

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 6


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

Cuadro 2: Criterios e indicadores de la evaluabilidad de la evaluación


EVALUABILIDAD
CRITERIOS INDICADORES
OBJETIVOS * Medibles
EVALUABLES * Observables
* Que los objetivos específicos estén recogidos por actividades
concretas.
ACTIVIDADES SUFI-
* Que las actividades hagan referencia a los objetivos.
CIENTES
* Que las actividades favorezcan o incrementen los objetivos pro-
puestos.
COORDENADAS ESPA- * Especificación del tiempo.
CIO/TEMPORALES DE * Adecuación del espacio.
LAS ACTIVIDADES * Secuencialización acorde.
RECURSOS ESPECIFI- * Especificación de los materiales para cada actividad propuesta.
CADOS * Determinación de responsable/s para cada actividad.
OBSTÁCULOS Y CON- * Actitud de los implicados en la evaluación
TINGENCIAS EN LA * Disponibilidad en la implicación de la evaluación
EVALUACIÓN * Facilidades dadas por la organización para la evaluación
* Están previstos en el programa
* Son posibles en el contexto
PROCEDIMIENTOS EN
* Reconocida calidad
LA RECOGIDA DE IN-
* Acordes con el tipo de datos requeridos
FORMACIÓN
* Dominio de los mismos por el evaluador
* Planificada temporalización
CALIDAD DE LOS DA-
TOS EN LA EVALUA- * Son representativos Acordes con los objetivos del programa
CION
* Recursos humanos
COSTES DE LA EVA- * Tiempo preciso
LUACION * Coste económico
* Eficiencia

Es en este momento, como hemos afirmado pecto o pregunta que se quiera responder (Ro-
antes, cuándo comienza el diseño de evaluación dríguez Espinar, 1986:373), dadas las caracte-
propiamente dicho y cuando se ha de decidir el rísticas de la mayoría de las intervenciones
tipo de evaluación o qué aspectos del programa orientadoras desarrolladas en los centros docen-
se van a evaluar de acuerdo con el programa, tes de nuestro contexto y siguiendo una secuen-
contexto, y finalidades de la evaluación, es de- cialización jerárquica de los distintos tipos de
cir de acuerdo con las características del pro- evaluación (Alvira, 1991), proponemos dos
grama y los supuestos previos fijados en el tipos básicos de evaluación para los programas
planteamiento de la evaluación. de intervención orientadora: evaluación del
proceso del programa, que englobaría a su vez
Aunque un programa de Orientación, como la evaluación de la implementación o puesta en
programa socio-educativo, puede ser sometido marcha y la evaluación del desarrollo, y la eva-
a distintos tipos de evaluación según sea el as-

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 7


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

luación del producto o de eficacia, a las que En esta fase nos fijamos o centramos en cinco
consideramos fases necesarias para una correcta dimensiones o aspectos que no buscan otra cosa
evaluación de un programa de intervención que la adecuación e identificación de las activi-
orientadora. dades diseñadas. A partir de estas dimensiones,
Otro aspecto a decidir en este momento es el especificaremos los criterios e indicadores de
diseño de investigación que se va a utilizar, si evaluación.
este no se ha decidido en los supuestos previos Las dimensiones a las que nos referimos son:
o no viene prefijado con anterioridad; diseño de (13) Cobertura del programa: El programa se ha
investigación que, a su vez, vendrá condiciona- dirigido a los sujetos que previamente se ha-
do por las decisiones tomadas en el plantea- bía previsto.
miento de la evaluación y los condicionantes en
que se desarrolle la misma. Sin entrar a fondo (14) Realización de actividades: Se han llevado
en la cuestión de los distintos diseños de inves- a la práctica todas y cada una de las activida-
tigación, nos inclinamos por la utilización de des planificadas.
los diseños pre-experimentales y cuasiexperi-
mentales para los diseños (15) Ejecución de la temporalización: Muy re-
intergrupos, por ser los más aplicables a las lacionada con la anterior, hace referencia que
condiciones habituales en que se desarrollan los se han llevado a cabo las actividades previstas
programas de orientación, si bien la elección en los períodos de tiempo prefijado, es decir
siempre debe atenerse a los propósitos evaluati- hay un ajuste entre la temporalización real
vos. (ejecución real) y la planificación (temporali-
zación diseñada).
4ª Fase: Evaluación del Proceso
En esta fase de evaluación de proceso el aná- (16) Funciones de los agentes implicados: Cada
lisis de los datos y poder tomar decisiones. El agente implicado en el programa ha llevado a
análisis girará en torno a la marcha del progra- la práctica las actividades de las que era res-
ma tanto en su adecuación a la programación ponsable, tal y como se diseñó.
previa como a los aspectos dinámicos y de rela-
(17) Utilización de los recursos disponibles: Se
ción del mismo. Tiene por tanto un carácter
han empleado los recursos materiales y huma-
formativo e implica la realización de evaluacio-
nos que se habían previsto.
nes intermedias que permitan la retroalimenta-
ción del programa. En cada una de ellas se pue- En cuanto a la metodología (instrumentos)
de distinguir como fases sucesivas, la evalua- general a utilizar en la recogida de información
ción de la implementación y la evaluación del en esta cuarta fase será: las fichas de control de
desarrollo. las sesiones, el propio esquema del programa,
rejillas, escalas de estimación...
a) Evaluación de la implementación El análisis de resultados se realizará en base a:
Consiste en evaluar «qué» está funcionando (18) Un análisis meramente cuantitativo en
del programa una vez que se ha puesto en mar- términos de porcentajes o grados de cumpli-
cha, es decir, la instrumentalización del pro- miento de cada uno de los aspectos controla-
grama de intervención, su puesta en práctica dos y su comparación con los niveles de lo-
siguiendo las etapas y esquemas teóricos pre- gro, ejecución o utilización prefijados con an-
viamente concretados. El fin último de esta fase terioridad por el evaluador. En este sentido es
de evaluación, es contrastar si hay o no discre- conveniente tener en cuenta que aunque
pancias entre el diseño y la realidad; y en caso «idealmente» se pudiera pretender un cum-
afirmativo, realizar la adaptación pertinente, plimiento total (100%) del programa, el pro-
redefinir el programa para lograr su óptima y pio contexto o el punto de partida nos debe
adecuada puesta en marcha. hacer «realistas» en cuanto al nivel de ejecu-
ción a lograr. Así por ejemplo en un programa

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 8


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

dirigido a padres (o incluso a tutores) es im- (21) La recogida de datos de información: que
pensable fijar un nivel de cobertura excesiva- se hará de modo continuado a lo largo del
mente alto cuando la participación previa en programa y adaptandose a la naturaleza y fi-
actividades ha sido muy baja; o en el caso de nalidad del dato a obtener. Así se llevará un
un programa con flexibilidad prevista en la control diario del desarrollo de las sesiones en
utilización de recursos, la no utilización de to- el que se tomará nota, entre otros aspectos, de
dos los inicialmente incluidos en el programa las actividades realizadas, recursos utilizados,
puede no indicar una mala ejecución de pro- participación de alumnos, incidencias, actua-
grama. Por ello se hace preciso el análisis si- ción del orientador... en fin, de todos aquellos
guiente aspectos que, salvo que se haya previsto un
muestreo en la recogida de datos, sea conve-
(19) Análisis cualitativo sobre qué aspectos del niente contar con el mayor número (o la tota-
programa no se han ejecutado de la manera lidad) de ellos. A su vez, habrá que prefijar en
prevista. qué momento del programa se utilizarán los
(20) Por último se realizará un análisis que: instrumentos específicos de control del pro-
grama: cuestionarios, tests, actividades de
(a) En todos los casos se dirigirá a la bús-
control de logro de objetivos, entrevistas... pa-
queda de las causas, dificultades o contin-
ra lo que se tendrá en cuenta, entre otros, el
gencias que han impedido la ejecución di-
tipo de programa, duración, disposición a la
señada, bien por deficiencias en el diseño,
evaluación, tipo de instrumento a utilizar...
bien por las características del contexto o
de la integración de programa en el contex- (22)Momentos de toma de decisión: se debe
to. Para ello se hace preciso que los ins- prefijar en qué puntos del desarrollo del pro-
trumentos de recogida de información (reji- grama se van a realizar los análisis de los da-
llas, fichas de control, diario de sesio- tos de evaluación recogidos, que nos sirvan
nes...etc.) den cabida también a este tipo de para, de modo objetivo y documentado com-
información. Dependiendo de la entidad probar la marcha del programa, el cumpli-
del programa (amplitud, población, tiempo, miento de criterios de evaluación, el logro de
etc..), del enfoque evaluativo, o de los fines objetivos... de forma que podamos tomar de-
de la propia evaluación este análisis se po- cisiones sobre el programa. Dependiendo del
drá realizar en base al juicio valorativo del tipo, estructura y duración del mismo, de la
evaluador como experto, a los juicios y finalidad y objetivos de la propia evaluación,
opiniones de los participantes del programa de los datos recogidos etc, se determinará el
(discusión de grupos, TNG, entrevistas...) o número y tiempo de los momentos de toma de
bien, en su caso, requerir los tratamientos y decisión a lo largo del programa y, obviamen-
análisis estadísticos pertinentes. te, siempre habrá uno final.
(b) En la misma línea, los datos obtenidos
servirán en una evaluación explicativa co- A continuación se clarifican a modo de ejem-
mo base de la relación entre el nivel de eje- plo e ilustrativo los criterios e indicadores en
cución del programa y los resultados y que se concretan estas dimensiones:
efectos obtenidos.
En cuanto a la temporalización cabe hacer
una distinción, aplicable por otra parte a las
restantes fases o tipos de evaluación, desa-
rrollo y producto. En este sentido, se debe
planificar la temporalización de:

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 9


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

Cuadro 3: Criterios e indicadores de la evaluación de la implementación


DIMENSIÓN CRITERIOS INDICADORES
* El programa se realizará en todos
* Cursos en los que se ha llevado el programa.
Cobertura del los cursos programados.
* Porcentaje medio de alumnos/as que han
programa * El programa se ha llevado a cabo
asistido.
con todos los alumnos/as previsto.
* Se han realizado todas las activi-
* Nº total de actividades realizadas.
daes a lo largo del programa.
* Nº de actividades por Bloq. Contenido.
* Se han realizado las actvs. de
* Inclusión de alguna actividades.
acuerdo a la metodología estable-
Actividades * Supresión de alguna actividades.
cida
* Modificación de alguna actividades.
* Se han realizado todas las actvs.
* Nº total de actvs. con los tutores.
previstas con los tutores partici-
* Momentos de encuentro.
pantes.
* Nº de sesiones y horas diseñadas / Nº de
sesiones y horas realizadas.
* Nº espacios planificados/ nº espacios utili-
Temporaliza-
* El programa se ha realizado en el zados.
ción
tiempo previsto. * Frecuencia con la que se utilizaron.
(Coordenadas
* El programa se ha desarrollado en * Realización de las actvs. en el Tº previsto.
Espacio
el espacio planificado. * Disminución /aumento del Tº previsto para
Temporales )
las actividades en las sesiones.
* Puntualidad en el inicio de las actvs.
* Puntualidad en la finalización.
* Los agentes encargados de llevar a * Nº de agentes previstos/Nº de agentes reales.
Funciones de los
cabo el prog. responden según lo * Nº de actvs. planificadas para los agentes /
Agentes
planificado. Nº de actvs. ejecutadas.
* Se han utilizado todos los recursos * Nº de Recursos diseñados / Nº de recursos
Recursos materiales previstos en el planifi- usados.
cación y en el prog. * Frecuencia en la utilización.

En resumen, en esta cuarta fase de evalua- Lo que realmente interesa en esta fase es eva-
ción, se debe recoger información sobre el luar la identificación y adecuación de las acti-
cumplimiento del programa en su cobertura, vidades diseñadas al contexto real, responder a
realización de actividades, ejecución de la tem- la pregunta de si existe o no actividades uni-
poralización implicación y cumplimiento de formes implementadas de manera sistemática
funciones por los agentes, utilización de recur- (Alvira, 1991); en definitiva queremos evaluar
sos... Para ello se debe tener muy claro cuáles si las actividades que se están implementando
son los aspectos nucleares del programa y las son las adecuadas en las coordenadas espa-
unidades de análisis a utilizar (muestreo si es el cio/temporales establecidas y se pueden desa-
caso) de modo que se pueda realizar correcta- rrollar con los instrumentos, medios y recursos
mente la comparación entre lo planificado y lo prefijados.
realizado porque en resumen, en esta fase se b) La evaluación de desarrollo
quiere ver cómo se desenvuelve en la praxis y Si la evaluación de la implementación se re-
realidad diarias, el programa de intervención fiere a «qué» se hace en un programa, la eva-
orientadora diseñado previamente, comparando luación de desarrollo explica el «cómo» (Mu-
el modelo ideal con el modelo real que se desa- nicio,1992:389); es decir, qué requisitos debe
rrolla. cumplir el proceso de puesta en marcha para

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 10


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

que se considere adecuado, correcto, acorde con La evaluación del proceso viene a cubrir en
un buen desarrollo del mismo. gran parte el binomio programa-factor humano,
Es la fase en la que resulta más difícil definir tanto en la faceta del modo de realización de
los criterios e indicadores porque es donde más actividades o tareas como en la de las relacio-
claramente entra en juego la visión subjetiva nes que se establecen entre los miembros impli-
del evaluador, o si se quiere, los aspectos más cados en el programa (agentes y sujetos). En
cualitativos del marco teórico del evaluador, este sentido la evaluación de proceso nos debe
por lo que es frecuente que, mientras en las de indicar la adecuación de la actuación (com-
demás etapas o tipos de evaluación se logra portamientos) de los agentes del programa, tan-
definir los criterios de cumplimiento con mayor to a los objetivos del mismo como a los estilos
o menor dificultad guiandose por la propia fina- de actuación y metodologías previstos, así co-
lidad y objetivos de la fase, la de desarrollo se mo las respuestas de los sujetos del programa a
presta a pretender un visión comprensiva del dichos comportamiento. En cierto modo impli-
programa, por lo que se intenta embutir en esta ca, entre otros aspectos una evaluación o auto-
fase los apectos que no quedan contemplados evaluación del orientador o agente.
en otras fases, o que supuestamente quedan De otro lado, la evaluación de desarrollo debe
«limitados» por un enfoque muy cuantitivista, analizar la adecuación del formato técnico del
lo que facilita la traducción de los deseos del programa (estrategias, recursos, actividades,
orientador en criterios e indicadores practica- tareas...) a los objetivos del programa, en tanto
mente inaprensibles y/o en listados amplísimos, que su realización ayude al logro de los mis-
con lo que la confusión puede estar servida. mos, así como el papel real que dicho formato
Por ello es conveniente que se aplique en esta técnico juega en la realización del programa, en
fase con más empeño que en las demás el prin- la línea de la evaluación de pertinencia o pro-
cipio de parsimonia, de forma que es preferible piedad y de idoneidad o suficiencia que señalan
fijar unos pocos criterios claros y que se traduz- Aguilar y Ander-Egg (1992:48). En otras pala-
can en indicadores objetivos, aunque sean, tanto bras, se trata de analizar cómo se han instru-
en su naturaleza y en el método de recogida de mentalizado y utilizado los recursos técnicas y
información como en su tratamiento de análisis, procedimientos del programa. Para ello es ne-
de carácter cualitativo, (lo cual no está reñido cesario además de la formulación de criterios e
con su carácter científico). Esto es necesario a indicadores que nos señalen el modo y adecua-
pesar de que parezca que dejamos al margen ción del proceso (agentes, relaciones y formato
aspectos que creamos «interesantes», pero que técnico), el contar con un apropiado sistema de
harían muy complejo el proceso de evaluación control e información sobre la marcha del pro-
o que nos lleve a pretender evaluar o controlar grama que permita revisiones periódicas del
matices claramente no evaluables por su difícil mismo.
especificación. En definitiva, debido a la difi- La metodología en esta fase puede ser muy
cultad intrínseca que la finalidad de la fase en- amplia, al adaptarse a la naturaleza cuantitativa
cierra, se debe tener en cuenta estrictamente los o cualitativa de los indicadores. Por ello preci-
principios de selección y fijación de criterios e samente es necesario fijar con más exactitud el
indicadores. instrumento con que se va a medir cada uno de
Siguiendo nuestras propias recomendaciones los indicadores en cada caso en particular (pro-
y apoyandonos en las dimensiones revisionadas grama). De modo general, se puede indicar co-
en la literatura especializada, hemos fijado co- mo instrumentos apropiados en esta fase los
mo dimensiones básicas en la evaluación del cuestionarios, escalas de observación, diario de
desarrollo del programa: sesiones, entrevistas...
(a) El binomio programa- factor humano En cuanto a la temporalización, si bien puede
(b) Evaluación de la actuación del agente aplicarse lo dicho en la subfase anterior, cabe
(c) Análisis técnico del programa una mayor flexibilidad en la recogida de infor-

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 11


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

mación, al depender de otras personas y no sólo rior a la aplicación del programa la temporali-
del investigador/orientador y por tanto se hace zación se adaptará a esta circunstancia.
precisa una más exacta planificación de los De igual modo, es necesario fijar los niveles
puntos temporales en que se va a realizar. Lógi- de cumplimiento de los criterios e indicadores,
camente, estas precisiones son aplicables en el adaptandose a los datos concretos que se pidan
caso en que el diseño de evaluación coincide en cada caso.
con el diseño del programa y se pretende reali- Como en las fases anteriores brindamos, a
zar la evaluación durante la aplicación y desa- modo indicativo, algunos de los criterios e indi-
rrollo del programa, tanto de modo externo co- cadores en que se pueden especificar las tres
mo interno. En el caso de una evaluación poste- dimensiones antes dichas.

Cuadro 4: Criterios e indicadores de la evaluación del desarrollo

DIMENSIÓN CRITERIOS INDICADORES

a.1. Los destinatarios muestran interés (formulan


preguntas-cualidad).
A. Motivación del programa a. 2. Realizan las actividades indicadas
a. 3. Opinión de los destinatatrios.
a. 4. Atención
b.1. Nª de intervenciones positivas.
b.2. Interacciones que se producen.
B. Participación en el programa
b.3. Nª de alumnos que intervienen.
Binomio pro- b.4. Opinión.
grama/ factor hu-
c.1. Inexistencia de conflictos interrnos.
mano
c.2. Confianza con el orientador.
C. Creación del clima
c.3. Buena conducta y predisposición
c.4. Receptividad de los sujetos.
d.1.Presentación de las actividades asu tiempo.
D. Aprovechamiento del tiempo d.2. Realización de actividades en el tiempo previsto.
d.3. No hay disgresiones del tema general.
e.1. Nº de asistentes.
E. Asistencia
e.2. Nº de retrasos en el inicio de las sesiones.
a.1. Receptividad de las intervenciones.
a.2. Facilitación de información.
A. Actitud positiva y motivadora du-
a.3. Establecimiento de un buen clima.
rante el programa.
a.4. Opinión de los destinatarios.
Evaluación y ac- a.5. Lenguaje adaptado a los sujetos.
tuación del agente
b.1. Preparación previa de las sesiones.
b.2. Preparación previa de las actividades.
B. Adecuación técnica.
b.3. Cumplimiento del horario.
b.4. Ajuste a la metodología prefijada.
a.1. Grado de dificultad de las actividades
A. Facilidad - Asequibilidad del pro- a.2. Preguntas sobre lo que han de hacer.
grama. a.3. Corrección de las "tareas" de los alumnos.
a.4. Opinión de los destinatarios.
B. Adecuación y suficiencia de activi- b.1. Realización de más actividades
Análisis técnico dades. b.2. Supresión de actividades programadas.
del programa
C. Adecuación y suficiencia de mate- c.1. Supresión y/o inclusión de materiales.
riales.. c.2. Adaptación de materiales.
d.1. El nª de sesiones es suficiente para los contenidos,
D. Adecuación de da temporalización actividades y los objetivos del programa
d.2. El tiempoo previsto para cada actividad es suficiente

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 12


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

5ª Fase: Evaluación de la eficacia de la eficiencia basada en la relación coste-


efectividad, coste-utilidad del programa, que
Por fin, la última fase de nuestro modelo, la son las mas provechosas en Orientación, para lo
evaluación de la eficacia del programa de que podemos establecer una serie de indicado-
Orientación, trata de realizar una evaluación de res cuantitativos que nos permitirán evaluar los
resultados y efectos del programa, es decir, resultados del programa, como por ejemplo
consiste como expresa Aguilar y Ander-Egg indicadores de demanda, de participación, de
(1992) en comprobar en qué medida se están fondos…
alcanzando los resultados previstos y también
los efectos y resultados no previstos. En ella se La posible realización de éstos u otros tipos
trata de recoger suficiente información para de evaluación se deben hacer de modo subsidia-
saber si el programa está o no consiguiendo los rio a la finalidad de esta fase de evaluación, que
resultados esperados, a través de dos preguntas no es otra que comprobar el logro de los objeti-
principalmente: vos y los efectos del programa y las posibles
causas de los mismos.
(a) ¿Se están consiguiendo los resultados es-
perados? Es primordialmente para el cumplimiento de
esta fase para el que se planea el diseño de in-
(b) ¿Estos resultados guardan relación y con- vestigación y en la que cabe, desde el enfoque
cordancia con el programa diseñado?, es que nos situamos, un mayor número y comple-
decir, ¿los resultados obtenidos son efecto jidad de los análisis estadísticos, aun mante-
del programa desarrollado o de otras varia- niendose en una evaluación de tipo descriptivo.
bles o aspectos no contemplados?
Los criterios y sus indicadores serán básica-
Para contestar «eficazmente» a ellas, los ob- mente los de los objetivos y metas del programa
jetivos y resultados esperados deben estar per- (por ello no es posible dar indicaciones genera-
fectamente identificados y tener una atribución les sobre ellos) y en segundo término los dirigi-
unívoca, de modo que se pueda establecer fá- dos a la evaluación global/final, en la que se
cilmente el nivel de logro alcanzado en la con- puede incluir, como hemos visto, la evaluación
secución de los objetivos, si el mismo es debido de impacto, de efectos colaterales y de eficien-
al diseño, implementación y proceso del pro- cia.
grama y si se han obtenido otros efectos además
de los previstos. Sobre la metodología cabe reiterar lo pro-
puesto para las fases anteriores, si bien se debe
En definitiva, lo que estamos proponiendo en hacer más hincapié en los instrumentos que
esta última fase es no sólo el análisis del logro faciliten la recogida de datos cuantitativos y
de objetivos, sino una evaluación global/final objetivos.
del programa a partir de establecer la relación
entre la consecución de resultados y las posi- En cuanto a la temporalización, va a depender
bles causas de los mismos, ya que en ocasiones de los propios objetivos del programa. En todos
la mera evaluación de la eficacia puede resultar los caso habrá una evaluación al término del
un dato pobre para la toma de decisiones sobre programa, pero dependiendo del tipo de pro-
el programa. grama y de los objetivos del mismo puede ser
necesario realizar una evaluación de resultados
Por ello puede ser necesario incluir otros ti- durante la puesta en marcha del programa. Es el
pos de evaluación que completen la de resulta- caso, por ejemplo, de los programas en los que
dos. Así se puede realizar una evaluación del sea preciso el logro del un objetivo para poder
impacto de los resultados en el contexto en el conseguir los siguientes, como ocurre con mu-
que se desarrolla el programa y sobre los otros cha frecuencia en las intervenciones de recupe-
subsistemas a los que no iba dirigido el mismo; ración o en programas de toma de decisión vo-
o bien una evaluación de efectos colaterales o cacional en los que es necesario que los sujetos
de efectos no previstos, e incluso la evaluación

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 13


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

adquieran un conocimiento de sí mismo, del Herr (1976) demostrar que se ha hecho lo que
objeto de elección y del proceso de toma de se quería hacer, a lo que nosotras añadimos, de
decisión antes de poder aplicarlo al campo de la mejor manera posible. Para ello el modelo
toma decisión vocacional y poder lograr el/los propone las diferentes fases, que responden a
objetivos del programa sobre la correcta toma las siguientes preguntas básicas:
de decisión vocacional. En otras ocasiones y (1) ¿Por qué y para quién evaluamos?
dado el carácter retroalimentador del modelo de
evaluación que proponemos, será conveniente, (2) ¿Qué programa vamos a evaluar?
siempre que los objetivos lo permitan, realizar
evaluaciones parciales del logro de objetivos (3) ¿Se puede evaluar ese programa?
que puedan indicar la continuación o modifica-
(4) ¿Se ha llevado a cabo el programa tal y
ción del programa tal y como se diseñó.
como se diseñó?; ¿Cómo ha sido esa puesta
Síntesis en marcha y por qué funciona el programa?

El modelo de evaluación propuesto, destinado (5) ¿Se ha logrado lo que nos proponíamos y
a la toma de decisiones de programas de inter- por qué?
vención orientadora, pretende ser un esquema
secuenciado y lógico, que permita a los orienta- A continuación ofrecemos una representación
dores, siguiendo la ya clásica afirmación de gráfica del modelo de evaluación propuesto:

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 14


Hernández Fernández, J. y Martínez Clares, P. (1996). Propuesta metodológica para evaluar programas de orientación
educativa. RELIEVE, 2 (2), art. 1. http://www.uv.es/RELIEVE/v2n2/RELIEVEv2n2_1.htm

Referencias Hernández, J.Mª y Rubio, V.J. (1992). Análisis


de la evaluabilidad: paso previo de la evalua-
Aguilar, Mª.J. y Ander-Egg, E. (1992). Evalua- ción de programas. Bordón , 43(4), 397-405.
ción de servicios y programas sociales. Ma-
drid: Siglo XXI. Herr, E. L. (1976). Counseling: Accountability,
reality, credibility. Journal of Counseling
Alvira, F. (1991). Metodología de evaluación Services, 1, 14-23.
de programas. Madrid: CIS-Cuadernos Me-
todológicos. Municio, P. (1992). La evaluación segmentada
de programas. Bordón, 43 (4), 375-395.
Berk, R.A. y Rossi, P.H. (1990). Thinking
About Program Evaluation. Sage: Newbury Rodríguez Espinar, S. (1986). Proyecto docente
Park. e investigador (Orientación Educativa). Uni-
versidad de Barcelona. (Inédito.)
Hernández, J. y Martínez, P. (1994). Pautas
para la evaluación de un programa de orienta-
ción. Revista de Investigación Educativa,
(23), 598-604.

ABOUT THE AUTHORS / SOBRE LOS AUTORES

Herández Fernández, Josefina (jhernan@fcu.um.es). Facultad de Educación. Departamento de Métodos de


Investigación y Diagnóstico en Educación. Buscar otros artículos de esta autora en Google Académico / Find

other articles by this author in Scholar Google

Martínez Clares, Pilar (pmclares@fcu.um.es). Facultad de Educación. Departamento de Métodos de Investi-


gación y Diagnóstico en Educación.Buscar otros artículos de este autor en Google Académico / Find other ar-

ticles by this author in Scholar Google

RELIEVE
Revista ELectrónica de Investigación y EValuación Educativa
E-Journal of Educational Research, Assessment and Evaluation
[ISSN: 1134-4032]
© Copyright, RELIEVE. Reproduction and distribution of this articles it is authorized if the content is no modified
and their origin is indicated (RELIEVE Journal, volume, number and electronic address of the document).
© Copyright, RELIEVE. Se autoriza la reproducción y distribución de este artículo siempre que no se modifique el
contenido y se indique su origen (RELIEVE, volumen, número y dirección electrónica del documento).

RELIEVE- Revista ELectrónica de Investigación y EValuación Educativa [ www.uv.es/RELIEVE ] pag. 15

Вам также может понравиться