Вы находитесь на странице: 1из 22

1.

LAS CONCEPCIONES EVALUATIVAS DE SCRIVEN


Para Scriven la evaluacin consiste en determinar el valor y la calidad de algo y las evaluaciones son los resultados de dicho proceso. Ello implica determinar: - los criterios de su mrito, desde las necesidades de mejora concretadas en las metas que pretende el programa - las normas de mrito, o los indicadores que reflejan las metas, que nos van a permitir comprobar la realizacin La comparacin entre lo deseable, lo posible y lo conseguido nos permitir obtener los resultados, y as realizar el juicio evaluativo, procurando siempre que el resultado de la evaluacin sea comprendido por quien se quiera que reciba esa informacin: el director de un centro, la asociacin de padres, los profesores, los alumnos, Los trminos evaluacin formativa y evaluacin sumativa, acuados por Scriven, estn relacionados con 2 modos de sensibilidad hacia las necesidades de los programas. La evaluacin formativa es realizada desde el inicio del programa y durante su desarrollo con el fin de recoger informacin til, y a tiempo, de los efectos del programa para introducir cambios de mejora. La evaluacin sumativa es realizada una vez que ha terminado el programa, o en determinados momentos claves del mismo, y su objetivo principal es recoger informacin sobre el valor y mrito del programa, sobre los resultados finales. La evaluacin formativa es fundamental para la mejora continua de lo que se est evaluando, pero debe estar tambin al servicio de la evaluacin sumativa, que es el mximo objetivo de la evaluacin. Scriven considera que el evaluador debe atender no slo las demandas del que toma las decisiones, de la persona que contrata al evaluador, sino que debe atender tambin a las personas que son evaluadas, recoger sus necesidades y darle respuesta informndole de los resultados de la evaluacin.

2.PRINCIPALES CONCEPCIONES DE CRONBACH SOBRE LA EVALUACIN DE PROGRAMAS. Para Cronbach la evaluacin deber ser plural tanto en sus elementos como en los temas con los que trabaje. Tambin est convencido de la posibilidad de generar conocimiento que permita extrapolarse a personas, situaciones, tratamientos y observaciones estudiadas para relacionarlas con poblaciones y clases no estudiadas. Cronbach trata de resolver la limitacin existente de los diseos de investigacin, los cuales se interesan ms por la validez interna que por la externa. Llam a su teora funcional. Cronbach aplica su teora en planes para futuros programas que estn siendo puestos en funcionamiento con la intencin de imitar las condiciones de su futura implantacin. En su libro de 1980 este era uno de los 4 contextos donde la evaluacin cumpla su funcin. Los contextos eran: iniciacin del programa superrealizacin del programa prototpico aplicacin real del programa, cuando se pone en funcionamiento de un modo normal Cronbach no considera importante este ltimo estadio, el de aplicacin real del programa, ya que es inmune a una evaluacin seria; difcilmente se consideran los resultados de una evaluacin cuando un programa est ya funcionando, es mucho ms eficaz en el perodo prototpico, que equivaldra a la aplicacin piloto del programa, donde las condiciones de aplicacin deben ser lo ms idnticas a la realidad. Pero Cronbach reconoce que las evaluaciones de programas en funcionamiento pueden contribuir a mejorar elementos que trabajan mal y, de esa manera, repercutir positivamente en la totalidad del programa y en todas las situaciones y mbitos en los que se aplica. 3. FINALIDAD DE LA LISTA DE LAS CLAVES DE CONTROL PARA LA EVALUACIN DE PROGRAMAS.

La lista de las claves de la evaluacin para la evaluacin de programas, de polticas y la evaluacin de sus evaluaciones (LCE), ha sido tomada de Scriven. La lista de las claves para la evaluacin es una herramienta para el evaluador activo, o prctico, a quien se le supone conocimientos bsicos sobre la disciplina de la evaluacin y de su vocabulario especfico. El trmino 'evaluacin' se utiliza para significar la determinacin del mrito, valor, o significacin (abreviado el m/v/s) del objeto evaluado. sta no es una lista de control lineal, sino reiterativa, es decir, debe revisarse ms de una vez, y con distintos propsitos, por ejemplo, para el diseo de un programa, o para la evaluacin de la evaluacin.
4.LAS NORMAS DE JOINT COMIT PARA LA EVALUACIN DE PROGRAMAS.

Incluimos una sntesis de las normas del Joint Committee on standards for evaluacin, por las que deben ser juzgadas las evaluaciones: - Normas de utilidad: Para asegurar que sirve a las necesidades de informacin prctica, centrada en cuestiones importantes. Los estndares de utilidad guiarn la evaluacin de tal forma que sean relevantes, oportunos y de influencia. Deben facilitar informes basados en evidencias, sobre aspectos positivos y negativos y debe aportar soluciones para mejorar. - Normas de viabilidad: Para asegurar que la evaluacin es realista y prudente. Debe utilizar procedimientos eficientes que no ocasionen demasiados problemas. Los estndares de viabilidad reconocen que las evaluaciones se realizan en contextos naturales, sus diseos deben ser operativos y sus gastos, en material, personal o tiempo, no deben exceder al requerido por las cuestiones de la evaluacin. - Normas de honradez: Para asegurar que la evaluacin es conducida legal y ticamente, basada en compromisos explcitos, que aseguren la necesaria cooperacin, la proteccin de los grupos implicados, y la honestidad de los resultados. - Normas de precisin: Para asegurar que la evaluacin revela comunica lainformacin encontrada; describe con claridad el objeto evaluado en su evolucin yen su contexto; revela las virtudes y defectos de/ plan de evaluacin, de losprocedimientos y de las conclusiones (nieta-evaluacin) y proporciona conclusiones vlidas y fidedignas. Las conclusiones y los juicios deben ser coherentes con los datos,
5. LA DEFINICIN DE EVALUACIN DE PROGRAMAS DE STUFFLEBEAM.
Stufflebeam define la evaluacin como un proceso mediante el cual se proporciona informacin til para la toma de decisiones. As pues, la evaluacin consiste en un proceso con 3 etapas: identificar, obtener y proporcionar informacin acerca de un progrma valorado en sus metas, su planificacin, su realizacin y su impacto, con la finalidad de guiar la toma de decisiones, proporcionar informacin y contribuir a su comprensin, y con el criterio de responder a las necesidades y de calidad.

6. DEFINICIN DE EVALUACIN FORMATIVA Y EVALUACIN SUMATIVA.


La evaluacin formativa es realizada desde el inicio del programa y durante su desarrollo con el fin de recoger informacin til, y a tiempo, de los efectos del programa para introducir cambios de mejora. La evaluacin sumativa es realizada una vez que ha terminado el programa, o en determinados momentos claves del mismo, y su objetivo principal es recoger informacin sobre el valor y mrito del programa, sobre los resultados finales.

7. LA DEFINICIN DE CALIDAD EN EDUCACIN.


La OCDE (1995) define la educacin de calidad como aquella que "asegura a todos los jvenes la adquisicin de los conocimientos, capacidades destrezas y actitudes necesarias para equipararles para la vida adulta". No obstante hay que tener en cuenta que no es lo mismo preparar para la vida adulta en un entorno rural, relativamente sencillo y estable, que en el entorno complejo y cambiante de una enorme ciudad; ni es lo mismo educar aceptando sin ms el modelo actual de sociedad que considerando la posible construccin de un mundo mejor para todos. Otra definicin sera: "La escuela de calidad es la que promueve el progreso de sus estudiantes en una amplia gama de logros intelectuales, sociales, morales y emocionales, teniendo en cuenta su nivel socioeconmico, su medio familiar y su aprendizaje previo. Un sistema escolar eficaz es el que maximiza la capacidad de las escuelas para alcanzar esos resultados."

8. DEFINICIN DE AUTOEVALUACIN APLICADA A LA EVALUACIN DE ORGANIZACIONES EDUCATIVAS.

La evaluacin de un programa se hace con la finalidad de constatar el grado de eficacia con que consigue logra las metas para las que fue elaborado. Dada la complejidad que encierra un programa, es asumirle que puede mejorarse. Y para poder llevar a cabo las decisiones de mejora cobra sentido la actividad evaluativa. Esta actividad evaluativa est pensada para ser realizada en tres momentos, cada uno de ellos con entidad y objetivos propios, y juntos contribuyen a la mejora del programa en su totalidad.
9. HAGA UNA SINTESIS DEL MODELO DE EVALUACIN DE PROGRAMAS CIPP DE STUFFLEBEAM Y COLABORADORES.
Estos autores desarrollaron un marco conceptual para ayudar a los organizadores y administradores a enfrentarse a los cuatro tipos de evaluaciones, que abarca el modelo, junto con sus correspondientes decisiones, que, en sntesis, consiste en lo siguiente: 1 La evaluacin del contexto, para servir a la toma de decisiones de planificacin, que, tras el anlisis de las necesidades del contexto, deber determinar las necesidades de elaboracin, o seleccin, de un programa educativo, con una clara definicin de sus propsitos o de sus objetivos, para atender a las necesidades detectadas.

2.

La evaluacin de entrada, al servicio de las decisiones de organizacin, estructurales, que nos indican los recursos disponibles, y los que seran ne cesa rios , las diferent es es tra teg as alt er na tivas par a mejor ar la aplicacin del programa, y los planes que aportan un mayor potencial p a r a d is e a r l a pl an ifi c ac i n qu e o ri en t e c m o d eb e s e r a pl ic ad o el programa.

3.

La evaluacin de proceso, al servicio de las decisiones de implementacin qu e n os i nfo rm ar s ob re c m o s e e s t re al i za nd o el p la n p rev is to y las revisiones necesarias para mejorar la

aplicacin del programa.

4.

La evaluacin de producto, al servicio de las decisiones de reciclaje, que nos informacin sobre los resultados

aportar

obtenidos,informando acerca de cmo han sido

reducidas las necesidades, enintensidad, adecuacin, y calidad, y, de acuerdo con los resultados, o r i e n t a r s o b r e q u s e d e b e h a c e r c o n e l p r o g r a m a d e s p u s d e s u aplicacin.

10. EL MODELO DE EVALUACIN PROGRAMAS DE LA FIGURA DE STAKE.

Estos autores desarrollaron un marco conceptual para ayudar a los organizadores y administradores a enfrentarse a los cuatro tipos de evaluaciones, que abarca el modelo, junto con sus correspondientes decisiones, que, en sntesis, consiste en lo siguiente: 1 La evaluacin del contexto, para servir a la toma de decisiones de planificacin, que, tras el anlisis de las necesidades del contexto, deber determinar las necesidades de elaboracin, o seleccin, de un programa educativo, con una clara definicin de sus propsitos o de sus objetivos, para atender a las necesidades detectadas. 2. La evaluacin de entrada, al servicio de las decisiones de organizacin, estructurales, que nos indican los recurso s disponibles, y los que seran necesarios, las diferentes estrategas alternativas para mejorar la aplicacin del programa, y los planes que aportan un mayor potencial para disear la planificacin que oriente cmo debe ser aplicado el programa. 3. La evaluacin de proceso, al servicio de las decisiones de implementacin que nos informar sobre cmo se est realizando el plan previsto y las revisiones necesarias para mejorar la aplicacin del programa. 4. La evaluacin de producto, al servicio de las decisiones de reciclaje, que nos aportar informacin sobre los resultados obtenidos, informando acerca de cmo han sido reducidas las necesidades, en intensidad, adecuacin, y calidad, y, de acuerdo con los resultado,

orienta r sobre qu se debe hacer co n el p rog rama despus de su aplicacin.


12. COMENTE LAS PRINCIPALES APORTACIONES DE SCRIVEN A LA EVALUACIN DE PROGRAMAS Y A LA EDUCACIN.

Para Scriven la evaluacin consiste en determinar el valor y la calidad de algo y las evaluaciones son los resultados de dicho proceso. Ello implica determinar: - los criterios de su mrito, desde las necesidades de mejora concretadas en las metas que pretende el programa - las normas de mrito, o los indicadores que reflejan las metas, que nos van a permitir comprobar la realizacin La comparacin entre lo deseable, lo posible y lo conseguido nos permitir obtener los resultados, y as realizar el juicio evaluativo, procurando siempre que el resultado de la evaluacin sea comprendido por quien se quiera que reciba esa informacin: el director de un centro, la asociacin de padres, los profesores, los alumnos, Los trminos evaluacin formativa y evaluacin sumativa, acuados por Scriven, estn relacionados con 2 modos de sensibilidad hacia las necesidades de los programas. La evaluacin formativa es realizada desde el inicio del programa y durante su desarrollo con el fin de recoger informacin til, y a tiempo, de los efectos del programa para introducir cambios de mejora. La evaluacin sumativa es realizada una vez que ha terminado el programa, o en determinados momentos claves del mismo, y su objetivo principal es recoger informacin sobre el valor y mrito del programa, sobre los resultados finales. La evaluacin formativa es fundamental para la mejora continua de lo que se est evaluando, pero debe estar tambin al servicio de la evaluacin sumativa, que es el mximo objetivo de la evaluacin. Scriven considera que el evaluador debe atender no slo las demandas del que toma las decisiones, de la persona que contrata al evaluador, sino que debe atender tambin a las personas que son evaluadas, recoger sus necesidades y darle respuesta informndole de los resultados de la evaluacin.

13. HAGA UNA SNTESIS DEL MODELO EUROPEO DE EXCELENCIA ADAPTADO A LOS CENTROS EDUCATIVOS. 14. QUE METODOLOGIAS DE INVESTIGACIN PROPONE CRONBACH PARA EL DISEO DE EVALUACIONES DE PROGRAMAS. Los mtodos para generalizar desde los utos a los UTOS son: Una clara especificacin de los planes y las acciones que generan datos y desarrollan una conclusin a partir de los mismos Controles sobre la realizacin de los acontecimientos del programa y las operaciones evaluativos Restricciones de la indagacin y de las inferencias a unos comparativamente estrechos y homogneos UTOS La generalizacin de los UTOS a los UTOS, que no corresponden a las poblaciones estudiadas, es ms complejo, y corresponde al concepto de la validez externa: la extrapolacin de la informacin ms all de las poblaciones estudiadas. 3 estrategias para realizar la extrapolacin: Analizar los datos de subpoblaciones, disponibles en los estudios que se han hecho, seleccionando de los mismos la subpoblacin ms prxima y similar al programa y poblacin que interesa al patrocinador que nos pide la informacin A travs de una explicacin causal. Es decir, explicar cmo un tratamiento tiene un particular efecto. Las explicaciones promueven la transferencia porque dicen qu procesos deben ocurrir para conseguir un efecto y estimula el pensamiento sobre los diferentes modos molares en los cuales uno podra activar un particular proceso de mediacin. Es el mejor modo de promover la validez externa En relacin con el modo en que los hallazgos de la evaluacin son diseminados. Para ello los evaluadores deben presentar la informacin de un modo narrativo; de un modo vvido, colorista, detallista, frecuente, informal y sensible a las singulares necesidades de cada audiencia

15. DEFINICIN DE EVALUACIN DE PROGRAMAS DE PREZ JUSTE.

Para Prez Juste la evaluacin de programas es una actividad pedaggica orientada a la mejora de los programas, del educando y del educador, de una manera directa, e indirectamente tambin acta en la mejora de variables organizativas y tcnicas y medioambientales, sobre los programas mismos. Por programa educativo entiende un plan sistemtico de intervencin, especfica e intencionalmente elaborado, al servicio de metas consideradas valiosas desde una perspectiva pedaggica. Los programas educativos vienen definidos por las notas siguientes: Complejidad. Dificultad. Duracin. Procesualidad . Mantenimiento y transferencia. .
16. LAS LISTAS DE LAS CLAVES DE CONTROL PARA LA EVALUACIN Y LA METAEVALUACIN.

La lista de las claves para la evaluacin es una herramienta para el evaluador activo, o prctico, a quien se le supone conocimientos bsicos sobre la disciplina de la evaluacin y de su vocabulario especfico. El trmino 'evaluacin' se utiliza para significar la determinacin del mrito, valor, o significacin (abreviado el m/v/s) del objeto evaluado. sta no es una lista de control lineal, sino reiterativa, es decir, debe revisarse ms de una vez, y con distintos propsitos, por ejemplo, para el diseo de un programa, o para la evaluacin de la evaluacin.

La meta-evaluacin Es decir, la evaluacin de la evaluacin para identificar sus fortalezas, sus limitaciones y otros usos. La meta -evaluacin debe ser hecha siempre por el evaluador, de un modo tan amplio como sea posible, corno de control de calidad, una vez finalizada la evaluacin, pero no slo, dado que se puede hacer dm-ante la evaluacin. Y, siempre que sea posible, tambin debe ser realizada por tur evaluador externo de la evaluacin (un meta evaluador). El criterio fundamental de mrito de las evaluaciones es la validez, junto con la utilidad, normalmente para los clientes, las audiencias y los promotores , y la credibilidad.

17.FINALIDAD DE LAS LISTAS DE LAS CLAVES DE CONTROL PARA LA EVALUACIN DE PROGRAMAS.

La lista de las claves de la evaluacin para la evaluacin de programas, de polticas y la evaluacin de sus evaluaciones (LCE), ha sido tomada de Scriven. La lista de las claves para la evaluacin es una herramienta para el evaluador activo, o prctico, a quien se le supone conocimientos bsicos sobre la disciplina de la evaluacin y de su vocabulario especfico. El trmino 'evaluacin' se utiliza para significar la determinacin del mrito, valor, o significacin (abreviado el m/v/s) del objeto evaluado. sta no es una lista de control lineal, sino reiterativa, es decir, debe revisarse ms de una vez, y con distintos propsitos, por ejemplo, para el diseo de un programa, o para la evaluacin de la evaluacin. 18. DIFERENCIAS ENTRE LAS CONCEPCIONES EVALUATIVAS DE STUFFLEBEAM Y DE STAKE.
Stufflebeam define la evaluacin como un proceso mediante el cual se proporciona informacin til para la toma de decisiones. As pues, la evaluacin consiste en un proceso con 3 etapas: identificar, obtener y proporcionar informacin acerca de un progrma valorado en sus metas, su planificacin, su realizacin y su impacto, con la finalidad de guiar la toma de decisiones, proporcionar informacin y contribuir a su comprensin, y con el criterio de responder a las necesidades y de calidad. Stake ve la evaluacin como servicio: La gente espera de la evaluacin diferentes propsitos tales corno la documentacin de los acontecimientos, el registro de los cambios, la ayuda a la toma de decisiones, la comprensin o la facilitacin de soluciones.

19. LAS NORMAS DE EXACTITUD DE JOINT COMIT PARA LA EVALUACIN DE PROGRAMAS.

La utilizacin de las normas del Joint Comite on standards for evaluacin cumplen la funcin de la meta-evaluacin para asegurar que la evaluacin ha sido viable, til y realizada de manera honrada y precisa.

- Normas de precisin: Para asegurar que la evaluacin revela

comunica la informacin encontrada; describe con claridad el objeto evaluado en su evolucin y en su contexto; revela las virtudes y defectos de/ plan de evaluacin, de los procedimientos y de las conclusiones (nieta-evaluacin) y proporciona conclusiones vlidas y fidedignas. Las conclusiones y los juicios deben ser coherentes con los datos.

20. LA FINALIDAD DE LA EVALUACIN, O FINALIDADES SEGN PREZ JUSTE.

Prez Juste concibe la evaluacin como el proceso sistemtico de recogida de informacin rigurosa -valiosa, vlida y fiable-, orientado a valorar la calidad y los logros de un programa, como base para la posterior toma de decisiones de mejora tanto del programa como del personal implicado. El objetivo de la evaluacin de los logros de un programa es comprobar la eficacia del mismo, ya sea en sentido absoluto o relativo, de cara a mantenerlo, mejorarlo, cambiarlo o suprimirlo. La metodologa a utilizar es diversa e incluye todos los diseos y tcnicas clsicos utilizados en la investigacin educativa: el evaluador deber seleccionar aquellos ms pertinentes al enfoque evaluativo, a los objetivos pretendidos y a las exigencias propias de los modelos estadsticos.

21. LAS NORMAS DE UTILIDAD DE JOINT COMIT PARA LA EVALUACIN DE PROGRAMAS.

La utilizacin de las normas del Joint Comite on standards for evaluacin cumplen la funcin de la meta-evaluacin para asegurar que la evaluacin ha sido viable, til y realizada de manera honrada y precisa.

- Normas de utilidad: Para asegurar que sirve a las necesidades de

informacin prctica, centrada en cuestiones importantes. Los estndares de utilidad guiarn la evaluacin de tal forma que sean relevantes, oportunos y de influencia. Deben facilitar informes basados en evidencias, sobre aspectos positivos y negativos y debe aportar soluciones para mejorar.
22. APORTACIONES DE CRONBACH A LA EVALUACIN DE PROGRAMAS. Cronbach necesitaba describir, a su modo, la validez interna y la externa; para ello inventa un grupo de smbolos. Utiliza en letras minsculas la expresin utos, refirindose a los datos reales recogidos en trminos de unidades o personas, tratamientos, observaciones y situaciones; los UTOS (con letras maysculas) se refieren a poblaciones de unidades, tratamientos, observaciones y situaciones sobre las cuales fueron formuladas las cuestiones de la investigacin y a las cuales los utos particulares se suponen que corresponden. Los UTOS se refieren a las poblaciones de personas, tratamientos, observaciones y situaciones que manifiestamente son diferentes de aquellas de las que se han obtenido las muestras correspondientes de utos. Las poblaciones en cualquier estudio no son homogneas. Los UTOS son el dominio ms relevante para la aplicacin de la investigacin social debido a que tiene que ver con la transferencia de los hallazgos investigativos ms all de los contextos en los que se generan. Las extrapolaciones mltiples son tiles pero ninguna ms importante que aquellas que puedan hacerse para los UTOS por su potencial inters para los patrocinadores en el presente y en el futuro. Para Cronbach la validez es una propiedad de las conclusiones; para l tiene poco sentido hablar de validez de los mtodos o de los estudios. La validez es subjetiva. La validez interna de Cronbach se interesa por las inferencias de los utos muestrales a los UTOS poblacionales para intentar lograr la generalizacin. De acuerdo con Cronbach, muchos patrocinadores de programas valoran un segmento particular del espacio dentro de los UTOS que refleja sus necesidades de informacin particulares. Para maximizar la utilidad de tal heterogeneidad de necesidades se requiere un conocimiento que trascienda cualquier grupo limitado de personas, tratamientos, situaciones o resultados; encontrar tales necesidades es el mayor propsito de la evaluacin, luego la extrapolacin del conocimiento de la validez externa de los UTOS a los UTOS toma su precedente del conocimiento de la validez interna.

El punto de partida de Cronbach es el muestreo de unidades o personas, tratamientos, observaciones situaciones estudiadas. Su validez externa se interesa porque los objetivos puedan ser generalizados. La validez externa es importante porque los patrocinadores individuales a menudo quieren aplicar el conocimiento existente a personas, situaciones, tratamientos y observaciones de las que ellos son responsables. Raramente todas estas particularidades estn contenidas en la base del conocimiento existente por lo que los usuarios deben extrapolar la informacin ms all de los datos disponibles. Tal extrapolacin es difcil y no ha sido objetivo central de ninguna teora de diseos de investigacin e interpretacin reconocida. 23. EL MODELO DE EVALUACIN DE PROGRAMAS DE PREZ JUSTE.

Para Prez Juste la evaluacin de programas es una actividad pedaggica orientada a la mejora de los programas, del educando y del educador, de una manera directa, e indirectamente tambin acta en la mejora de variables organizativas y tcnicas y medioambientales, sobre los programas mismos. Por programa educativo entiende un plan sistemtico de intervencin, especfica e intencionalmente elaborado, al servicio de metas consideradas valiosas desde una perspectiva pedaggica. Los programas educativos vienen definidos por las notas siguientes: Complejidad. Dificultad. Duracin. Procesualidad . Mantenimiento y transferencia. .
24. EL CONCEPTO DE MEJORA CONTINUA EN LA EVALUACIN DE PROGRAMAS.

La mejora continua intenta optimizar y aumentar la calidad de un producto, proceso o servicio La Mejora Continua tienes las siguientes caractersticas:

1.

Un proceso documentado. Esto permite que todas las personas que son partcipes de dicho proceso lo conozcan y todos lo apliquen de la misma manera cada vez 2. Algn tipo de sistema de medicin que permita determinar si los resultados esperados de cierto proceso se estn logrando (indicadores de gestin) 3. Participacin de todas o algunas personas relacionadas directamente con el proceso ya que son estas personas las que da a da tienen que lidiar con las virtudes y defectos del mismo. Vindolo desde este punto de vista, una de las principales ventajas de tener un sistema establecido de Mejora Continua es que todas las personas que participan en el proceso tienen capacidad de opinar y proponer mejoras lo que hace que se identifiquen ms con su trabajo y adems se tiene la garanta que la fuente de informacin es de primera mano ya que quien plantea el problema y propone la mejora conoce el proceso y lo realiza todos los das.

25. EL CONTEXTO EN LA EVALUACIN DE PROGRAMAS. Los principales objetivos de este tipo de estudios son la valoracin del estado global del objeto, proyecto, programa, personal, instituciones y/o sis-temas educativos a evaluar, para la identificacin de sus deficiencias, la identificacin de sus virtudes en las que se pueden apoyar para subsanar las deficiencias, el diagnstico de los problemas cuya solucin puede mejorar el estado del objeto y, en general, la caracterizacin del marco en el que. se desarrolla el programa a evaluar. Y tambin, y no menos importante, si las nietas y prioridades existentes, que afirma perseguir lograr el programa, estn en consonancia con las necesidades que deben satisfacer. La evaluacin de contexto debe proporcionar una base slida para el ajuste de nietas y prioridades y para la indicacin de los cambios necesarios que debe conseguir el programa, y que deben reflejarse en esta primera parte de la evaluacin. Su metodologa es la caracterstica de la investigacin tipo encuesta, y utiliza los siguientes instrumentos tales como las entrevistas, reuniones, lecturas de informes, etc., para la recogida de, informacin, destinada a generar hiptesis acerca de los programas de intervencin, para generar los cambios necesarios para la solucin de las necesidades detectadas a las que debe servir. 26. EL MODELO CIPP DE EVALUACIN DE PROGRAMAS.
consiste en lo siguiente: 1 La evaluacin del contexto, para servir a la toma de decisiones de planificacin, que, tras el anlisis de las necesidades del contexto, deber determinar las necesidades de elaboracin, o seleccin, de un programa educativo, con una clara definicin de sus propsitos o de sus objetivos, para atender a las necesidades detectadas.

2.

La evaluacin de entrada, al servicio de las decisiones de organizacin, estructurales, que nos indican los recursos disponibles, y los que seran ne cesa rios , las diferent es es tra teg as al t er na tivas par a mejor ar la aplicacin del programa, y los planes que aportan un mayor potencial p a r a d is e a r l a pl an ifi c ac i n qu e o ri en t e c m o d eb e s e r a pl ic ad o el programa.

3.

La evaluacin de proceso, al servicio de las decisiones de implementacin qu e n os i nfo rm ar s ob re c m o s e e s t re al i za nd o el p la n p rev is to y las revisiones necesarias para mejorar la aplicacin del programa.

4.

La evaluacin de producto, al servicio de las decisiones de reciclaje, que nos informacin sobre los resultad os

aportar

obtenidos,informando acerca de cmo han sido

reducidas las necesidades, enintensidad, adecuacin, y calidad, y, de acuerdo con los resultados, o r i e n t a r s o b r e q u s e d e b e h a c e r c o n e l p r o g r a m a d e s p u s d e s u aplicacin.

27. LOS ESTNDARES EN LA EVALUACIN DE PROGRAMAS. - Normas de utilidad: Para asegurar que sirve a las necesidades de

informacin prctica, centrada en cuestiones importantes. Los estndares de utilidad guiarn la evaluacin de tal forma que sean relevantes, oportunos y de influencia. Deben facilitar informes basados en evidencias, sobre aspectos positivos y negativos y debe aportar soluciones para mejorar. - Normas de viabilidad: Para asegurar que la evaluacin es realista y prudente. Debe utilizar procedimientos eficientes que no ocasionen demasiados problemas. Los estndares de viabilidad reconocen que

las evaluaciones se realizan en contextos naturales, sus diseos deben ser operativos y sus gastos, en material, personal o tiempo, no deben exceder al requerido por las cuestiones de la evaluacin. - Normas de honradez: Para asegurar que la evaluacin es conducida legal y ticamente, basada en compromisos explcitos, que aseguren la necesaria cooperacin, la proteccin de los grupos implicados, y la honestidad de los resultados. - Normas de precisin: Para asegurar que la evaluacin revela comunica la informacin encontrada; describe con claridad el objeto evaluado en su evolucin y en su contexto; revela las virtudes y defectos de/ plan de evaluacin, de los procedimientos y de las conclusiones (nieta-evaluacin) y proporciona conclusiones vlidas y fidedignas. Las conclusiones y los juicios deben ser coherentes con los datos. 28. LA EVALUACIN DE PROGRAMAS SEGN SCRIVEN, STAKE Y PREZ JUSTE. SEMEJANZAS Y DIFERENCIAS.

Para Scriven la evaluacin consiste en determinar el valor y la calidad de algo y las evaluaciones son los resultados de dicho proceso. Ello implica determinar: - los criterios de su mrito, desde las necesidades de mejora concretadas en las metas que pretende el programa - las normas de mrito, o los indicadores que reflejan las metas, que nos van a permitir comprobar la realizacin Prez Juste concibe la evaluacin como el proceso sistemtico de recogida de informacin rigurosa -valiosa, vlida y fiable-, orientado a valorar la calidad y los logros de un programa, como base para la posterior toma de decisiones de mejora tanto del programa como del personal implicado. Enfatiza el modo de realizar la evaluacin como investigacin, sin olvidar que el objetivo de la evaluacin es el de valorar el programa. Stake ve la evaluacin como servicio: La gente espera de la evaluacin diferentes propsitos tales corno la documentacin de los acontecimientos, el registro de los cambios, la ayuda a la toma de decisiones, la comprensin o la facilitacin de soluciones. Como en la evaluacin libre de metas de Scriven, Stake destaca que se permita que la evaluacin emerja a partir de la observacin del programa, y est ms inclinado a que sirva a las personas particulares que participan en el programa que a sus patrocinadores o directores. Ve la evaluacin ms como un servicio que como un anlisis crtico. Stake dice que difiere de Scriven en ver la evaluacin para descubrir sucesos ms all de la prctica corriente: seala el papel del evaluador corno facilitador ms que como descubridor o investigador.

29. FUNCIONES DE LA EVALUACIN.


La evaluacin de los aprendizajes escolares se refiere al proceso sistemtico y continuo mediante el cual se determina el grado en que se estn logrando los objetivos de aprendizaje. Dicho proceso tiene una funcin primordial dentro del proceso de enseanza-aprendizaje, pues por medio de ella se retroalimenta dicho proceso. Si como resultado de la evaluacin descubrimos que los objetivos se estn alcanzando en un grado mucho menor que el esperado o que no se estn alcanzando, inmediatamente surgir una revisin de los planes, de las actividades que se estn realizando, de la actitud del maestro, de la actitud de los alumnos y de la oportunidad de los objetivos que se estn pretendiendo. Todo este movimiento traer como resultado un reajuste, una adecuacin que fortalecer el proceso enseanza-aprendizaje que se viene realizando; es as como la evaluacin desempea su funcin retroalimentadora. Evaluar, en otras palabras, es reunir todas las evidencias posibles que en forma objetiva podamos encontrar a favor o en contra de cada una de las actividades que se estn desarrollando dentro del proceso enseanza-aprendizaje. La evaluacin es un proceso que implica descripciones cuantitativas y cualitativas de la conducta del alumno, la interpretacin de dichas descripciones y por ltimo la formulacin de juicios de valor basados en la interpretacin de las descripciones. Refirindonos a la evaluacin como proceso para determinar el grado en que los objetivos del aprendizaje van siendo alcanzados, distinguiremos tres tipos de ella:

a. b. c.

Evaluacin diagnstica Evaluacin formativa Evaluacin sumaria

30. LA EVITACIN DE LOS PREJUICIOS EN LA EVALUACIN DE ACUERDO CON SCRIVEN. La evitacin de prejuicios Quiere minimizar la mayora de los prejuicios que se dan cuando se construyen las afirmaciones de valor. No deben ser evitados, sino que se deben hacer explcios. Por ejemplo: evaluadores que consideran msi mportantes los intereses de los organizadores que otros como los de los propios usuarios o beneficiarios del programa. Una de las soluciones es llegar a acuerdos de modo que se garantice la independencia del evaluador. El evaluador debe hacer evidentes tanto las metas explcitas como las implcitas de los programas. Las que el programa dice que pretende conseguir y en las que realmente se centra el programa en la prctica y las que logra. El trabajo del evaluador es identificar cualquier efecto del programa, pretendido no, esto es que realicen evaluaciones libres de metas, tambin llamadas evaluaciones con referencia a las necesidades 31. FASES DE LA EVALUACIN DE PROGRAMAS.
Dado que los evaluadores deben informar a todos los grupos interesados en saber, el informe no debe limitarse a un nico estilo de comunicacin. La informacin evaluativa debe aportar conocimiento, enseanza, sobre las concepciones de los problemas sociales y sobre la teora implcita ele los programas. Por eso, los informes de evaluacin deben mostrar: .Las cuestiones que han aconsejado la evaluacin. .Los procesos seguidos para realizar la evaluacin. .Las fuentes de donde toman sus datos en los diferentes momentos de la evaluacin. .Los mtodos, tcnicas e instrumentos utilizados, de acuerdo con el objetivo y la dimensin a evaluar. .Los criterios con los que se comparan los programas, su funcionamiento y sus resultados. .Los criterios en los que se basa que le llevan a emitir los juicios valorativos sobre el programa, su implementacin y sus logros. .Las recomendaciones que se derivan de la evaluacin. .El plan para incorporar las recomendaciones al programa, e indicaciones para el seguimiento de su puesta en prctica. Tras el proceso de comparacin entre los criterios, las normas, y el fun-cionamiento real, se deben integrar los resultados en un juicio de valor final, que sirva de retroalimentacin para la mejora del programa, de su funcionamiento y de las personas implicadas en l.

32. DEFINICIN DE PROGRAMA EDUCATIVO. Por programa educativo entiende un plan sistemtico de intervencin, especfica e intencionalmente elaborado, al servicio de metas consideradas valiosas desde una perspectiva pedaggica. Los programas educativos vienen definidos por las notas siguientes: Complejidad. Dificultad. Duracin.. Procesualidad. Mantenimiento y transferencia. 33. FINES DE LA EVALUACIN DE PROGRAMAS.
A veces los trminos evaluacin y diagnstico se utilizan indistintamente, siendo los adjetivos que los acompaen los que nos informen si se trata de la evaluacin de necesidades de mejora de un sujeto o el diagnstico de la problemtica de un centro educativo. El diagnstico utiliza tcnicas evaluativos para identificar, describir, clasificar, predecir y explicar las caractersticas de un sujeto o grupo de sujetos. Tanto el diagnstico como la evaluacin utilizan la medida. Ambos realizan una estimacin, pero el diagnstico tiene como finalidad la comprensin y clasificacin de los factores que expliquen una dificultad o problema e indicar e tratamiento ms adecuado para resolver la dificultad. La finalidad de la evaluacin es tambin conocer la realidad para informar, comprender y orientar la toma de decisiones de cambio y mejora, orientar para elaborar programas y adoptar medidas que conduzcan a la realizacin de acciones para el cambio y mejora.

34. PROCEDIMIENTOS QUE SE SIGUE PARA LA EVALUACIN DE PROGRAMAS EDUCATIVOS. El modelo lgico para la elaboracin y la evaluacin de los programas, fundamentado en los trabajos de Scriven, ofrece un marco terico y de organizacin para el desarrollo y comprensin de los programas y de sus objetivos, de su planificacin y de su realizacin y de su evaluaci n para la comprobacin de sus resultados y logros. La elaboracin, planificacin y desarrollo de los programas, conducen a la consecucin de unos resultados, dependientes de la gestin del programa y de los recursos para su adecuada aplicacin, y todo ello forma parte del proceso de evaluacin de un programa. En el lado de lo planeado se debe incluir una descripcin de todo lo necesario para conseguir los resultados pretendidos, es decir: 1) El propio programa. 2) Los recursos de personal, de organizacin, de financiacin y los recursos de la comunidad en la que se va a aplicar el programa.

3) Los procesos, como conjunto de estrategias planificadas para la accin. En el lado de los resultados se incluyo todo lo que el programa pretenle conseguir, y nos referimos a: 4) Los resultados directos de las actividades del programa . 5) Las metas especficas conseguidas en el corto plazo, y su grado de consecucin. 6) El impacto o metas a largo plazo, a travs de los cambios conseguidos. S los objetivos del programa son realistas y plausibles de conseguir, entonces se conseguirn. Si se cuenta con los recursos necesarios para la aplicacin de programa, entonces ser ms factible que se aplique del modo adecuado para que contribuya a conseguir los objetivos

pretendidos. Si los procesos se realizan de modo que alcance los objetivos que se pretenden desarrollar en tecla su extensin, entonces dichos objetivos se conseguirn.
35. LA EVALUACIN DE PROGRAMAS SEGN CRONBACH, SCRIVEN Y STUFFLEBEAM. SEMEJANZAS Y DIFERENCIAS.
Stufflebeam define la evaluacin como un proceso mediante el cual se proporciona informacin til para la toma de decisiones. As pues, la evaluacin consiste en un proceso con 3 etapas: identificar, obtener y proporcionar informacin acerca de un progrma valorado en sus metas, su planificacin, su realizacin y su impacto, con la finalidad de guiar la toma de decisiones, proporcionar informacin y contribuir a su comprensin, y con el criterio de responder a las necesidades y de calidad. Cronbach considera que la evaluacin educativa debe ayudar a los profesores a mejorar los resultados de sus programas desde el comienzo de su aplicacin, y no al final, una vez que toda actividad educativa se ha desarrollado. Defiende que la evaluacin debe contribuir a mejorar la educacin ms en el momento de su planificacin y desarrollo que cuando el programa se ha realizado y nicamente se evala para constatar sus resultados, positivos y/o negativos. Cronbach rechaza claramente la naturaleza de la evaluacin, pretendiendo que sea un estudio neutro. Concibe al evaluador como un educador cuyos informes van a ser juzgados para que otros aprendan, ms que como un rbitro que es contratado para decidir quin est en lo correcto y quin equivocado. Para Scriven la evaluacin consiste en determinar el valor y la calidad de algo y las evaluaciones son los resultados de dicho proceso. Ello implica determinar: - los criterios de su mrito, desde las necesidades de mejora concretadas en las metas que pretende el programa - las normas de mrito, o los indicadores que reflejan las metas, que nos van a permitir comprobar la realizacin La comparacin entre lo deseable, lo posible y lo conseguido nos permitir obtener los resultados, y as realizar el juicio evaluativo, procurando siempre que el resultado de la evaluacin sea comprendido por quien se quiera que reciba esa informacin: el director de un centro, la asociacin de padres, los profesores, los alumnos,

36. EL CONCEPTO DE EVALUABILIDAD Y EL CONCEPTO DE METAEVALUACIN. FINALIDAD Y MOMENTOS EN LOS QUE SE APLICA EN LA EVALUACIN DE UN PROGRAMA. La Evaluabilidad del programa se refiere a las posibilidades que el programa contiene para facilitarla informacin necesaria para decidir sobre su eficacia e incluso identificar los posibles elementos de mejora. Ello supone que el programa debe cumplir ciertas condiciones de calidad, tanto en lo referido a 1) la claridad y precisin del lenguaje que utilice 2) a su contenido, explicitando el marco terico de referencia, las necesidades a satisfacer, los indicadores de progreso 3) su metodologa, referida a la especificacin de las evidencias para decidir sobre su calidad, a la operativizacin de las variables en que se concretan las metas y objetivos, en la provisin de los instrumentos adecuados para la recogida de datos, con indicacin de sus caractersticas tcnicas y la previsin del tratamiento y anlisis de los datas recogidos.

La metaevaluacin, es decir, la evaluacin de la evaluacin para identificar sus fortalezas, sus limitaciones y otros usos. La meta evaluacin debe ser hecha siempre por el evaluador, de un modo tan amplio como sea posible, corno de control de calidad, una vez finalizada la evaluacin, pero no slo, dado que se puede hacer dm-ante la evaluacin. Y, siempre que sea posible, tambin debe ser realizada por tur evaluador externo de la evaluacin (un meta evaluador). El criterio fundamental de mrito de las evaluaciones es la validez, junto con la utilidad, y la credibilidad.
37. LA LGICA DE LA EVALUACIN Y LA PRCTICA EVALUATIVA EN LA CONCEPCIN DE SCRIVEN.

Los lmites de la evaluacin como disciplina son definidos, por la mayora de los tericos de la evaluacin, en trminos que la consideran un rea de evaluacin aplicada, como es la evaluacin de programas. Si embargo, Scriven defiende que la evaluacin debe ser considerada desde una concepcin ms amplia de la que forma parte la evaluacin de programas. La evaluacin de programas utiliza mtodos y tcnicas de investigacin que proceden de las Ciencias Sociales, y de otras disciplinas como el Derecho, la Lgica, la tica, as como del propio desarrollo de la Teora Evaluativa. El proceso de evaluacin no es simple. La evaluacin no es slo una mera acumulacin y sntesis de datos relevantes para la toma de decisiones. Digamos que ste es uno de los componentes de la evaluacin y uno de sus propsitos. El otro componente, y previo al anterior, es el de os criterios evaluativos que verifican los valores relevantes y las normas elegidas para la realizacin de la evaluacin. (Scriven). El primer paso para que la evolucin se constituya en una disciplina cientfica va ms all de la simple prctica evaluativa elaborando guas que orienten dicha prctica. Comienza identificando normas que gobiernen, prescriban, las evaluaciones. Este paso se encuentra desarrollado en la actualidad, en e subcampo de la evaluacin de programas. 38. EL MODELO DE EVALUACIN RESPONDIENTE A STAKE.

Stake sugera un modo para ayudar al evaluador a saber qu datos reunir, no slo en relacin con las metas pretendidas y a sus resultados, como enfatizaba el modelo de Tyler, sino tambin en relacin con los procesos, los antecedentes e incluso a los juicios. Para ello la evaluacin fue caracterizada por una serie de matrices comprensivas para la recogida de datos, una matriz para explicar la racionalidad del programa, otra con seis celdas para datos descriptivos, y otra con otras seis celdas para datos de valoracin o juicio. Las dos funciones bsicas de la evaluacin, en el modelo de la figura, son la descripcin y la valoracin o juicio. Utilizando el marco comprensivo del enfoque de evaluacin de la figura, el evaluado debe: 1. Proporcionar informacin justificativa de los huir/amemos del programa y descubrir la base racional del mismo, incluyendo sus necesidades. 2. Despus debe mencionar las intenciones de entrada, antecedentes, reclusos, y condiciones existentes, las transacciones, referidas a los procesos y a las actividades, y los resultados. 3. Recoger informacin, a travs de la observacin, sobre los antecedentes, las transacciones y los resultados, tanto los pretendidos como los no pretendidos, de las tres categoras. 4. Explicitar las normas, criterios, expectativas, rendimientos, para valorar los antecedentes, transacciones y resultados del programa y recoger los juicios hechos por la gente que participa en el programa sobre las condiciones de partida (antecedentes), las transacciones y los resultados. 5. El evaluador, finalmente, debe analizar la informacin de la matriz descriptiva atendiendo a la congruencia entre lo pretendido y lo

observado y teniendo en cuenta las relaciones dependientes de los resultados y las transacciones de los antecedentes. Los juicios se harn mediante la aplicacin de las normas a los datos descriptivos.
39. TEORA FUNCIONAL PARA EL DISEO DE EVALUACIONES DE PROGRAMAS EDUCATIVOS Y SOCIALES. Para Cronbach la evaluacin deber ser plural tanto en sus elementos como en los temas con los que trabaje. Tambin est convencido de la posibilidad de generar conocimiento que permita extrapolarse a personas, situaciones, tratamientos y observaciones estudiadas para relacionarlas con poblaciones y clases no estudiadas. Cronbach trata de resolver la limitacin existente de los diseos de investigacin, los cuales se interesan ms por la validez interna que por la externa. Llam a su teora funcional. Cronbach aplica su teora en planes para futuros programas que estn siendo puestos en funcionamiento con la intencin de imitar las condiciones de su futura implantacin. En su libro de 1980 este era uno de los 4 contextos donde la evaluacin cumpla su funcin. Los contextos eran: iniciacin del programa superrealizacin del programa prototpico aplicacin real del programa, cuando se pone en funcionamiento de un modo normal Cronbach no considera importante este ltimo estadio, el de aplicacin real del programa, ya que es inmune a una evaluacin seria; difcilmente se consideran los resultados de una evaluacin cuando un programa est ya funcionando, es mucho ms eficaz en el perodo prototpico, que equivaldra a la aplicacin piloto del programa, donde las condiciones de aplicacin deben ser lo ms idnticas a la realidad. Pero Cronbach reconoce que las evaluaciones de programas en funcionamiento pueden contribuir a mejorar elementos que trabajan mal y, de esa manera, repercutir positivamente en la totalidad del programa y en todas las situaciones y mbitos en los que se aplica. 40. EL MODELO DE LA FIGURA DE STAKE. Stake sugera un modo para ayudar al evaluador a saber qu datos reunir, no slo en relacin con las metas pretendidas y a sus resultados, como enfatizaba el modelo de Tyler, sino tambin en relacin con los procesos, los antecedentes e incluso a los juicios. Para ello la evaluacin fue caracterizada por una serie de matrices comprensivas para la recogida de datos, una matriz para explicar la racionalidad del programa, otra con seis celdas para datos descriptivos, y otra con otras seis celdas para datos de valoracin o juicio. Las dos funciones bsicas de la evaluacin, en el modelo de la figura, son la descripcin y la valoracin o juicio. Utilizando el marco comprensivo del enfoque de evaluacin de la figura, el evaluado debe: 1. Proporcionar informacin justificativa de los huir/amemos del programa y descubrir la base racional del mismo, incluyendo sus necesidades. 2. Despus debe mencionar las intenciones de entrada, antecedentes, reclusos, y condiciones existentes, las transacciones, referidas a los procesos y a las actividades, y los resultados.

3. Recoger informacin, a travs de la observacin, sobre los antecedentes, las transacciones y los resultados, tanto los pretendidos como los no pretendidos, de las tres categoras. 4. Explicitar las normas, criterios, expectativas, rendimientos, para valorar los antecedentes, transacciones y resultados del programa y recoger los juicios hechos por la gente que participa en el programa sobre las condiciones de partida (antecedentes), las transacciones y los resultados. 5. El evaluador, finalmente, debe analizar la informacin de la matriz descriptiva atendiendo a la congruencia entre lo pretendido y lo observado y teniendo en cuenta las relaciones dependientes de los resultados y las transacciones de los antecedentes. Los juicios se harn mediante la aplicacin de las normas a los datos descriptivos. 41. EL MODELO RESPONDIENTE DE STAKE. La caracterstica esencial del enfoque es la sensibilidad hacia los temas esenciales, especialmente hacia aquellos que ayudan a las personas en sus lugares de trabajo. Requiere una dilatada y continua adaptacin de los objetivos de la evaluacin al entorno en el que acta y una reunin de datos para que los responsables de la realizacin de la evaluacin se pongan al corriente del programa y del contexto de la evaluacin. Las evaluaciones respondientes se caracterizan por el uso de la observacin y la flexibilidad. Stake menciona doce actuaciones a realizar en las evaluaciones respondientes: 1. Hablar con los clientes, el personal del programa y las audiencias o beneficiarios de los programas. 2. Identificar la extensin y el alcance del programa. 3. Revisar las actividades del programa. 4. Descubrir los propsitos y preocupaciones del personal y los grupos interesados o audiencias. 5. Conceptualizar los temas. 6. Identificar las necesidades de. datos y temas. 7. Seleccionar los observadores, los jueces; y los instrumentos si fueran necesarios. 8. Observar los antecedentes, las transacciones y los resultados. 9. Tematizar , categorizar, preparar descripciones, estudios de caso. 10. Validar, confirmar, tratar de desconfirmar. 11. Presentar los resultados a las audiencias. 12. Adaptar para el uso de los diferentes grupos interesados o audiencias. El evaluador respondiente debe prestar una cuidadosa atencin a las razones por las que se pide la 'evaluacin, despus prestar atencin a lo que est ocurriendo en el programa y elegir las cuestiones y criterios de valor. No debera utilizar una lista de objetivos o elegir instrumentos para reunir los datos previos desviando su atencin de las cosas que ms interesan a la gente implicada en el programa y no debera fracasar en descubrir lo mejor y peor del programa. 42. ELABORE UNA DEFINICIN DE EVALUACIN DE PROGRAMAS. La evaluacin de programas es un proceso que consiste en valorar si un programa consigui o no en alcanzar los objetivos para cuya consecucin fue ideado.

Es la determinacin de la medida en que un programa logr uno o ms de sus objetivos, las razones por las cuales no los alcanz y la relacin existente entre los efectos del programa y una amplia diversidad de variables y caractersticas del programa 43. EXPLIQUE LAS CONCEPCIONES DE CRONBACH SOBRE LA VALIDEZ INTERNA Y EXTERNA DE LOS DISEOS EVALUATIVOS. Cronbach necesitaba describir, a su modo, la validez interna y la externa; para ello inventa un grupo de smbolos. Utiliza en letras minsculas la expresin utos , refirindose a los datos reales recogidos en trminos de unidades o personas, tratamientos, observaciones y situaciones; los UTOS (con letras maysculas) se refieren a poblaciones de unidades, tratamientos, observaciones y situaciones sobre las cuales fueron formuladas las cuestiones de la investigacin y a las cuales los utos particulares se suponen que corresponden. Los UTOS se refieren a las poblaciones de personas, tratamientos, observaciones y situaciones que manifiestamente son diferentes de aquellas de las que se han obtenido las muestras correspondientes de utos. Las poblaciones en cualquier estudio no son homogneas. Los UTOS son el dominio ms relevante para la aplicacin de la investigacin social debido a que tiene que ver con la transferencia de los hallazgos investigativos ms all de los contextos en los que se generan. Las extrapolaciones mltiples son tiles pero ninguna ms importante que aquellas que puedan hacerse para los UTOS por su potencial inters para los patrocinadores en el presente y en el futuro. Para Cronbach la validez es una propiedad de las conclusiones; para l tiene poco sentido hablar de validez de los mtodos o de los estudios. La validez es subjetiva. La validez interna de Cronbach se interesa por las inferencias de los utos muestrales a los UTOS poblacionales para intentar lograr la generalizacin. De acuerdo con Cronbach, muchos patrocinadores de programas valoran un segmento particular del espacio dentro de los UTOS que refleja sus necesidades de informacin particulares. Para maximizar la utilidad de tal heterogeneidad de necesidades se requiere un conocimiento que trascienda cualquier grupo limitado de personas, tratamientos, situaciones o resultados; encontrar tales necesidades es el mayor propsito de la evaluacin, luego la extrapolacin del conocimiento de la validez externa de los UTOS a los UTOS toma su precedente del conocimie nto de la validez interna. El punto de partida de Cronbach es el muestreo de unidades o personas, tratamientos, observaciones situaciones estudiadas. Su validez externa se interesa porque los objetivos puedan ser generalizados. La validez externa es importante porque los patrocinadores individuales a menudo quieren aplicar el conocimiento existente a personas, situaciones, tratamientos y observaciones de las que ellos son responsables. Raramente todas estas particularidades estn contenidas en la base del conocimiento existente por lo que los usuarios deben extrapolar la informacin ms all de los datos disponibles. Tal extrapolacin es difcil y no ha sido objetivo central de ninguna teora de diseos de investigacin e interpretacin reconocida. 44. CONCEPTOS RELACIONADOS CON LA EVALUACIN DE PROGRAMAS. DEFINALOS Y MENCIONE LOS PUNTOS COMUNES Y DIFERENCIALES CON EL CONCEPTO DE EVALUACIN DE PROGRAMAS.
Conceptos relacionados con el de evaluacin de programas

evaluacin y medida evaluacin del estudiante y evaluacin de programas evaluacin de programas y diagnstico investigacin y evaluacin de programas

Hay 4 actividades importantes relacionadas con la evaluacin: - Medida - Evaluacin del aprendizaje - Diagnstico - Investigacin En la lengua castellana el trmino evaluacin se ha referido a la evaluacin del rendimiento de los estudiantes, pero debido al creciente desarrollo del este concepto aplicado a los programas, los currculos, al personal, etc., es necesario especificar el mbito de la evaluacin.

45.COMENTE LOS CUATRO PASOS DE LA LGICA DE SCRIVEN PARA REALIZAR LA EVALUACIN DE UN PROGRAMA.
PASOS DE LA LGICA DE LA EVALUACIN: SEGN SCRIVEN. 1. Seleccionar, definir, identificar, concretar los criterios de calidad del programa. Para ello se usan los criterios de: funcionalidad, eficacia y eficiencia. 2. Elaborar normas de actuacin. 3. Recoger informacin. 4. Integrar los resultados, para la mejora del programa.

46.MODO DE POTENCIAR EL USO DE LOS RESULTADOS DE LA EVALUACIN.


Los resultados tienen como fin contribuir a la toma de decisiones de cambio y mejora de los programas. slo repercutir si es una informacin convincente, coherente, adecuada y oportuna. Variables que afectan al uso de los resultados: 1. 2. 3. 4. 5. Pertinencia Comunicacin entre los evaluadores y los implicados. Proceso de informacin de los implicados. Factibilidad de los resultados Participacin y los implicados

Los resultados tienen 3 tipos de repercusiones: conceptual, persuasiva e instrumental. El uso de los resultados requiere difusin que es responsabilidad de los investigadores evaluativos.

47. CONCEPTO DE METAEVALUACIN, Y CARACTERISTICAS DE SU APLICACIN A LA EVALUACIN DE PROGRAMAS.

Es decir, la evaluacin de la evaluacin para identificar sus fortalezas, sus limitaciones y otros usos. La meta-evaluacin debe ser hecha siempre por el evaluador, de un modo tan amplio como sea posible, corno de control de calidad, una vez finalizada la evaluacin, pero no slo, dado que se puede hacer delante la evaluacin. Y, siempre que sea posible, tambin debe ser realizada por tur evaluador externo de la evaluacin (un meta evaluador). El criterio fundamental de mrito de las evaluaciones es la validez, junto con la utilidad, normalmente para los clientes, las audiencias y los promotores , y la credibilidad.
48. COMENTE LOS CUATRO GRUPOS DE NORMAS POR LAS QUE DEBEN SER JUZGADAS LAS EVALUACIONES.

Incluimos una sntesis de las normas del Joint Committee on standards for evaluacin, por las que deben ser juzgadas las evaluaciones: Normas de utilidad: Para asegurar que sirve a las necesidades de informacin prctica, centrada en cuestiones importantes. Los estndares de utilidad guiarn la evaluacin de tal forma que sean relevantes, oportunos y de influencia. Deben facilitar informes basados en evidencias, sobre aspectos positivos y negativos y debe aportar soluciones para mejorar. Normas de viabilidad: Para asegurar que la evaluacin es realista y prudente. Debe utilizar procedimientos eficientes que no ocasionen demasiados problemas. Los estndares de viabilidad reconocen que las evaluaciones se realizan en contextos naturales, sus diseos deben ser operativos y sus gastos, en material, personal o tiempo, no deben exceder al requerido por las cuestiones de la evaluacin. Normas de honradez: Para asegurar que la evaluacin es conducida legal y ticamente, basada en compromisos explcitos, que aseguren la necesaria cooperacin, la proteccin de los grupos implicados, y la honestidad de los resultados. Normas de precisin: Para asegurar que la evaluacin revela comunica lainformacin encontrada; describe con claridad el objeto evaluado en su evolucin yen su contexto; revela las virtudes y defectos de/ plan de evaluacin, de losprocedimientos y de las conclusiones (nieta-evaluacin) y proporciona conclusiones vlidas y fidedignas. Las conclusiones y los juicios deben ser cohe-rentes con los datos, 49. LA GENERALIZACIN DE LOS RESULTADOS SEGN CRONBACH. Para Cronbach la validez es una propiedad de las conclusiones; para l tiene poco sentido hablar de validez de los mtodos o de los estudios. La validez es subjetiva. La validez interna de Cronbach se interesa por las inferencias de los utos muestrales a los UTOS poblacionales para intentar lograr la generalizacin. De acuerdo con Cronbach, muchos patrocinadores de programas valoran un segmento particular del espacio dentro de los UTOS que refleja sus necesidades de informacin particulares. Para maximizar la utilidad de tal heterogeneidad de necesidades se requiere un conocimiento que trascienda cualquier grupo limitado de personas, tratamientos, situaciones o resultados; encontrar tales necesidades es el mayor propsito de la evaluacin, luego la extrapolacin del conocimiento de la validez externa de los UTOS a los UTOS toma su precedente del conocimiento de la validez interna. 50. EL CONCEPTO DE EVALUACIN DE PROGRAMAS DE TYLER. Era Ralph Tyler el que diriga el Departamento de evaluacin educativa de este estudio y conceptualiz el enfoque de evaluacin educativa basado en los objetivos, desarrollando instrumentos y procedimientos para medir un amplio rango de objetivos educativos. El trabajo de Tyler ha supuesto una gran influencia en diversas reas de investigacin y en la prctica educativa, incluyendo la evaluacin educativa.

Los hallazgos de este estudio fueron ensombrecidos por la II Guerra Mundial, pero la concepcin de Tyler del currculum, la medida y la evaluacin ha tenido una gran influencia en las dcadas siguientes. Tyler, el cual es considerado como el fundador de la evaluacin aplicada a los programas educativos, conceba la evaluacin como el proceso para determinar en qu medida los objetivos educativos han sido realizados.