Академический Документы
Профессиональный Документы
Культура Документы
INTRODUCCIÓN 1
CRITERIOS AGENTES: Modificaciones relevantes en los títulos de los subcriterios 2
CRITERIOS RESULTADOS: Subcriterios a leer con especial atención 2
MATRIZ REDER AGENTES 3
ENFOQUE 3
Sólidamente fundamentado 3
Integrado 4
DESPLIEGUE 4
Implantado 4
Sistemático 4
EVALUACIÓN, REVISIÓN Y PERFECCIONAMIENTO 4
Medición 5
Actividades de Aprendizaje y Creatividad 5
Mejora e Innovación 5
MATRIZ REDER RESULTADOS 7
RELEVANCIA Y UTILIDAD 7
Ámbito y relevancia 7
Integridad 8
Segmentación 8
RENDIMIENTO 9
Tendencias 9
Objetivos 13
Comparaciones 14
Causas 14
PUNTUACIÓN DE LOS RESULTADOS 15
Agradecimientos 15
Este documento de aclaraciones ha sido preparado por miembros del Club de Evaluadores de
EUSKALIT con una amplia experiencia tanto en el EFQM Excellence Award como en el Servicio de
Evaluación Externa de EUSKALIT y busca clarificar posibles dudas de interpretación de la nueva
©
versión 2010 del Modelo EFQM de Excelencia. Para entender este documento es necesario realizar
la lectura del mismo junto con el documento original del Modelo EFQM 2010. Las aclaraciones que
presentamos a continuación son las directrices que se deben seguir en el Servicio de Evaluación
Externa de EUSKALIT.
INTRODUCCIÓN
Los subcriterios describen los grandes elementos que debe gestionar toda organización. Si bien, el
sentido no prescriptivo del que hablamos se aprecia en que, aunque no sea habitual, una
organización podría presentar razones convincentes por las que uno o varios de los subcriterios del
Modelo no aplicasen en su gestión. Si estuviese debidamente justificado, el evaluador debería
promediar la puntuación entre el resto de subcriterios tal y como se explica en una NOTA en la matriz
REDER del propio Modelo EFQM 2010, página 29.
Para facilitar la comprensión de estos 32 subcriterios, se han incorporado dentro cada uno de ellos
entre 4 y 6 elementos a considerar. Son ejemplos que deben ayudar a aclarar el significado de cada
subcriterio, son ejemplos de lo que en la práctica hacen muchas organizaciones excelentes, pero ni
es una relación exhaustiva, ni tampoco es obligatorio que una organización los tenga todos en cuenta
o los lleve a la práctica en su gestión. Se destacan en rojo y cursiva aquellos aspectos novedosos
de la nueva versión del Modelo EFQM, manteniéndose otros ejemplos que ya aparecían en el
documento de aclaraciones anterior realizado también por EUSKALIT.
CRITERIOS RESULTADOS
Subcriterios a leer con especial atención
Ejemplo: Puede ser positivo que una organización que lleva muchos años haciendo encuestas y
obtiene resultados cuantitativos satisfactorios, o simplemente que le aportan poca información para la
mejora, decida probar, por ejemplo, a realizar grupos focales para profundizar en las percepciones de
alguno de sus grupos de interés. Antes de cambiar de metodología debería asegurarse de que los
resultados que va a obtener (cuantitativos y/o cualitativos) le van a permitir seguir obteniendo la
información sobre si la percepción de la satisfacción del colectivo preguntado se mantiene, sube o
baja (indistintamente de la metodología) y por tanto, si la trazabilidad de los resultados no se va a ver
afectada. Las metodologías de medición y la trazabilidad de los resultados son más relevantes, si
cabe, viendo el nuevo atributo de Integridad en la matriz REDER de resultados, que nos hace
reflexionar sobre si los resultados son oportunos, fiables y precisos.
Resultados,
Enfoque,
Despliegue,
Evaluación, y
Revisión y Perfeccionamiento.
La lógica que sustenta la Matriz REDER coincide con el clásico ciclo PDCA (PLAN-DO-CHECK-ACT),
en el que se debe:-
Planificar el enfoque,
Desplegar el enfoque,
Comprobar (evaluar) la efectividad, y después
Actuar en base a lo aprendido, mejorando así o perfeccionando el enfoque, con lo que cerramos el
círculo.
En la Matriz REDER, existen tres elementos a tener en cuenta a la hora de puntuar los agentes
facilitadores:
Enfoque
Despliegue
Evaluación, Revisión y Perfeccionamiento.
Sólidamente fundamentado: el enfoque tiene una lógica clara, tiene definidos los procesos, se
centra en las necesidades de los grupos de interés y se ha perfeccionado con el tiempo.
Para considerar que el enfoque está sólidamente fundamentado, el evaluador debe ver la lógica o las
razones por las que la organización ha adoptado un planteamiento; por ejemplo, como resultado de
sus actividades de aprendizaje (investigaciones, estudios, grupos de intercambio de buenas
prácticas, benchmarking). Un enfoque sólidamente fundamentado se implantará mediante procesos
claramente definidos y desarrollados, documentados en la medida que sea oportuno para la correcta
gestión de los mismos, estará orientado a cubrir las expectativas de los grupos de intereses
implicados o afectados y se habrá perfeccionado con el tiempo. Esta última referencia temporal indica
que el evaluador debe buscar además si se han ido introduciendo mejoras en el enfoque a lo largo
del tiempo, por tanto, si ese enfoque ha mostrado signos de madurez o ha sido puesto en práctica
y demostrado ya algún resultado. Si ha habido ciclos de evaluación y revisión se pueden buscar las
mejoras que se han ido incorporando al enfoque a raíz de los ciclos de revisión y mejora. Si es un
Integrado: el enfoque apoya la Estrategia, y está vinculado a otros enfoques, cuando procede.
El evaluador buscará ejemplos que demuestren que uno o varios enfoques han sido puestos en
práctica para obtener unos resultados deseados (en el corto o en el largo plazo). Una organización
excelente es aquella que presenta elementos de gestión vinculados entre sí para reforzarse
mutuamente creando sinergias y apoyando el logro de sus objetivos estratégicos. Las organizaciones
menos avanzadas suelen presentar sistemas de gestión con prácticas aisladas unas de otras, con
solapamientos, con objetivos contradictorios, o bien no plenamente alineados con la política y
estrategia.
Para evaluar la implantación hay que tener en cuenta cómo el enfoque se ha puesto en práctica en
los diferentes niveles de responsabilidad de la organización, en sus diferentes centros productivos,
unidades de negocio, procesos, empleados, o en los diferentes productos y/o servicios que ofrece.
El evaluador debería profundizar en ver cuál es el grado de implantación de los diferentes enfoques
de la organización buscando evidencias del tipo: “Hemos desplegado…hasta el 80% de la plantilla”,
“todos los líderes hemos recibido al menos 20 horas de formación en calidad total” o “hemos
establecido indicadores y objetivos en la totalidad de los 20 procesos que configuran nuestro mapa de
procesos” o “hemos aplicado… en 3 de nuestros 5 centros productivos”. Igualmente, se podría
evidenciar viendo si la organización tiene clara la frecuencia con la que pone en práctica
determinados enfoques.
Se refiere a si el evaluador puede ver que la organización está implantando el enfoque de forma
estructurada, ordenada, de acuerdo a los criterios y pautas establecidos por parte de los
responsables asignados, ha marcado un plan o calendario para el despliegue teniendo en cuenta la
complejidad del proyecto y si el ritmo del despliegue es oportuno (ni demasiado lento, ni demasiado
rápido). Y si se presentan ejemplos de cambios (pequeños o profundos) realizados cuando las
circunstancias del entorno lo requieren.
Ejemplo: La sistemática se puede evidenciar, por ejemplo, cuando una organización presenta cómo
a la hora de desplegar un nuevo enfoque ha realizado la comunicación previa necesaria, han
realizado pruebas piloto, han definido claramente a los responsables de las actividades, están
establecidos los plazos y los recursos necesarios, se ha dado la formación necesaria a las personas
afectadas, se han fijado indicadores para medir el grado de cumplimiento de las acciones y se ha
tenido en cuenta no solo el corto sino también el largo plazo y su mantenimiento a lo largo del tiempo,
es decir, su sostenibilidad.
Se refiere a si se tiene en cuenta cómo la organización mide tanto la eficacia de sus enfoques (que
consiguen los resultados esperados), como la eficiencia (cuántos recursos, tiempo y dinero se
consumen) y cómo se contempla la relación existente entre ambas. En este caso, más que los
resultados de la medición (que se presentarán en los Resultados), la organización debería aportar
evidencias del proceso de medición, de la frecuencia con la que se mide y del por qué de los
mecanismos de medición adoptados por la organización, quién es el responsable de la medición, con
qué frecuencia se aplica, etc.
Hay muchas formas de llevar a cabo actividades de aprendizaje, como por ejemplo las visitas a
organizaciones avanzadas, asistencia a cursos, charlas o congresos, la lectura de libros y revistas,
las búsquedas en bases de datos de buenas prácticas, la participación en talleres y grupos de
intercambio de prácticas de gestión, la colaboración con universidades o con centros de
investigación, el apoyo de consultores y expertos, o el benchmarking interno y/o externo, tanto con
una organización del mismo sector como con otras de sectores muy diferentes. Fruto de esos
aprendizajes externos las organizaciones pueden valorar si sus enfoques son anticuados, normales,
mejores o incluso, “best in class” (referencias en su sector o ámbito).
La palabra “creatividad” se utiliza con profusión en Modelo EFQM 2010, especialmente en la matriz
REDER. Anteriormente el atributo a evaluar era “Actividades de aprendizaje”. Se ha ampliado a
“Aprendizaje y Creatividad” remarcando así la importancia de la creatividad para generar nuevos
enfoques o modificarlos.
Podemos estimular la creatividad mediante las herramientas que existen al efecto (tormentas de
ideas, pensamiento lateral, etc.) aplicadas a un caso concreto. Y podemos ver evidencias de
utilización de la creatividad en las organizaciones cuando vemos evidencias de sesiones
específicas de análisis de problemas, sistemas de sugerencias, aportaciones informales que se
recogen y gestionan,…Habrá que ver qué se ha hecho y qué ideas han surgido de todo ello y cómo
se orientan a la generación de nuevos enfoques.
Lo que el evaluador debe buscar es qué ideas innovadoras y qué cambios (grandes o pequeños)
marcan la diferencia en los enfoques de la organización. Igualmente, se debe buscar si la
organización dispone de una forma, procedimiento o sistema que le sirva para priorizar las ideas o
propuestas para actuar sólo sobre las mejores, de forma que la organización comprenda las
limitaciones en tiempo, recursos y capacidades cuando se trasladan las ideas a la práctica.
Valoración Total
La valoración total del subcriterio se calcula en base a la puntuación total de cada uno de los tres
elementos de Enfoque, Despliegue y Evaluación, Revisión y Perfeccionamiento. Teniendo en
cuenta toda la información analizada en el subcriterio, el evaluador otorgará una puntuación como
valoración total. La media aritmética de estas tres puntuaciones es un punto de partida para fijar la
valoración total, pero dicha puntuación puede sufrir modificaciones como por ejemplo:
Si la puntuación del enfoque o del despliegue es cero, la valoración total también debería ser
cero.
Si el enfoque es pobre pero el despliegue es amplio, la valoración total tenderá hacia la
puntuación del enfoque (si el enfoque no es sistemático, puede que no tenga continuidad en el
futuro, o en caso extremo, puede que no haya nada que desplegar).
Si la puntuación de la evaluación y revisión fuese cero pero tanto el enfoque como el despliegue
son buenos, una valoración total cercana a cero sería injusta, pero la valoración total debería ser
claramente inferior a la media aritmética.
Los términos Sin evidencia o anecdótica, alguna evidencia, evidencia, evidencia clara y evidencia
total, se utilizan en la Matriz de Puntuación REDER para clasificar la amplitud y el grado de rigor de la
información y de las evidencias presentadas por la organización.
Informaciones “Sin evidencia o anecdóticas” son aquellas que carecen de hechos y datos que las
respalden. Por ejemplo:
Estas palabras pudieran, por supuesto, expresar una situación real, pero a nosotros no se nos dice
cómo el Director General demuestra su compromiso, o los directivos practican esta política, etc., y
por tanto estas afirmaciones son anecdóticas.
Por otra parte, en el extremo opuesto, la clasificación “Evidencia Total” se caracteriza por:
Así que, por ejemplo, el compromiso del Director General con la Excelencia puede evidenciarse
mediante descripciones como las siguientes:
En el Modelo EFQM 2010 se ha invertido el orden de los atributos, apareciendo antes Relevancia y
Utilidad que el Rendimiento y además se ha ampliado el número de atributos en los que se
subdivide la Relevancia y Utilidad: ámbito y relevancia, integridad y segmentación. Este cambio de
orden es un buen refuerzo visual de la importancia que tiene este aparatado en la Matriz REDER de
resultados. Dado que para calcular la puntuación global en los resultados se promedia entre los
Resultados (tendencias, objetivos, comparaciones y causas) y la Relevancia y Utilidad, es importante
tener en cuenta que cada apartado supone el 50% de la puntuación total de cada subcriterio de
resultados. Por tanto, la prioridad que muchas organizaciones conceden a presentar únicamente los
resultados más favorables y no presentar aquellos resultados menos favorables pero relevantes en su
gestión, es claramente desmedida y negativa a efectos de puntuación.
Cómo evaluar la Relevancia y Utilidad
Ámbito y Relevancia: El ámbito de aplicación de los resultados debe tener en cuenta que los
resultados aborden las necesidades y expectativas de los grupos de interés relevantes y que sea
coherente con la estrategia y sus políticas de apoyo. Los Resultados Clave están identificados
y priorizados. Las relaciones entre los resultados relevantes se entienden.
Puede darse el caso de que un indicador/resultado que normalmente sea de menor importancia, en
un momento determinado (porque ha decaído mucho, o porque se quiera potenciar algún aspecto
estratégico concreto, o en circunstancias de crisis,...) aumente mucho su importancia relativa y pase a
formar parte de los Clave.
En cualquier caso, es fundamental la explicación de cómo utiliza cada organización sus indicadores y
los criterios por los que los jerarquiza de una u otra manera.
COMÚN EXCEPCIÓN
RESULTADOS RESULTADOS
CLAVE CLAVE
Es importante que la organización proporcione explicaciones y datos que faciliten que el evaluador
pueda profundizar para conocer si la organización es consciente de cómo se relacionan unos
resultados con otros: por ejemplo, qué influencias fuertes o débiles existen entre ellos, si existe una
relación lineal o secuencial entre ellos, si hay un retardo de tiempo en el efecto entre ellos, etc.
Como regla útil a la hora de valorar el ámbito de aplicación podemos hacer este análisis:
o Primero: identificar qué indicadores CLAVE Y RELEVANTES no se presentan teniendo
en cuenta el planteamiento de gestión de la organización.
o Segundo: ¿Cuáles de los indicadores presentados deben considerarse como relevantes
y/o claves y que grado de importancia tienen?
o Tercero: Dado que los indicadores que nos presenta la organización más los que hemos
identificado que no nos presentan deberían sumar el 100% del ámbito, ¿Cuál es el peso
de los que están (y son claves y/o relevantes, y cuál el de los que faltan? La puntuación
final deberá reflejar el peso porcentual de “los que están”.
Ámbito y Relevancia = 60
Integridad = 85
Segmentación = 90
La media aritmética es de 78, pero la puntuación no debe exceder de la del ámbito y Relevancia,
Total Relevancia y Utilidad = 60
Tendencias: se debe valorar hasta qué punto la evolución de los resultados es positiva y/o si el
buen rendimiento es sostenido en al menos 3 años.
Partiendo del consenso general de que dos resultados es una tendencia de un solo año hemos
planteado 7 casos a analizar:
CASO 1
PUNTUACION
100
50
0
1999 2000 2001 2002
AÑO
El evaluador tendrá que ver en cuántos de los indicadores se dá esta situación, y dado que ya
cubrimos el requisito de “al menos 3 años”, la puntuación se estaría moviendo entre el 15% y el
100%.
Si fuese en ¼ de los resultados (aprox.) = 25% Esta escala se aplica para todos los
Si fuese en la ½ de los resultados (aprox.) = 50% casos que se presenten en resultados
Si fuese en ¾ de los resultados (aprox.) = 75%
Si fuese en todos los resultados = 100%
CASO 2
80
PUNTUACION
60
40
20
0
2000 2002 2004
AÑO
CASO 3
100
PUNTUACION
80
60
40
20
0
2000 2003
AÑO
La organización tendrá que explicar detalladamente, si toma los datos con esa frecuencia porque no
existe otra opción, o bien porque tiene una razón por la que las mediciones cada 3 años sean el
periodo idóneo para gestionar rigurosamente los aspectos cubiertos por estas mediciones. Podría
ocurrir por ejemplo en el caso de una federación de atletismo que tuviera como medición los
resultados de sus atletas en las Olimpiadas y que por lo tanto tuviese un resultado cada cuatro años.
Esta situación no debería confundirse con el haber dejado de realizar una medición (por ejemplo: una
encuesta de personas o clientes) tras cambios en su sistema de gestión y retomar años más tarde la
dinámica de medición de ese tema.
Si la organización presenta una lógica de la medición con esa frecuencia de tiempo y la misma le
sirve para gestionar coherentemente ese indicador, el evaluador tendrá que ver en cuántos de los
indicadores se dá esta situación pero ésta se estaría moviendo entre el 15% y el 100%. Si las
explicaciones no justifican la conveniencia de esa frecuencia de medición, el evaluador debería
puntuar en el rango del 0 al 10%.
CASO 4
PUNTUACION
100
80
60
40
20
0
1999 2000 2001 2002
AÑO
Para valorar adecuadamente esta situación es necesario un análisis amplio. En primer lugar, la
organización debería explicar las oscilaciones de los resultados para demostrar que conoce y ha
trabajado en la “gestión” de esos resultados. Segundo, se debería tener en cuenta además la relación
con los objetivos que se han establecido, con las comparaciones presentadas, así como la relación
causa-efecto existente entre las actuaciones presentadas en los agentes y dichos resultados.
La interpretación más común será que de 1999 a 2000 la tendencia no ha sido positiva y que solo
existen 2 años de tendencias positivas, por lo que la puntuación deberá estar en el entorno de 0 a
10%.
Ahora bien, podría haber razones, no sólo que justificaran esas oscilaciones, como por ejemplo ciclos
económicos, catástrofes naturales, sino que incluso fuesen premeditadas, como por ejemplo,
decisiones estratégicas de la organización de centrar su actividad en una línea de actividad
abandonando otra ya agotada, etc y que los evaluadores deberían tomar en cuenta. El análisis, y por
tanto la puntuación debería contemplar todos estos elementos. Si la organización presenta una lógica
clara de la oscilación de los resultados el evaluador tendría que puntuar entre el 15% y el 100%.
CASO 5
BENEFICIOS ECONOMICOS
55
35
15
-5
1999 2000 2001 2002
ORGANIZACION AÑO
MEJOR COMPETIDOR OBJETIVO
Si la organización presenta una explicación clara del descenso de los resultados, de las razones de
los mismos (ciclos económicos, catástrofes, etc.) y de la tendencia aún peor del sector o de su mejor
competidor, el evaluador podría considerar que hay un rendimiento sostenido durante 3 años y
puntuar entre el 15% y el 100%. Si bien, tampoco parece lógico que demos una puntuación cercana
al 100% dado que el resultado va empeorando con el tiempo.
CASO 6
80
PUNTUACION
60
40
20
0
dic-
jun-
dic-
jun-
dic-
jun-
01
02
03
02
03
04
MES
Supongamos que en este mismo caso, además damos estas puntuaciones a cada uno de los
atributos:
Tendencias = 10
objetivos = 60
comparaciones = 40
causa-efecto = 70
La media aritmética de estos cuatro atributos sería 10+60+40+70 / 4 = 45. Por estar el valor de la
tendencia claramente desviado del resto, deberíamos bajar la puntuacion del conjunto de Resultados
por debajo del 45; ahora bien, como los datos presentados cubren un periodo de tiempo cercano a los
3 años, el descenso de puntuación no sería muy grande pudiendo ser la puntuación global de 35 o 40
puntos.
CASO 7
PUNTUACION
100 80 85 82 87
50
0
1999 2000 2001 2002
AÑO
Objetivos: Se han establecido para los Resultados Clave. Son adecuados y se alcanzan.
En el Modelo EFQM 2010 se ha limitado la obligatoriedad de evaluar si la organización dispone de
objetivos, si son adecuados y si se alcanzan en los resultados clave de la organización. Esto no
quiere decir que ya no sea necesario fijar objetivos en otros indicadores o resultados, sino que se
valora de manera especial la priorización en la gestión y el evaluador debe ceñirse en este apartado a
evaluar si para los resultados clave de la organización el nivel que se desea conseguir (el objetivo)
está fijado y es claramente entendido. Los objetivos pueden ser un punto concreto (superior o
inferior) pero también puede ser una banda u horquilla entre dos niveles. Será fundamental entender
la lógica que llevó a la organización a acordar que el nivel que se deseaba conseguir en el futuro para
un resultado concreto era el fijado y porqué no se decidió fijar un objetivo similar, más alto o más
bajo. Del mismo modo, habrá que evaluar si se consigue alcanzar o superar el objetivo que se
deseaba conseguir y cómo actúa esta situación para adaptar los objetivos para el futuro.
Con esta limitación en la exigencia de objetivos se busca profundizar en la búsqueda de lo vital frente
a lo trivial. Las organizaciones deben esforzarse en aquello que resulta prioritario desde el
punto de vista de la estrategia y de la mejora, y el disponer de objetivos en los resultados clave,
que sean adecuados y se alcancen, parece tremendamente sensato. Es lógico que muchas
organizaciones, además, sigan utilizando la fijación de objetivos en otros muchos indicadores como
un elemento de visualización y consenso de un nivel deseado y de tracción para la consecución del
mismo. Invertir esfuerzo en tomar los datos y llevar un indicador si, al menos, no dispone de un
objetivo o referencia acerca de cuál es el estado deseado, parece poco lógico.
Ejemplo: OBJETIVOS
Una organización en un subcriterio concreto (7a) nos presenta:
6 indicadores
Nos explica con una lógica clara que 2 de ellos son resultados clave en la percepción de la
satisfacción de las personas (y disponen de objetivos en los últimos 4 años), otros 2 son
relevantes dado que inciden sobre objetivos importantes para la satisfacción de las personas
(y también disponen de objetivos) y otros 2 resultados se muestran como un ejemplo de
segmentaciones que se utilizan (y no tienen objetivos).
Como evaluadores, valorando que los objetivos se han establecido para los resultados clave, si
son adecuados (por la lógica de su fijación, las referencias que toman con otras organizaciones,
los ajustes que hacen año a año, etc.) y se alcanzan todos los años, nuestra valoración sería de
100 o próxima.
Del mismo modo que para los objetivos, se ha limitado la obligatoriedad de evaluar si la organización
dispone de comparaciones, si son adecuadas y si son favorables a los resultados clave de la
organización.
Para puntuar las comparaciones adecuadamente es necesario que la organización explique la lógica
de la fijación de las comparaciones y el aprendizaje realizado con las mismas. El propio modelo
recomienda que se realicen con el mejor del sector y/o con organizaciones o actividades de calidad
mundial, o del máximo nivel (en la página 25 del Modelo EFQM se ha traducido erróneamente la
comparación “world class” como la comparación con el mejor del mundo. El sentido correcto es el de
una comparación con las organizaciones mejores en su sector o “de clase mundial” en las actividades
que se comparan).
Para valorar la adecuación de las comparaciones se busca que la organización nos muestre que tiene
un conocimiento de medidas o resultados similares utilizados tanto dentro como fuera del propio
sector o de la organización. Hasta qué punto la información con la que se realiza la comparación es
válida, apropiada, fácil de utilizar, etc., qué nos aporta la comparación en un resultado concreto, si
está un poco o mucho peor, si está en un nivel similar, si es un poco o mucho mejor, o incluso si es la
mejor y cómo actúa esta situación en la fijación de los objetivos. El disponer de comparaciones en los
resultados clave y que sean adecuadas y favorables permitirá aumentar la confianza o credibilidad
para conseguir resultados concretos.
Nota: podría utilizarse como comparación un competidor o la media del sector, pero para las
organizaciones más avanzadas (role models) las comparaciones más apropiadas lo serían con las
mejores de su sector (best-in-class) o las de nivel mundial (world-class) y mostrar que ellas son la
referencia para otros (benchmark) y que tienen un nivel de actividad que a los demás les gustaría
tener.
Lo que no hay que olvidar es que las comparaciones pueden (y deberían) ser informaciones que
ayudasen a graduar los propios objetivos de la organización, más que la simple selección de otros
datos a poner a continuación de los propios.
Las organizaciones y los evaluadores lo que deberían tener claro es que las organizaciones deberían
gestionar con datos útiles. No siempre es fácil encontrar comparaciones pero la organización debe
demostrar que se esfuerza en conseguirlos, demostrando una clara proactividad. La interpretación y
puntuación de las comparaciones debe ir ligada a con quién se compara (una organización “líder”
debe compararse con organizaciones líderes).
Si por ejemplo, una organización X realiza encuestas de satisfacción a sus clientes y en ellas les pide
que le comparen con otras organizaciones que son su competencia y que por tanto, son un proveedor
alternativo para sus clientes, esta información podría ser de mucha utilidad a la hora de que la
organización X establezca cuáles son sus puntos fuertes y áreas de mejora para mejorar la
satisfacción y fidelización de sus clientes. Por tanto los evaluadores deberían otorgar importancia a
esta información y contemplarla como significativa a la hora de puntuar el atributo de comparaciones.
Se refiere a ver la relación entre los resultados alcanzados y los enfoques, acciones o proyectos
llevados a cabo, o de otra manera, qué resultados alcanzados nunca se hubiesen obtenido sin que
esas acciones se hubiesen llevado a cabo. Por ejemplo, deberán estar claramente visibles las
relaciones causa-efecto entre las acciones descritas en el criterio 3 Personas (enfoques, despliegues
y evaluaciones, revisiones y perfeccionamiento) y los resultados que se han derivado de ellas, que
deberán estar reflejados en el criterio 7 (Resultados en las Personas).
…es una organización en la que, según las evidencias presentadas hay confianza en que el
rendimiento siga siendo positivo en el futuro en ese indicador o en un subcriterio en concreto.
El Modelo EFQM y la matriz REDER de puntuación están diseñados para servir, entre otras cosas,
para la evaluación de una organización en todos sus aspectos de gestión y por tanto es necesario
entender que las organizaciones son sistemas donde existe una interrelación entre diferentes
elementos. A la hora de aplicar la matriz REDER hay que buscar la coherencia entre los diferentes
atributos que presenta cada organización tanto en la valoración de los criterios agentes como de los
resultados. Los ejemplos que hemos presentado son situaciones “aisladas” para favorecer la
comprensión, pero debemos recordar que el análisis y la evaluación de cada una de las situaciones
deben tener en cuenta la realidad de la organización en su conjunto.
Esperamos que estas aclaraciones ayuden en la interpretación del Modelo EFQM 2010 en el
servicio de evaluación que prestan los miembros del Club de evaluadores de EUSKALIT.