Академический Документы
Профессиональный Документы
Культура Документы
Los acuerdos de
Basilea y la gestión
de los datos
La aversión al riesgo se extendió al mercado de ABS y CDOS. Dado que una emisión de bonos
estructurados requiere de un tiempo determinado, los bancos proveían liquidez a los fideicomisos
emisores y, con frecuencia, adquirían parte de estas emisiones.
El cierre del grifo del crédito impactó seriamente en el consumo y en la producción mundial en
general, sobre todo en países como los europeos donde, a diferencia de China, tanto empresas
como familias funcionaban a base de créditos.
Estos acontecimientos nos sirven para entender el porqué de la evolución de los acuerdos de
Basilea.
Estas recomendaciones fueron transpuestas por los países a través de su propio desarrollo
legislativo. Contemplan el capital mínimo que deben disponer las entidades, con respecto al
volumen de créditos que conceden y al riesgo asociado a cada operación y cliente.
Estos acuerdos han evolucionado en función del ritmo de los acontecimientos, siempre con el fin de
reducir al máximo el endeudamiento y garantizar la capacidad de respuesta ante el riesgo de
operación, de crédito y de mercado.
1. El acuerdo de Basilea I, firmado en 1988, estableció unos principios básicos en los que
debía fundamentarse la actividad bancaria. Los más importantes fueron el capital
regulatorio, el requisito de permanencia, la capacidad de absorción de pérdidas y la de
protección ante quiebra. Este capital debía ser suficiente para hacer frente a los riesgos de
crédito, de mercado y de tipo de cambio. El acuerdo establecía también que el capital
mínimo de la entidad bancaria debería constituir el 8% del total de los activos de riesgo
(crédito, mercado y tipo de cambio sumados).
2. El acuerdo Basilea II, fue aprobado en 2004, aunque en España no se llegó a aplicar hasta
el 2008. Desarrollaba, de manera más extensa, el cálculo de los activos ponderados por
riesgo. De esta forma, permitía que las entidades bancarias aplicasen calificaciones de
riesgo basadas en sus modelos internos, siempre que estuviesen previamente aprobadas
por el supervisor. Este acuerdo incorporaba, por lo tanto, nuevas tendencias en la medición
y el seguimiento de las distintas clases de riesgo. Se hizo énfasis en las metodologías
internas, la revisión de la supervisión y la disciplina de mercado.
3. El acuerdo Basilea III, aprobado en diciembre de 2010, intentó adaptarse a la magnitud de
la crisis económica. Trataba de atender a la exposición de gran parte de los bancos de todo
el mundo a los “activos tóxicos” en sus balances y en los derivados que circulaban en el
mercado. El temor al efecto dominó que pudiera causar la insolvencia de los bancos, hizo
El cálculo correcto del nivel de riesgo viene determinado por variables precisas que dependen de
un ecosistema de datos que, en muchas ocasiones están dispersos, y que pueden verse alterados
en cualquier momento. El día a día de la actividad bancaria puede hacer que la información que
contienen se duplique, sea inconsistentes, inválida, incompleta o incluso inexistente. Para poder
hacer el cálculo es necesario tener controlados los datos y los procesos de los que dependen. La
información errónea o carente de calidad supone una dificultad para el modelado y el análisis de
riesgos.
Cada país establece el modo en el que se vigilará la correcta aplicación de las reglas y
requerimientos pertinentes por parte de los bancos. Esto podrá llevarse a cabo mediante:
Los supervisores cuentan con herramientas procesales y facultades para evaluar el cumplimiento
de requisitos específicos. Además, ostentan también facultades generales para imponer a los
bancos la presentación de informes y solicitar el acceso a sus datos. En el caso de que éstos
incumplan los requerimientos que les son aplicables, pueden tomar cualquiera de las siguientes
medidas:
Los datos usados en esos informes han de ser ciertos, es decir, que una vez la información es
pública, los datos deben ser justificables y consistentes.
1. La integridad
Los datos tienen que alimentar el modelo y los reportes. Son los
departamentos de IT quienes tienen que ser capaces de capturar toda la
información desde los distintos sistemas fuente de datos y para eso
tienen que adaptar sus procesos con rapidez.
Es necesario vertebrar una estrategia de integración de datos para evitar estos errores e
inconsistencias. La táctica que se adopte debe, además, ser capaz de satisfacer la necesidad de
acceso universal, soportando cualquier latencia y permitiendo aplicar transformaciones
pre-construidas o que se adapten a necesidades sobrevenidas. De esta forma, se evitan los fallos
y faltas de consistencia derivados de la disparidad de procedencias de la información.
● El volumen de datos aumenta continuamente. Con el tiempo, hay que capturar más datos
de más fuentes y en más sistemas (aplicaciones de negocio, fuentes externas, web, call
centers, entre otros).
● La función de los datos varía y se adapta a las necesidades. Los datos introducidos para
un propósito, eventualmente, pasarán a ser utilizados en otras aplicaciones y para fines
distintos.
● El automatismo exige mayores niveles de calidad de datos. Es necesario un mayor nivel de
calidad de datos, al ser requerido para procesos automatizados
● Los datos defectuosos pueden causar efectos en cadena.
● Hay que contar también con la existencia de repositorios de datos. Que pueden crearse
con fines departamentales o para dar soporte a unidades de negocio independientes. Los
ejemplos más comunes son las copias de bases de datos de clientes, entornos de
desarrollo o datos facilitados a explotadores externos.
Por eso, es conveniente contar con una buena solución de calidad de datos que nos aporte la
capacidad de:
3. La auditabilidad
Los auditores externos solicitan datos que justifiquen los valores que ofrecen
los informes, por lo que se hace necesario conocer la trazabilidad del dato y
de los metadatos.
4. La anticipación
Llevar una buena gestión de datos no sólo supone tener un buen control
sobre éstos, sino también ser capaz de anticiparse y detectar:
- Resultados erróneos.
- Inconsistencias en el reporting.
Poder localizar oscilaciones de datos capaces de impactar en el resultado final, con tiempo
suficiente como para reaccionar, y automatizar tareas, antes de que lleguen a publicarse; implica
disponer de un “colchón de seguridad” que nos permitirá tomar acción de forma previa a la
aparición de la incidencia. Con este objetivo, proponemos un sistema de gestión de eventos
complejos integrado.
A continuación ofrecemos una explicación más detallada del paquete de soluciones que incluye
nuestra propuesta.
- La banca doméstica.
- La agencia Reuters.
Capacidades Clave
● Conectividad universal a los datos desde cualquier fuente, formato y estructura.
● Obtención de información y captura de cambios en tiempo real.
● Auto-documentación de los procesos.
Beneficios
● Reducir la exposición al error que se puede producir al incrementar el número de fuentes
de datos y formatos.
● Minimizar el riesgo derivado de los datos inexistentes o incompletos.
● Minimizar el coste de mantenimiento y de los evolutivos.
En base a la información obtenida sobre el estado de nuestros datos, podemos crear informes y
tomar decisiones sobre las reglas a aplicar y la forma de administrar los datos.
Esta solución permite definir, construir y desplegar conjuntos de reglas de calidad de datos para
validar, estandarizar, comparar, limpiar, consolidar y enriquecer.
Capacidades Clave
● Acceder y crear una fuente única de la verdad, que permita eliminar discrepancias y
riesgos (errores) con una verdad única del cliente y sus partners, proveedores y socios.
● Gestionar el mapa de jerarquías y dependencias que tiene cada cliente, a nivel macro o
micro, con la máxima precisión.
● Cruzar, relacionar y monitorizar distintas entidades de forma coordinada. Visibilizar la
medida del riesgo y las dependencias entre partners, bancos y valores, con el fin de poder
compartir datos de clientes y partners.
● Compartir datos de clientes y partners para asegurar el acceso a los datos, garantizando la
fiabilidad de la información y el correcto cálculo del nivel de riesgo en todo momento.
Beneficios
Aparte de satisfacer S10-6 (Basel Supervisory), una buena gestión de metadatos permite analizar
el curso de los datos en vertical y en horizontal desde la fuente, pasando por las funciones de
transformación y llegando hasta el informe en la capa de reporting
Una relación ordenada alfabéticamente de los términos usados con mayor frecuencia en la
empresa permitiría unificar criterios y hacer que toda la compañía “hable el mismo idioma” a la
hora de referirse a un cliente, a un proceso o a producto.
Este instrumento, que todos deben utilizar, supone una compilación que no pretende funcionar
como verdad absoluta. Su uso ha de comprenderse como una herramienta de ayuda a la
organización para velar por la calidad de la información en el momento de llevar a cabo algunos
de sus procesos más críticos, como:
- Mejorar la transparencia.
El proceso de creación responde a una metodología estructurada que se compone de cuatro fases:
- Redacción de un borrador.
Esta metodología no es un proceso rígido, sino que se adapta a las necesidades de cada
organización.
Las organizaciones reciben datos de múltiples fuentes e iteraciones que afectan a los informes y a
la operativa diaria. Estos eventos pueden no resultar significativos al ser considerados
individualmente. Sin embargo, su acumulación adquiere tal relevancia que puede terminar
provocando efectos adversos, sólo detectables por profesionales con una amplia experiencia.
1. identificación.
2. Aislamiento.
3. Investigación.
4. Análisis.
Este tipo de gestión permite definir escenarios predictivos basados en el conocimiento de nuestro
negocio. Así, se consigue pronosticar eventos, alcanzando la capacidad de gestionar de forma
eficaz situaciones y excepciones que podrían suponer una amenaza en arquitecturas complejas,
heterogéneas y dispersas.
Cuando concurren un determinado número de estos eventos predefinidos se acciona la tarea que
hará posible que nos anticipemos a una oscilación en el valor de los activos, a una variación en el
mercado que impacte en nuestras operaciones, o a cualquier otra situación merecedora de nuestra
Nuestra propuesta no se basa en una visión monolítica sino en una estrategia coherente de
pequeñas victorias, orientada a expandir y adaptar esta solución a exigencias normativas y
necesidades de mercado. PowerData ofrece, por lo tanto, una metodología flexible capaz de
adaptarse a las necesidades y exigencias de los convenios de Basilea.
El objetivo es llegar a implementar una solución integral, que permita tratar de forma conjunta la
calidad, la gestión de datos maestros, las dependencias, la gestión de metadatos, la integración de
dichos datos con glosarios de términos de negocio y una óptima gestión de eventos complejos. De
esta forma, podemos consolidar una arquitectura flexible que hace posible minimizar el coste de
desarrollo de mantenimiento.
Esta solución se basa en una arquitectura abierta, que capacita a la organización para:
Es la mejor forma de optimizar el coste total de propiedad, porque permite minimizar la puesta en
producción y el coste de mantenimiento.