Вы находитесь на странице: 1из 7

EL RIESGO SISTEMÁTICO

También conocido como “riesgo de mercado” o “riesgo no diversificable”, engloba


al conjunto de factores económicos, monetarios, políticos y sociales que provocan
las variaciones de la rentabilidad de un activo. En otras palabras, no afecta a una
acción o sector particular, sino al mercado en su totalidad. Ejemplos de estos
factores pueden ser la guerra, una recesión, cambios en los tipos de interés o la
intervención del banco central de turno en la economía. Todas estas
circunstancias pueden variar las expectativas de rentabilidad que tengan los
inversores sobre los activos, que son los que en última instancia causan las
variaciones en sus precios cuando se lanzan a comprarlos o a venderlos. Es un
riesgo impredecible pero también imposible de evitar completamente.
Se dice que el riesgo sistemático es un riesgo no diversificable. Pero debemos
aclarar que esto se refiere a instrumentos en el propio mercado (por ejemplo si
uno invierte únicamente en el mercado accionario entonces efectivamente es un
riesgo no diversificable). No obstante, uno puede invertir en mercados distintos y
esto también es diversificación. De esta forma, riesgo sistemático se puede mitigar
a través de una estrategia de asignación de activos (es decir invirtiendo en
mercados distintos, como bonos y acciones). El riesgo sistemático afecta a todos
los activos del mercado en mayor o menor medida. Ninguno está a salvo.

EL RIESGO NO SISTEMÁTICO

También conocido como “riesgo diversificable” Engloba al conjunto de factores


propios de una empresa o industria y que afectan solo a la rentabilidad de su
acción o bono. El riesgo no sistemático surge de la incertidumbre que rodea a una
empresa por el desarrollo de su negocio, ya sea por las propias circunstancias de
la empresa o por las del sector al que pertenezca. Ejemplos de estos
acontecimientos pueden ser unos malos resultados empresariales, la firma de un
contrato, unos datos de ventas peor de lo esperado, un nuevo producto de la
competencia, descubrimiento de fraude dentro de la empresa, una mala de gestión
de sus directivos, etc.

Estos eventos afectan de forma directa al precio de los títulos que tenga emitidos
la empresa (acciones y/o bonos) por que los inversores, como en el caso anterior,
los venden y compran por cambios de las expectativas sobre la rentabilidad a
obtener. Por el contrario, el riesgo no sistemático es el riesgo particular de cada
emisora, es decir, es aquél que resulta de factores propios y específicos de cada
instrumento. En el caso del mercado accionario, por ejemplo, podemos decir que
el riesgo no sistemático es el que tiene que ver con el descubrimiento de un nuevo
producto o de una nueva técnica que puede hacer “despegar” a una empresa, con
una fusión, etc. Es decir, situaciones que afectan de manera particular a esa
empresa y no al resto. En el caso del mercado de dinero, por ejemplo, el riesgo no
sistemático es el que tiene que ver con el incremento o degradación de la
calificación relativa a la capacidad de pago de la empresa que emite el
instrumento en particular.

El riesgo no sistemático se dice que es diversificable, porque se puede reducir o


controlar con una diversificación adecuada. Por ejemplo, en el mercado
accionario podemos encontrar acciones que tienen una alta correlación con un
índice, es decir, que tienden a moverse de manera similar, pero existen otras que
tienen una correlación menor o incluso negativa.

 la suma de ambos riesgos es el riesgo total de un activo. Y tanto el riesgo


sistemático como el no sistemático vienen motivados por una serie de
factores que son los que afectan de forma continua a los precios de las
acciones y de los bonos.

El modelo capm
El Capital Asset Pricing Model, o CAPM (trad. lit. Modelo de Fijación de precios de
activos de capital) es un modelo frecuentemente utilizado en la economía
financiera. El modelo es utilizado para determinar la tasa de rentabilidad
teóricamente requerida para un cierto activo, si éste es agregado a
un portafolio adecuadamente diversificado y a través de estos datos obtener la
rentabilidad y el riesgo de la cartera total. El modelo toma en cuanto la sensibilidad
del activo al riesgo no-diversificable (conocido también como riesgo del mercado o
riesgo sistémico, representado por el símbolo de beta (β), así como también el
rentabilidad esperado del mercado y el rentabilidad esperado de un activo
teoréticamente libre de riesgo.

El modelo fue introducido por Jack L. Treynor, William Sharpe, John Litner y Jan
Mossin independientemente, basado en trabajos anteriores de
Harry Markowitz sobre la diversificación y la Teoría Moderna de Carteras o
Portafolios. Sharpe recibió el Premio Nobel de Economía (en conjunto con
Markowitz y Merton Miller) por su contribución al campo de la economía
financiera.

Precio de un activo en el CAPM

Una vez que el rentabilidad esperado, E(Ri), es calculado utilizando CAPM, los
futuros flujos de caja que producirá ese activo pueden ser descontados
descontados a su valor actual netoutilizando esta tasa, para poder así determinar
el precio adecuado del activo o título valor.

En teoría, un activo es valorado correctamente cuando su precio de cotizaciónes


es igual al valor calculado utilizando CAPM. Si el precio es mayor que la
valuación obtenida, el activo está sobrevaluado, y viceversa.

Rentabilidad requerida para un activo específico en el CAPM

CAPM calcula la tasa de rentabilidad apropiada y requerida para descontar


los flujos de caja proyectados futuros que producirá un activo, dada la apreciación
de riesgo que tiene ese activo. Betas mayores a 1 simbolizan que el activo tiene
un riesgo mayor al promedio de todo el mercado; betas debajo de 1 indican un
riesgo menor. Por lo tanto, un activo con un beta alto debe ser descontado a una
mayor tasa, como medio para recompensar al inversionista por asumir el riesgo
que el activo acarrea. Esto se basa en el principio que dice que los inversionistas,
entre más riesgosa sea la inversión, requieren mayores rentabilidades.
Puesto que el beta refleja la sensibilidad específica al riesgo no diversificable del
mercado, el mercado, como un todo, tiene un beta de 1. Puesto que es imposible
calcular el rentabilidad esperado de todo el mercado, usualmente se utilizan
índices, tales como el S&P 500 o el Dow Jones.

Suposiciones del CAPM

El modelo asume varios aspectos sobre los inversionistas y los mercados:

1. Los inversores son adversos al riesgo y exigen mayores rentabilidades para


inversiones arriesgadas.
2. Puesto que los inversionistas pueden diversificar, éstos solamente se
preocupan por el riesgo sistémico de cualquier activo.
3. El mercado no ofrece ninguna recompensa por acarrear riesgos
diversificables.
4. Algunos portafolios son mejores que otros, pues devuelven mayores
rentabilidades con menor riesgo.
5. Si todos los inversionistas tienen el portafolio del mercado, cuando evalúan
el riesgo de un activo específico, estarán interesados en la covariación de
ese activo con el mercado en general. La implicación es que toda medida
del riesgo sistémico de un activo debe ser interpretado en cómo varían con
respecto al mercado. El beta provee una medida de este riesgo.

Inconvenientes del CAPM

 El modelo no explica adecuadamente la variación en los rentabilidades de


los títulos valores. Estudios empíricos muestran que activos con bajos betas
pueden ofrecer rentabilidades más altos de los que el modelo sugiere.
 El modelo asume que, dada una cierta tasa de rentabilidad esperado, los
inversionistas prefieren el menor riesgo, y dado un cierto nivel de riesgo,
preferirán los mayores rentabilidades asociados a ese riesgo. No contempla
que hay algunos inversionistas que están dispuestos a aceptar menores
rentabilidades por mayores riesgos, es decir, inversionistas que pagan por
asumir riesgo.
 El modelo asume que todos los inversionistas tienen acceso a la misma
información, y se ponen de acuerdo sobre el riesgo y el rentabilidad
esperado para todos los activos.
 El portafolio del mercado consiste de todos los activos en todos los
mercados, donde cada activo es ponderado por su capitalización de
mercado. Esto asume que los inversionistas no tienen preferencias entre
mercados y activos, y que escogen activos solamente en función de su
perfil de riesgo-rentabilidad.
el modelo de hiller se trata de uno de los métodos de evaluación de
inversiones en condiciones de riesgo.
Es un modelo analítico basado en la hipótesis de que el flujo de caja se
puede descomponer en un sumatorio de variables simples, simplificación
efectuada para realizar de forma sencilla las transformaciones estadísticas.

Sin embargo, existe un elevado número de parámetros a estimar, con lo


que la dimensión del problema es muy elevada; supone sólo sumas, y
muchos de los conceptos del flujo de caja no son sumas; no permite incluir
decisiones estratégicas, puesto que no se trata de un modelo de toma de
decisiones

El método de Montecarlo es un método no determinista o estadístico numérico,


usado para aproximar expresiones matemáticas complejas y costosas de evaluar
con exactitud. El método se llamó así en referencia al Casino de
Montecarlo (Mónaco) por ser “la capital del juego de azar”, al ser la ruleta un
generador simple de números aleatorios. El nombre y el desarrollo sistemático de
los métodos de Montecarlo datan aproximadamente de 1944 y se mejoraron
enormemente con el desarrollo de la computadora.
El uso de los métodos de Montecarlo como herramienta de investigación, proviene
del trabajo realizado en el desarrollo de la bomba atómica durante la Segunda
Guerra Mundial en el Laboratorio Nacional de Los Álamos en EE. UU. Este trabajo
conllevaba la simulación de problemas probabilísticos
de hidrodinámica concernientes a la difusión de neutrones en el material de fisión.
Esta difusión posee un comportamiento eminentemente aleatorio. En la actualidad
es parte fundamental de los algoritmos de raytracing para la generación de
imágenes 3D.
En la primera etapa de estas investigaciones, John von Neumann y Stanislaw
Ulam refinaron esta ruleta y los métodos "de división" de tareas. Sin embargo, el
desarrollo sistemático de estas ideas tuvo que esperar al trabajo de Harris
y Herman Kahn en 1948. Aproximadamente en el mismo año, Enrico
Fermi, Nicholas Metropolis y Ulam obtuvieron estimadores para los valores
característicos de la ecuación de Schrödinger para la captura de neutrones a nivel
nuclear usando este método.
El método de Montecarlo proporciona soluciones aproximadas a una gran
variedad de problemas matemáticos posibilitando la realización de experimentos
con muestreos de números pseudoaleatorios en una computadora. El método es
aplicable a cualquier tipo de problema, ya sea estocástico o determinista. A
diferencia de los métodos numéricos que se basan en evaluaciones en N puntos
en un espacio M-dimensional para producir una solución aproximada, el método
de Montecarlo tiene un error absoluto de la estimación que decrece como en
virtud del teorema del límite central.
La importancia actual del método Montecarlo se basa en la existencia de
problemas que tienen difícil solución por métodos exclusivamente analíticos o
numéricos, pero que dependen de factores aleatorios o se pueden asociar a un
modelo probabilística artificial (resolución de integrales de muchas variables,
minimización de funciones, etc.). Gracias al avance en diseño de los ordenadores,
cálculos Montecarlo que en otro tiempo hubieran sido inconcebibles, hoy en día se
presentan como asequibles para la resolución de ciertos problemas
Ejemplo: Los programas de diseño asistido por ordenador (CAD) pueden
determinar rápidamente el volumen de modelos muy complejos. Estos modelos,
en general, no tienen una expresión analítica para determinar su volumen (por
ejemplo, para un prisma, área de la base multiplicada por la altura), y la única
solución es dividir el modelo en un conjunto de pequeños submodelos (teselación)
cuyo volumen pueda determinarse (por ejemplo, dividir el modelo en miles de
tetraedros). Sin embargo, esto consume muchos recursos, tanto para la teselación
como para el cálculo del volumen de cada uno de los elementos. Por ello utilizan
métodos de Montecarlo, más robustos y eficientes.
Como el software sí que conoce la expresión analítica de la geometría del modelo
(posición de los nodos, aristas y superficies) puede determinar si un punto está
dentro del modelo o está fuera con un coste mucho menor que el de determinar un
volumen.

 En primer lugar el software coloca el modelo dentro de un volumen


conocido (por ejemplo, dentro de un cubo de 1 m3 de volumen).

 A continuación, genera un punto aleatorio del interior del volumen conocido, y


registra si el punto "ha caído" dentro o fuera del modelo. Esto se repite un gran
número de veces (miles o millones), consiguiendo un registro muy grande de
cuántos puntos han quedado dentro y cuántos fuera.

 Como la probabilidad de que caiga dentro es proporcional al volumen del


modelo, la proporción de puntos que han caído dentro con respecto al total de
puntos generados es la misma proporción de volumen que ocupa el modelo
dentro del cubo de 1 m3.
Si el 50% de los puntos han caído dentro, el modelo ocupa el 50% el volumen
total, es decir, 0.5 m3. Evidentemente, cuantos más puntos genere el software,
menor será el error de la estimación del volumen

Modelo herz:
El término ciclo por segundo fue completamente reemplazado por hercio en
la década de 1970.
Un hercio representa un ciclo por cada segundo, entendiendo ciclo como la
repetición de un suceso. Por ejemplo, el hercio se aplica en física a la medición de
la cantidad de veces por un segundo que se repite una onda (ya
sea sonora o electromagnética) o puede aplicarse también, entre otros usos, a las
olas de mar que llegan a la playa por segundo o a las vibraciones de un sólido. La
magnitud que mide el hercio se denomina frecuencia y es, en este sentido, la
inversa del período. Un hercio es la frecuencia de una oscilación que sufre
una partícula en un período de un segundo
(

Вам также может понравиться