Вы находитесь на странице: 1из 330

ANÁLISIS DE RIESGO EN

PROYECTOS CON @RISK®


Casos prácticos de evaluación financiera de
proyectos y costos con análisis de riesgo
Segunda edición

Elkin A. Gómez Salazar Andrés M. Mora Cuartas.


Ricardo Uribe Marín
_________________________________________________
Medellín-Colombia
ANÁLISIS DE RIESGO EN PROYECTOS CON @RISK®

Casos prácticos de evaluación financiera de proyectos y costos con análisis


de riesgo
Gómez Salazar Elkin A., Mora C. Andrés M., y Uribe M. Ricardo
Segunda edición: enero de 2015

DERECHOS RESERVADOS. No está permitida la reproducción total o


parcial de este libro, ni su tratamiento informático, ni la transmisión de
ninguna forma o por cualquier medio, ya sea electrónico, mecánico, por
fotocopia, por registro u otros métodos, sin el permiso previo y por escrito de
los autores

Copyright © 2015 por:


Elkin A. Gómez Salazar, Andrés M. Mora Cuartas y Ricardo Uribe Marín
ISBN: 978-958-46-5926-2
Diseño Cubierta: Lito Impresos SAS Impreso en Colombia

AGRADECIMIENTOS
A Dios, a nuestras familias y amigos, y a la Universidad EAFIT.

ACERCA DE LOS AUTORES


ELKIN ARCESIO GOMEZ SALAZAR : Economista de la Universidad de Antioquia. Especialista
en Evaluación Socio Económica de Proyectos de la Universidad de Antioquia. Magíster en
Administración de la Universidad de Medellín. Magíster en Gerencia de Proyectos de la Universidad
EAFIT. Master in Project Managment, Jones International University USA. Estudios en Estadística,
Universidad Nacional de Colombia. Estudios de doctorado en ciencias económicas y administrativas.
Profesor de tiempo completo del Departamento de Organización y Gerencia de la Universidad EAFIT
en pregrado, postgrado (Especialización en Gerencia de Proyectos y Maestría en Administración
M.B.A.), y educación continua. Coautor de los libros: Análisis de Riesgo en Proyectos con @Risk,
Gestión de Proyectos, Análisis Financiero: Un enfoque gerencial, Preparación de Proyectos: Casos
Aplicados y Gestión de Proyectos con MS Project y Primavera. Se ha desempeñado como consultor
empresarial en las áreas de proyectos, finanzas corporativas y análisis de riesgo. Se desempeñó como
analista profesional en compañías del sector eléctrico tales como: INTERCONEXION ELECTRICA
S.A, E.SP., ISAGEN S.A. E.S.P y DINATEG S.A; Gerente comercial constructora VELEZGO;
Gerente y Propietario de TECON LTDA; entre otros. Se ha desempeñado además, como docente de
pregrado y posgrado de diferentes universidades del país.

ANDRÉS MAURICIO MORA CUARTAS: Administrador de Negocios, Énfasis en Finanzas y


Gerencia

Internacional, Universidad EAFIT. Especialista en Finanzas, Universidad EAFIT. Especialista en


Análisis Bursátil del Instituto de Estudios Bursátiles de Madrid. Magíster en Ciencias de la
Administración convenio Universidad EAFIT – École des Hautes Études Commerciales (HEC) de la
Universidad de Montreal (Canadá). Magister en Administración Financiera, Universidad EAFIT.
Estudios de doctorado en ciencias económicas y administrativas. Jefe del Departamento de Finanzas de
la Universidad EAFIT. Profesor de tiempo completo del Departamento de Finanzas de la Universidad
EAFIT en pregrado, postgrado (Especialización en Finanzas, Especialización en Administración,
Maestría en Ciencias en Finanzas, y Maestría en Administración M.B.A.), y educación continua.
Coordinador académico de la Diplomatura en Operación Bursátil, Diplomado de Derivados,
Diplomado de Divisas, y demás cursos en convenio con la BVC, y de la Diplomatura en Tesorería,
Centro de Educación Continua (CEC), Universidad EAFIT. Se ha desempeñado como Auditor en el
Holliday Inn, Indian Creek, Miami Beach, Florida; Subgerente Administrativo y Financiero, Kostas
International Inc., Miami, Florida y Gerente Administrativo y Financiero, Casa Musical Sonora, Los
Angeles, California.

RICARDO URIBE MARÍN: Ingeniero de Producción de la Universidad EAFIT. Magíster en


Ingeniería Industrial de la Universidad de los Andes. Diplomado de Alta Gerencia EAFIT-ICESI de
Cali. Estudios de doctorado en ciencias económicas y administrativas. Se desempeñó como Jefe de
Logística a nivel de Colombia en la empresa Proleche-Parmalat y como Jefe de Planta de Terminación
de Hermeco S.A. Se desempeñó como Jefe del Programa de Administración de Negocios de la
Universidad EAFIT. Ha sido profesor de tiempo completo durante 10 años de las materias de Costos y
Logística a nivel de pregrados y Maestrías en la Escuela de Administración y Escuela de Ingenierías de
la Universidad EAFIT. Actualmente es Jefe del Departamento de Organización y Gerencia de la
Universidad EAFIT y coordinador del área académica de Costos a nivel de pregrado y posgrado de la
Universidad EAFIT, Presidente de la Asociación Colombiana de Facultades de Administración
ASCOLFA Capítulo Antioquia, miembro del grupo de estudio en Finanzas, Proyectos y Costos de la
universidad EAFIT. Profesor de materias de área de costos.

TABLA DE CONTENIDO

CAPITULO 1
.......................................................................................................................................
10
NAVEGANDO POR LA HERRAMIENTA
............................................................................................... 10
1.1 ¿Qué es Palisade Decision Tools Suite?
............................................................................ 10
1.2 Herramientas para toma de decisiones incluidas
............................................................. 10
1.3 Características de la Suite
................................................................................................. 13
1.4 Construcción de un modelo probabilístico con @RISK
..................................................... 14
CAPITULO 2
.......................................................................................................................................
46
CASO APLICADO COMPAÑÍA
CEMENTERA........................................................................................ 46
2.1 Identificación de las variables de
entrada............................................................................... 48
2.2 Explicación de las variables de
entrada................................................................................... 48
2.3 Desarrollo paso a paso del
problema...................................................................................... 49
2.4 Cálculo y descripción de resultados
obtenidos....................................................................... 57
2.5 Interpretación de los resultados
............................................................................................. 66
CAPITULO 3
.......................................................................................................................................
75
CASO APLICADO LABORATORIO
FARMACÉUTICO............................................................................. 75
3.1 Identificación de las variables de
entrada............................................................................... 76
3.2 Explicación de las variables de
entrada................................................................................... 77
3.3 Desarrollo paso a paso del
problema...................................................................................... 78
3.4 Cálculo y descripción de resultados
obtenidos....................................................................... 86
3.5 Interpretación de los resultados
............................................................................................. 94
CAPITULO 4
.......................................................................................................................................
98
CASO APLICADO PRODUCTORA DE CAFÉ
.......................................................................................... 98
4.1 Escenario 1: Sin lluvia y sin seguro
........................................................................................ 101
4.1.1 Identificación de las variables de
entrada...................................................................... 101
4.1.2 Explicación de algunas de las variables de entrada
....................................................... 102
4.1.3 Desarrollo paso a paso del
problema............................................................................. 104
4.1.4 Cálculo y análisis de resultados
obtenidos..................................................................... 106
4.1.5 Interpretación de los resultados
.................................................................................... 108
4.2 Escenario 2: Con lluvia y sin seguro
...................................................................................... 110
4.2.1 Identificación de las variables de
entrada...................................................................... 110
4.2.2 Explicación de algunas de las variables de entrada
....................................................... 110
4.2.3 Desarrollo paso a paso del
problema............................................................................. 111
4.2.4 Cálculo y análisis de resultados
obtenidos..................................................................... 114
4.2.5 Interpretación de los resultados
.................................................................................... 115
4.3 Escenario 3: Con lluvia y con seguro
..................................................................................... 116
4.3.1 Identificación de las variables de
entrada...................................................................... 116
4.3.2 Explicación de algunas de las variables de entrada
....................................................... 116
4.3.3 Desarrollo paso a paso del
problema............................................................................. 117
4.3.4 Cálculo y análisis de resultados
obtenidos..................................................................... 119
4.3.5 Interpretación de los resultados
.................................................................................... 124
4.4 Análisis de Elasticidad
........................................................................................................... 144
4.5 Análisis de
Escenarios............................................................................................................
146
CAPITULO 5
.....................................................................................................................................
152
CASO DE APLICACIÓN DE RISK
OPTIMIZER...................................................................................... 152
CAPITULO 6
.....................................................................................................................................
164
LA GESTION DE COSTOS Y EL
RIESGO.............................................................................................. 164
CAPITULO 7
.....................................................................................................................................
175

CASO APLICADO: ANALISIS DE COSTOS EN LA TOMA DE


DECISIONES CON EL RECURSO HUMANO
................................................................................................................................................
175 CAPITULO 8
.....................................................................................................................................
193 CASO APLICADO: TOMA DE DECISIONES A PARTIR DE
ESTADO DE RESULTADOS POR COSTEO VARIABLE Y EL ANALISIS
COSTO VOLUMEN UTILIDAD....................................................................
193 CAPITULO 9
.....................................................................................................................................
219 CASO APLICADO: TOMA DE DECISIONES PARA DETERMINAR
EL USO DE RECURSOS PROPIOS O A TRAVES DE LA
SUBCONTRATACION
................................................................................................ 219

CAPÍTULO 10
...................................................................................................................................
248
CONCEPTOS DE ESTADÍSTICA
.......................................................................................................... 248
CAPITULO 11
...................................................................................................................................
275
CONCEPTOS DE PROYECTOS
........................................................................................................... 275
PROBLEMAS PROPUESTOS DE PROYECTOS
.................................................................................... 299
PROBLEMAS PROPUESTOS DE
COSTOS........................................................................................... 316
BIBLIOGRAFÍA....................................................................................................................
323

INTRODUCCIÓN
Este texto está dirigido a los cursos de análisis de riesgo en proyectos, y en
general a los cursos de finanzas y evaluación financiera de proyectos que
involucren riesgo en el proceso de toma de decisiones. El texto puede ser
utilizado tanto en los programas de pregrado como de posgrado que
involucren el tema dentro de los microcurrículos, puesto que el análisis de
riesgo tiene cada vez más importancia en la evaluación de proyectos de
inversión.
Uno de los principales objetivos del texto es entregar al lector, de manera
organizada y sencilla, los conceptos fundamentales de estadística y de
proyectos requeridos para realizar análisis de riesgo en proyectos, conceptos
que se encuentran diseminados en la literatura actual, además de una
descripción clara y detallada sobre el manejo de algunos de los componentes
de @Risk que pueden ser utilizados para el análisis de los proyectos, junto
con casos prácticos desarrollados de manera completa. Con lo anterior, el
lector podrá adquirir el conocimiento y las competencias necesarias para
modelar y evaluar proyectos de forma probabilística. Es importante aclarar
que @Risk es una de las herramientas que existen en el mercado para hacer
análisis de riesgo, entre algunas otras reconocidas como Crystall Ball.

Al ser @Risk una herramienta muy completa y potente, se toma como base
para el desarrollo de este texto, no obstante, es posible que en un futuro se
desarrolle material académico incorporando otras herramientas. Con el
presente texto se pretende entonces llenar un vacío bibliográfico para el
proceso de aprendizaje en el tema de evaluación financiera de proyectos con
análisis de riesgo aplicando @Risk.

El libro contiene 11 capítulos y su estructura se presenta a continuación:

El capítulo uno pretende familiarizar al lector con @Risk, herramienta base


para el desarrollo del texto. En este capítulo se presenta de manera detallada
el manejo de la herramienta @Risk, además de una introducción a otros
componentes de Palisade Decision Tools Suite, diseñada para analizar riesgos
y tomar decisiones con elementos inciertos, software que se ejecuta en
Microsoft Excel.
En los capítulos dos, tres y cuatro se desarrollan ejercicios aplicando las
diferentes funciones de la herramienta para llevar a cabo análisis de riesgo en
casos prácticos. Para una adecuada comprensión por parte del lector, la
solución detallada de los casos comprende diversas etapas, que van desde la
identificación y explicación de las variables de entrada, el desarrollo paso a
paso del problema, y el cálculo y descripción de los resultados obtenidos,
hasta llegar a la interpretación de los resultados, combinando la herramienta
con la evaluación financiera de proyectos, los conceptos básicos de
estadística y de proyectos, y el manejo de Microsoft Excel.

En el capítulo cinco se hace la introducción al manejo de la herramienta Risk


Optimizer, también incluida en Palisade Decision Tools Suite, en el cual se
ilustran los pasos a seguir para el desarrollo de un caso práctico de
conformación de portafolio, para ser elaborados por parte del lector.

En el capítulo seis se hace una introducción al manejo de los costos y sus


implicaciones en la toma de decisiones en los proyectos.
En los capítulos siete al nueve se desarrollan casos aplicados de costos
teniendo en cuenta variables como: recurso humano, estado de resultados por
costeo variable, análisis de costo volumen utilidad y uso de recursos propios
vs subcontratación.

En los capítulos diez y once se recopilan en orden alfabético algunos de los


conceptos de estadística y de proyectos requeridos para la comprensión y
buen desarrollo de los casos presentados en el texto. Cada uno de dichos
conceptos tiene una o varias definiciones dadas por parte de autores
reconocidos y surgen de una completa revisión bibliográfica. Las
definiciones han sido seleccionadas de diversas fuentes bibliográficas,
considerándose completas y sencillas, según el criterio de los autores. Se han
presentado en orden alfabético, con el objetivo de facilitarle al lector la
búsqueda de los conceptos según sus propias necesidades dependiendo de su
formación y preparación en la temática.

Por último, se presenta la sección “Problemas Propuestos” en donde el lector


encuentra diferentes casos que puede desarrollar aplicando los conocimientos
adquiridos en los capítulos anteriores y siguiendo la metodología propuesta
en el texto. Dichos ejercicios pueden ser utilizados por los docentes de los
diferentes cursos para hacer seguimiento y evaluación al proceso de
aprendizaje de sus estudiantes o por el lector con fines de autoevaluación.

CAPITULO 1
NAVEGANDO POR LA HERRAMIENTA
1.1 ¿Qué es Palisade Decision Tools Suite?
“El DecisionTools Suite en Español son una serie de programas integrados
diseñados para analizar riesgos y tomar decisiones con elementos inciertos,
que se ejecutan en Microsoft Excel. El DecisionTools Suite en Español
incluye @RISK para el análisis de riesgo mediante el uso de la simulación
Monte Carlo, PrecisionTree para el análisis de decisiones, y TopRank para
realizar análisis de sensibilidad automatizados de suposiciones “Y si…”.
Además, este grupo de programas incluye StatTools, NeuralTools y Evolver
para hacer predicciones, análisis de datos y optimización. Todos los
programas han sido diseñados y desarrollados para funcionar conjuntamente
de forma sencilla” (www.palisade-lta.com). En esta página es posible
descargar gratis una versión de prueba totalmente funcional sin límite de
tamaño de modelos o funciones, la cual puede utilizarse hasta 15 días después
de su instalación.

1.2 Herramientas para toma de decisiones incluidas


Las herramientas incluidas en Palisade Decision Tools Suite son @RISK,
RiskOptimizer, PrecisionTree, NeuralTools, StatTools, Evolver y TopRank.
Las herramientas PrecisionTree, NeuralTools, StatTools, Evolver y TopRank
están fuera del alcance de este libro. Sin embargo, en futuros textos de los
mismos autores, se ilustrará la aplicación de estas herramientas, y así, en el
presente libro se explica la utilización de @RISK y RiskOptimizer.
En los párrafos siguientes se hace una breve descripción de todas las
herramientas incluidas en la Suite:

• @RISK
“@RISK realiza análisis de riesgo utilizando simulación de Monte Carlo para
mostrar una gran cantidad de escenarios posibles en su hoja Excel; también le
dice qué tan factibles son estos escenarios. Gracias a esto Usted puede
evaluar que riesgos tomar y cuáles evitar. Con @RISK usted puede contestar
preguntas como las siguientes: ¿Cuál es la probabilidad de que las utilidades
sean más de $ 10 millones? ¿Cuáles son las posibilidades de perder dinero en
cierto proyecto?” (www.palisade-lta.com).

A continuación se presentan las aplicaciones del @RISK en los ejercicios


resueltos en el texto.
Empresa o tipo de ejercicio APLICACIÓN
Cementera
Laboratorio Farmacéutico
Productora de Café
Conformación de un portafolio de inversión

Aplicaciones en costos Estimación del comportamiento futuro de las ventas.


Determinación de la rentabilidad del proyecto.
Definir la viabilidad
proyecto a partir
financiera del
de variables cuantitativas.
Determinación de la viabilidad financiera del proyecto a partir tanto de
incertidumbre con variables cuantitativas.
Elaboración de análisis de sensibilidad del proyecto.
Búsqueda de soluciones para indicadores meta deseados.
Construcción inversión
genéticos.
de un portafolio de

utilizando algoritmos
- Análisis de costos en la toma de

decisiones con el recurso humano.


- Toma de decisiones a partir de estado de resultados por costeo variable y el
análisis costo volumen utilidad.
- Toma de decisiones para determinar el uso de recursos propios o a través de
la subcontratación.

Es importante precisar, que el grado en el nivel de dificultad de los ejercicios


planteados se incrementa, siendo el problema de la empresa cementera el de
nivel mínimo y llegando a su nivel máximo en el de la empresa Productora de
Café. El grado en el nivel de dificultad está dado de acuerdo con el número
tanto de variables de entrada como de funciones utilizadas del @RISK para
su análisis.

• RISKOptimizer
“El RISKOptimizer se utiliza para resolver problemas de optimización en un
amplio rango de industrias, desde finanzas hasta aerolíneas y manufacturas”
(www.palisade-lta.com).

A continuación se presentan posibles aplicaciones del RISKOptimizer en los


ejercicios resueltos en el texto.
EMPRESA APLICACIÓN
Optimización de las rutas de transporte del cemento vendido.

Cementera Planeación de la producción de las toneladas de cemento.


Planeación de la capacidad instalada. Determinación de mezclas óptimas de
Laboratorio Farmacéutico
materias primas para la elaboración de medicamentos.
Administración de inventarios. Conformación del portafolio de

Productora de Café
productos
Definir estrategias de cobertura a través de instrumentos financieros.

• Precision Tree
“El PrecisionTree lleva a cabo análisis de decisiones en el Excel de Microsoft
usando árboles de decisión y diagramas de influencia. Los árboles de
decisión le permiten mapear visualmente un conjunto de decisiones
complejas en multi-capas de una forma secuencial y organizada. Esto le
permite identificar todas las posibles alternativas y ayudar a seleccionar la
mejor opción” (www.palisade-lta.com).

• NeuralTools
“El NeuralTools imita las funciones del cerebro para poder “aprender” la
estructura de sus datos. Una vez que el NeuralTools comprende sus datos,
puede considerar nuevas variables de entrada y realizar predicciones
inteligentes” (www.palisadelta.com).

• StatTools
“El StatTools provee un administrador integral de conjuntos de datos y de
variables justo en Excel...puede definir cualquier número de conjuntos de
datos, cada uno con las variables que desee analizar, directamente desde sus
datos en Excel. El StatTools evalúa inteligentemente sus bloques de datos,
sugiriendo nombres de variables y localizaciones. Sus conjuntos de datos y
sus variables pueden residir en distintos libros de trabajo, permitiendo
organizar los datos de la manera que convenga” (www.palisade-lta.com).

• Evolver
“El Evolver utiliza la innovadora tecnología de algoritmos genéticos (AG)
para resolver rápidamente problemas de asignación de recursos, manufactura,
finanzas, distribución, programación,

presupuestación, ingeniería y más. Virtualmente cualquier tipo de problema


que pueda ser modelado en Excel puede ser resuelto por el Evolver,
incluyendo algunos complejos problemas no lineales previamente
irresolubles. Los algoritmos genéticos de Evolver llegan a la mejor solución
“global” de un problema – las soluciones que los optimizadores tradicionales
usualmente no logran resolver” (www.palisade-lta.com).

• TopRank
“El TopRank lleva a cabo análisis de sensibilidad del tipo "qué pasa si" en
una hoja de cálculo de Microsoft Excel. Se define cualquier celda o celdas
como variable de salida o "línea final", y el TopRank encuentra y varía
automáticamente todas las celdas de entrada que afectan a su variable de
salida. El resultado final es la identificación y jerarquización de todos los
factores de entrada que tienen un impacto por sobre su variable de salida
final” (www.palisade-lta.com).

1.3 Características de la Suite


• Todas las herramientas incluidas en la Suite se añaden directamente a
Microsoft Excel.
• Permite utilizar 61 distribuciones de probabilidad diferentes.

• Las simulaciones son realizadas con base en técnicas de muestreo aleatorio


simple y muestreo estratificado. El muestreo aleatorio simple se hace con la
simulación de Monte Carlo y el muestreo estratificado con Latin HyperCube.

• La Suite permite cualquier número de iteraciones por cada simulación y


cualquier número de simulaciones en cada corrida.
• El límite en el número de iteraciones y simulaciones está dado por la
capacidad del computador en el cual se hace la corrida del modelo.

1.4 Construcción de un modelo probabilístico con @RISK

En los párrafos siguientes se muestra la diferencia entre un modelo de


decisión determinístico y uno probabilístico, así como el menú requerido del
@RISK para su construcción.

• Construcción de un modelo de decisión determinístico


Antes de realizar la elaboración del modelo probabilístico se sugiere hacer su
construcción en forma “determinística”, la cual es libre de riesgo. El éxito o
fracaso en la toma de la decisión obedece a los buenos o malos resultados
obtenidos del modelo, los cuales dependen a su vez, de las variables
controlables y no controlables contenidas en el modelo y de la cantidad y
calidad de la información conocida.

Para la construcción de este modelo de decisión determinístico se requiere: o


Definir el problema de interés.
o Identificar las variables de entrada del modelo.
o Recolectar los datos de los variables de entrada.
o Identificar las variables de salida del modelo.
o Formular el modelo para la representación del problema. o Solucionar el
modelo.
o Analizar los resultados.
o Tomar las decisiones respectivas.

• Construcción de un modelo de decisión probabilístico: A diferencia del


modelo de decisión determinístico, en variables son de difícil estimación
porque existe el probabilístico las variabilidad en su

comportamiento, ocasionando un aumento en el nivel de riesgo de las


decisiones a tomar. Por lo tanto, la importancia de este modelo, radica en que
suministra información para responder preguntas tales como: ¿cuál es la
probabilidad de obtener un resultado deseado o qué pasa si cambian algunas
variables de entrada en términos de valores esperados?, interrogantes que no
son posibles resolver mediante un modelo de decisión determinístico.

Para la construcción de este modelo de decisión probabilístico se requiere:

o Definir el problema de interés.


o Identificar las variables determinísticas1de entrada del modelo. o Identificar
las variables aleatorias de entrada del modelo. o Recolectar los datos de las
variables determinísticas de entrada. o Modelar el comportamiento de las
variables aleatorias de entrada. o Identificar las variables de salida del
modelo.
o Formular el modelo para la representación del problema. o Iniciar
simulación del modelo.
o Generar reportes con resultados
o Analizar los resultados.
o Tomar las decisiones respectivas.
• Menú del @RISK para la construcción de un modelo de decisión
probabilístico
o Definición del modelo:

Para definir el modelo, la herramienta posee las siguientes opciones: Nombre


permite asociarle un nombre a la celda y en Fórmula de celda se digitan los
parámetros de la función de distribución seleccionada.

En primer lugar, la opción Definir distribuciones permite asociar una función


de distribución de probabilidad a una celda determinada, la cual es una
variable de entrada para el modelo. Allí, es posible seleccionar una función
de distribución entre 61 funciones posibles y así asociar la celda seleccionada
a una función de distribución específica. Para esto se tienen dos campos,
Nombre y Fórmula de celda. El campo
1 Variables determinísticas hacen referencia a aquellas cifras que no tienen un comportamiento
aleatorio
En segundo lugar, la opción Añadir salida define como variable(s) de salida
la(s) celda(s) seleccionadas. Esta opción despliega un cuadro de diálogo en
donde se nombra(n) la(s) variable(s) de salida(s).
En tercer lugar, Insertar función despliega un submenú con tres opciones
principales, Funciones de distribución, Funciones estadísticas y Otras
funciones. En la opción Funciones de distribución se puede asociar la función
de distribución a una celda, como se ilustró anteriormente en la opción
Definir distribuciones. Funciones estadísticas, permite visualizar una medida
estadística para una variable de salida y con Otras funciones es posible definir
variables de salida, además de otras funciones no definidas en este texto.
En cuarto lugar, con la opción Ajuste de distribución es posible realizar
pruebas de bondad de ajuste a una serie de datos determinada.
Esta opción despliega tres campos necesarios para configurar la prueba de
bondad de ajuste, los cuales son Nombre, Rango y Tipo. El campo Nombre
contiene el nombre de la serie de datos, Rango tiene el rango de datos de
entrada para la prueba y el campo Tipo permite seleccionar si los datos son
discretos o continuos.

Al presionar el botón Ajustar se visualizan los resultados del ajuste, en donde


se puede apreciar de manera gráfica, el histograma de frecuencia de los datos
de entrada y la función de distribución que mejor se ajustó a los datos. Así
mismo, se puede apreciar la Jerarquización de Ajuste, la cual muestra las
funciones de distribución que mejor se ajustan a la serie de datos,
ordenándolos de mejor a peor ajuste, a partir de los estadísticos Chi-
Cuadrado, Anderson Darling y Kolmogorov Smirnov. Es posible seleccionar
el ranking mencionado con cada uno de los estadísticos anteriores.

Adicionalmente, el botón Escribir a celda permite asociarle a una celda


específica los parámetros de la función de distribución obtenida luego de
realizar la prueba de bondad de ajuste. Esta celda contiene no solamente el
valor medio de la función de distribución, sino también su ecuación.
En quinto lugar, la opción Artista de distribución, que se encuentra en Ajuste
de distribución, es útil en aquellos momentos en los que solamente se tiene
una idea vaga sobre el comportamiento de una variable. Un buen caso para
ilustrar la utilidad de esta opción es por ejemplo lo que sucede durante el
lanzamiento de productos nuevos al mercado, en donde la gerencia
únicamente conoce la tendencia que pueden tener los volúmenes de venta.
Por tal motivo, sería imposible utilizar una función de distribución conocida.

¿Cómo se modelaría el comportamiento de las ventas?


Por ejemplo, un estudio de mercado con una compañía especializada
considera que las ventas se comportarán como sigue:
A continuación se ilustra la utilización de la opción Artista de distribución
para modelar el comportamiento de la variable anterior:

Se selecciona la opción Artista de distribución en donde se ingresa el nombre


de la variable (ventas), su valor mínimo (2 unidades), su valor máximo (80
unidades) y el número de puntos (15), así:
Se dibuja en el gráfico anterior la función de distribución de acuerdo a la
tendencia estimada, así:
Al presionar el botón Escribir a celda se obtiene el valor esperado de la
función de distribución, a continuación se selecciona Fx para encontrar el
valor esperado de la media de la función de distribución personalizada, la
cual se puede visualizar al editar la celda en donde se encuentra este valor
medio, así:
Al presionar el botón Gráfico se visualiza el gráfico con la función de
distribución y su valor mínimo, máximo, medio y su desviación estándar:
En sexto lugar, la opción Ventana de Modelo sirve para verificar y editar el
comportamiento de cada variable de entrada y salida ingresada al modelo:
o Configuración de la simulación
Para configurar la simulación la herramienta posee las siguientes opciones:
En primer lugar, en la opción Iteraciones se determina el número de
iteraciones que tendrá la simulación.
En segundo lugar, en Simulaciones se determina el número de simulaciones
que serán ejecutadas. Es importante precisar, que una simulación está
compuesta del número de iteraciones definidas en el párrafo anterior.

En tercer lugar, la opción Configuraciones de simulación, en la pestaña


General, permite además de definir el número de iteraciones como de
simulaciones, habilitar la opción de múltiples CPU para aumentar la
velocidad de procesamiento de los datos, y seleccionar si se quiere visualizar
los cambios en los valores obtenidos a partir de cada iteración en pantalla. Si
se quieren visualizar se activa la opción Números aleatorios, en caso
contrario Valores Estáticos.
En la pestaña Visualizar es posible configurar si los resultados son mostrados
en pantalla automáticamente o no durante la ejecución de la simulación.
En la pestaña Muestreo se puede configurar si la simulación se hace a través
de simulación de Monte Carlo o Latino Hipercúbico; vale la pena resaltar que
en esta pestaña Muestreo en la opción Recolecte Muestras de Distribución se
debe seleccionar Todos y en la opción Análisis de Sensibilidad inteligente se
debe seleccionar Habilitado, con el ánimo de poder una vez finalizada la
simulación, hacer análisis de sensibilidad sobre los resultados obtenidos.
Regresando a la configuración de la simulación, en cuarto lugar, la opción
Recálculo aleatorio/Estático sirve para observar en la hoja de cálculo los
valores probabilísticos de todas las variables del modelo, siempre y cuando
esté activado, de lo contrario, los valores mostrados son los valores medios
de estas variables.

En quinto lugar, la opción Mostrar gráfico de salida automáticamente muestra


el gráfico de la función de distribución de la variable en la celda seleccionada
cuando está activada.

En sexto lugar, la opción Modo demo permite aumentar o disminuir la


velocidad de procesamiento de los datos.
o Inicio de la simulación
Una vez se ha configurado la simulación se procede a ejecutarla con el botón
Iniciar Simulación

Al ejecutar la simulación aparece la ventana @Risk Simulando, la cual


muestra el porcentaje de avance de la simulación, su número de iteraciones
ejecutadas, el tiempo invertido y el cálculo del número de iteraciones por
segundo.

Esta ventana contiene siete botones en su parte inferior. El primer botón,


Mostrar ventana de resumen de resultados, permite visualizar, a medida que
se está ejecutando la simulación, un resumen de los resultados obtenidos,
tanto de las variables de entrada como de las variables de salida, es decir, los
resultados son mostrados en pantalla automáticamente durante la ejecución
de la simulación. A continuación se muestra un ejemplo de los resultados que
se obtienen:
El segundo botón Apagar o encender despliegue de actualización de Excel
permite visualizar cada uno de los cálculos realizados por la aplicación en
cada iteración.

El tercer botón Apagar o encender actualizaciones en tiempo real muestra de


forma gráfica las fluctuaciones en las variables. Esta opción es útil cuando se
requiere observar la volatilidad de las variables tanto de entrada como de
salida, a medida que se ejecuta la simulación.
Los tres botones siguientes Ejecutar simulación, Pausar simulación, Detener
simulación son usados para ejecutar, dar pausa o parar la simulación.

El último botón, Muestre el monitor de desempeño, muestra cuántos


procesadores son utilizados para hacer la simulación y cuántas iteraciones se
han ejecutado hasta el momento.
o Resultados de la simulación

Para visualizar los resultados de la simulación se utilizan las opciones


Informes de Excel, Visualizar resultados, Resumen, Definir Filtros,
Estadísticas detalladas de simulación, Datos de simulación, Sensibilidades de
simulación, Escenarios de simulación y Permutar funciones hacia afuera que
se encuentra adentro de Utilitarios.
En Informes en Excel se selecciona la forma como se quieren visualizar los
resultados de la simulación, desde un reporte rápido hasta una simulación con
un alto nivel de detalle, de acuerdo con las necesidades del analista.
Para utilizar la opción Visualizar resultados es necesario ubicar el cursor
sobre una celda que contenga bien sea una variable de entrada o una variable
de salida. Al presionar esta opción se visualiza el histograma de frecuencia de
la variable seleccionada como se aprecia a continuación.
Adicional al gráfico se presenta una barra de herramientas con botones con
diversas opciones.

La utilización de estos botones se encuentra en la sección en donde se


desarrollan los ejercicios.
Al seleccionar nuevamente la opción Visualizar resultados, la ventana con el
histograma de frecuencia se desactiva.

El botón Resumen muestra para cada una de las variables de entrada y de


salida el nombre la variable, la celda en la cual está ubicada, su histograma de
frecuencia, los valores mínimo, máximo y medio y los valores para los
percentiles 5% y 95%.
El botón Definir Filtros permite determinar los intervalos de confianza para
cada variable de entrada o de salida.
En Estadísticos detallados de simulación se muestran todas las variables de
entrada y salida con su nombre, descripción, celda, valor mínimo, máximo,
media, desviación estándar, varianza, coeficiente de asimetría, curtosis, error,
moda y percentiles del 5% al 95%.
Esta ventana contiene unos botones entre los cuales es importante resaltar el
botón Editar y exportar, pues permite exportar los resultados a una hoja de
cálculo con el fin de realizar otros análisis adicionales. Adicionalmente el
botón Tabla pivote de estadísticos permite trasponer los resultados.

En Datos de Simulación es posible obtener para cada variable de entrada y


salida cada uno de los datos de cada iteración. Estos resultados es posible
exportarlos a Excel con la opción Editar y exportar.
En Sensibilidades de simulación se muestran los datos, tales como el
coeficiente de correlación y regresión de las variables de entrada con respecto
a cada una de las variables de salida, necesarios para realizar análisis de
sensibilidad y la construcción del gráfico de tornado.
Esta ventana contiene 4 botones adicionales entre los cuales vale la pena
destacar el botón Gráfico de Tornado, el cual visualiza el gráfico de tornado
así:
En Permutar funciones hacia afuera es posible intercambiar los valores
aleatorios de las variables de entrada por valores determinísticos, es decir, los
valores originales de las variables de entrada son cambiados por los valores
que se visualizan en pantalla, los cuales fueron obtenidos mediante el proceso
de simulación.

o Análisis Avanzado de la Simulación


El análisis avanzado de la simulación permite utilizar las herramientas
Búsqueda de objetivo, Análisis de estrés y Análisis de sensibilidad avanzado.

Con Búsqueda de objetivo es posible determinar el valor objetivo de una


variable de salida para un valor determinado en una variable de entrada.
Para ello, se definen la celda objetivo, el estadístico a utilizar, el valor
objetivo y la celda con la variable de entrada (esta celda no puede contener
una fórmula).

A diferencia de los modelos determinísticos, el valor objetivo de una variable


de salida se puede definir con los siguientes estadísticos: mínimo, máximo,
coeficiente de kurtosis, media, moda, mediana, percentil, coeficiente de
asimetría, desviación estándar y varianza.
Adicionalmente, en el botón Opciones se configuran los limites de la
búsqueda, la holgura del valor objetivo y el número máximo de simulaciones
a ejecutar.
Una vez definido todo lo anterior, la opción Analizar inicia la simulación con
el fin de encontrar el valor objetivo de la variable de salida especificada
previamente.

La opción Análisis de estrés permite encontrar valores extremos máximos o


mínimos para una variable de salida ante cambios en variables de entrada
seleccionadas. Para ello, se selecciona la celda a monitorear, la cual contiene
la variable de salida. En la opción Add se definen los campos de entrada
necesarios para configurar el análisis, al igual que el método de variación a
utilizar.
El campo de entrada Referencia permite seleccionar las variables de entrada a
estresar.
El método de variación a utilizar se puede escoger entre valores bajos,
valores altos, valores en un rango determinado o sustituir una ecuación
determinada por una función de distribución.
Una vez configurados todos los parámetros anteriores en el botón Opciones
se seleccionan el tipo de resultados que se desean visualizar, como se aprecia
en la ventana siguiente:
El botón Analizar muestra el número de simulaciones e iteraciones necesarias
para hacer el análisis de stress.
Finalmente, en Análisis de sensibilidad avanzado es posible hacer análisis de
sensibilidad para una variable de salida vs varias variables de entrada.

En esta ventana se selecciona la celda objetivo de la variable de salida a la


cual se le realiza el análisis de sensibilidad. En el botón Añadir se configura
el análisis de sensibilidad, en el cual se determina si el análisis se hace con
una celda o con una función de distribución de una variable de salida.

Para efectuar este análisis de sensibilidad es posible utilizar cinco métodos de


variación.
Una vez seleccionado el método de variación se configuran las opciones para
visualizar los reportes de la simulación.
El botón Analizar muestra el número de simulaciones e iteraciones necesarias
para hacer el análisis de sensibilidad avanzado.
CAPITULO 2
CASO APLICADO COMPAÑÍA CEMENTERA
Estimar el comportamiento futuro de una variable, caso aplicado a las ventas
de una compañía cementera.
Para resolver este tipo de problemas se requiere manejar los siguientes
conceptos:

• Variable aleatoria
• Método Delphi
• Valor esperado
• Función Distribución
• Función de probabilidad relativa • Pruebas de bondad de ajuste

Se desea estimar las ventas de una empresa cementera, en toneladas de


cemento, para el próximo período, una variable aleatoria sobre la cual se tiene
poca experiencia, puesto que el cargo del gerente de ventas de la compañía es
reciente y toda su trayectoria comercial ha sido en otros sectores. Para
enfrentar dicha situación, se ha decidido consultar a cuatro expertos en el
tema.
El gerente de mercadeo de la compañía (experto A) estima que las ventas
tendrán un valor mínimo de 45 toneladas, un valor más probable de 50 y un
valor máximo de 70 toneladas.

Un asesor externo de la compañía (experto B) considera que los valores


deben ser 50, 65 y 80 toneladas.

Un alto ejecutivo de la compañía, quien trabajó quince años con el principal


competidor, (experto C), estima un valor mínimo de 50 toneladas y un valor
máximo de 90 toneladas para las ventas de la empresa para el próximo
periodo.

Se contrató un estudio de mercado con una compañía especializada (experto


D) que considera que las ventas se comportarán como sigue:

El término valor se refiere a las ventas en toneladas de cemento estimadas,


mientras que la probabilidad relativa indica el peso o importancia relativa
asignado por el experto para cada uno de los valores.

Sobre la base de la reputación de cada experto, usted asigna una ponderación


a cada opinión.
En su ponderación se asigna un peso del 40% a la opinión del experto A, y un
peso del 20% a cada uno de los otros expertos.
NOTA: Las ventas de cemento están expresadas en miles de toneladas.

Preguntas:
¿Cómo se comportarán las ventas durante el próximo período, incluyendo su
valor esperado, en toneladas de cemento, según cada experto?
¿Cómo se comportarán las ventas durante el próximo período, incluyendo su
valor esperado, en toneladas de cemento, teniendo en cuenta la opinión de los
cuatro expertos?
¿Cuál es la probabilidad de que las ventas de cemento para el próximo
período sean mayores o superiores a 65 toneladas?

Solución:
Para elaborar el presupuesto de la compañía para el próximo periodo es
fundamental estimar el comportamiento de las ventas en toneladas de
cemento. Es necesario entonces, trabajar con los datos obtenidos a partir de la
opinión de los expertos, para la variable en cuestión.

Resolviendo el ejercicio paso a paso


2.1 Identificación de las variables de entrada

2.2
Explicación de las variables de entrada
El experto A considera que el valor mínimo que tendrán las ventas el
próximo período es de 45 toneladas, con unas ventas máximas de 70 y un
valor más probable de 50 toneladas.

Estos datos se modelan con una función de distribución triangular, al igual


que los datos entregados por el experto B, quien considera ventas mínimas de
50 toneladas, un valor más probable de 65 y unas ventas máximas de 80.
Por otra parte, el experto C considera que las ventas estarán en un mínimo de
50 toneladas y un máximo de 90, cifras que se modelan con una función de
distribución uniforme.

Finalmente, el experto D realiza un análisis más profundo acerca de la


variable, entregando datos más detallados con respecto al valor en el que
estima pueden estar las ventas, además de otorgarle una probabilidad relativa
a cada uno de estos valores.

La ponderación otorgada a cada uno de los expertos depende de su


experiencia, conocimiento, y reputación.
2.3 Desarrollo paso a paso del problema

Para encontrar el valor esperado de las ventas según cada experto, se modelan
los datos entregados por ellos a partir de la función de distribución que más
se ajuste a los mismos. Por ejemplo, para los expertos A y B se utiliza la
función de distribución triangular así:
Luego, se asocian las celdas con los datos de entrada esperados de las ventas
para ambos expertos así: Experto A:

Igualmente para el experto B así:

Por otra parte, para encontrar el valor esperado de las ventas según el experto
C, se modelan los datos entregados por él a partir de una función de
distribución uniforme así:
Luego, se asocia la celda con los datos de entrada esperados para las ventas
según este experto así:

Finalmente, se realiza el mismo procedimiento para el experto D, en donde es


importante resaltar que sus datos se ajustan a una función de distribución
general2. Su modelación se hace a partir de la función RiskGeneral, así:
2 Esta función de distribución general se utiliza cuando se conoce el comportamiento de los datos, a
través de una función de probabilidad relativa.

Esta función requiere el ingreso de un valor mínimo y un valor máximo


esperado para la variable ventas, así como los valores que puede tomar esta
variable con su respectiva probabilidad relativa, como se puede apreciar a
continuación:
Con el procedimiento anterior se finaliza el proceso de ingreso de los datos
de entrada del valor esperado de las ventas, según cada experto.

2.4 Cálculo y descripción de resultados obtenidos

El valor esperado de la variable ventas se calcula mediante el promedio


ponderado del valor esperado según cada uno de los expertos, de acuerdo con
la ponderación asignada. A continuación, se puede apreciar con detalle su
cálculo:
El valor esperado de las ventas se muestra en términos determinísticos,
siempre y cuando la función Recálculo aleatorio/estático se encuentre
desactivada. En este caso el valor esperado para las ventas es de 58.06
toneladas, que se obtiene de ponderar los resultados de los valores esperados
según cada experto, y acorde a su importancia relativa. Al activar la función
Recálculo aleatorio/estático, el resultado obtenido para el valor esperado de
las ventas será probabilístico.

Para calcular y analizar la función de distribución de la variable ventas, es


necesario definirla como variable de salida en la opción Añadir salida, así:
Posteriormente, se configura la simulación, en donde se define tanto el
número de iteraciones (10.000 en este caso), como de simulaciones
necesarias (una en este caso). Se utiliza la opción Configuraciones de
simulación, así:
Es importante verificar que las variables modeladas probabilísticamente
hayan sido definidas de acuerdo con sus características. La opción Ventana
de modelo permite visualizar la modelación de cada variable para realizar la
verificación:
En esta misma opción es posible hacer las correcciones que sean pertinentes a
cada una de las variables de entrada. Hecha la verificación, se da inicio al
proceso de simulación con la opción Iniciar simulación.
Una vez finalizada la simulación se selecciona la celda de salida con el ánimo
de visualizar el resultado del valor esperado de las ventas, así:

Es posible además, realizar una prueba de bondad de ajuste para determinar


el tipo de función de distribución a la que más se ajustan los datos,
seleccionando la opción Ajuste de distribución3, así:
3 La opción Ajuste de distribución se encuentra en la posición 11 de izquierda a derecha debajo del el
gráfico de la función de distribución.

A continuación, se selecciona la opción Ajustar en donde es posible realizar


las pruebas de bondad de ajuste Chi Cuadrado, Kolmogorov Smirnov y
Anderson Darling. Los resultados de dichas pruebas se muestran a
continuación:
Prueba Chi cuadrado:

Prueba Anderson Darling:

Prueba Kolmogorov Smirnov:


2.5 Interpretación de los resultados

¿Cómo se comportarán las ventas durante el próximo período, incluyendo su


valor esperado, en toneladas de cemento, según cada experto?
Una vez ejecutada la simulación, el software permite visualizar el
comportamiento de las ventas por experto, luego de haber corrido 10.000
iteraciones para cada uno de ellos teniendo en cuenta los datos de entrada
suministrados.
Para el experto A se obtienen los siguientes resultados:

Se puede apreciar que para los datos entregados por el experto A, el valor
esperado de las ventas es 55,000 toneladas con una tendencia a alejarse por
encima o por debajo de la media en 5.394 toneladas en promedio, con un
valor mínimo de 45,064 y un valor máximo de 69,781 toneladas. Vale la pena
destacar las ventajas de este procedimiento, con el cual se supera la obtención
de resultados estáticos (determinísticos) y se obtiene un rango en el cual
pueden ubicarse los datos con una probabilidad determinada.

Para este experto, por ejemplo, del gráfico anterior se observa que existe un
90% de probabilidad de que las ventas estén entre 47,51 y 64,88 toneladas.
De igual forma, se obtienen los datos para los expertos B, C y D, así:
Sin embargo, no es suficiente conocer de forma probabilística el
comportamiento estimado de las ventas según cada experto, sino, determinar
el valor esperado de dicha variable a partir de la combinación de los
resultados individuales obtenidos anteriormente.

¿Cómo se comportarán las ventas durante el próximo período, incluyendo su


valor esperado, en toneladas de cemento, teniendo en cuenta la opinión de los
cuatro expertos?
Para visualizar el valor esperado de las ventas en toneladas de cemento,
incluyendo la opinión de los cuatro expertos, es suficiente con ubicarse en la
celda de salida “Valor Esperado de la Variable (B30)”, luego de corrida la
simulación, tal como fue explicado en el numeral 4, así:

Para el comportamiento esperado de las ventas para el próximo período, a


partir del procedimiento realizado, se puede concluir que:

El valor esperado de las ventas (media) es de 58,073 toneladas con una


variabilidad promedio de 5,421, un valor máximo de 73,868 y un valor
mínimo de 41,941 toneladas, con una probabilidad del 90% de que las ventas
oscilen entre 49,10 y 66,82 toneladas. Además, se tiene una probabilidad del
5% de que las ventas sean inferiores a 49,10 toneladas. Es importante
precisar que estos resultados pueden ser ligeramente diferentes a los
obtenidos por el lector, debido a que la generación de números es aleatoria.

¿Cuál es la probabilidad de que las ventas de cemento para los próximos


períodos sean mayores o superiores a 65 toneladas?

Adicionalmente, es posible calcular la probabilidad de obtención de un


determinado valor de ventas para el próximo período. Por ejemplo, si se
desea conocer la probabilidad de que las ventas para el próximo período sean
iguales o superiores a 65 toneladas, en el gráfico anterior es posible cambiar
el rango de valores deseados, seleccionando y desplazando las barras que
definen el intervalo de confianza4, así:
Para este caso se obtiene una probabilidad del 10,5% de que las ventas, para
el próximo período, sean iguales o superiores a 65 toneladas. Esta
información, se convierte en una excelente herramienta de apoyo para la toma
de decisiones gerenciales, como son la compra de insumos o suministros,
determinación de capacidad instalada, planeación de la producción, entre
otras decisiones, en donde el nivel de ventas es una variable fundamental.
4 También, es posible realizar este procedimiento digitando el valor deseado en el límite superior y/o
inferior en el intervalo de confianza motivo de análisis.
Por otra parte, si se desea obtener un consolidado de los resultados con fines
comparativos, incluyendo a todos los expertos y al resultado general, la
aplicación entrega un reporte denominado Resumen de resultados de entrada
y salida obtenido en el ícono Informes en Excel:
Para finalizar, es importante resaltar que hasta este punto no se ha
interpretado el resultado obtenido de las pruebas de bondad de ajuste, las
cuales determinan que la función de distribución que más se ajusta al
comportamiento de las ventas en toneladas de cemento es la función Beta
General, procedimiento realizado luego de haber corrido la simulación en el
punto cuatro. En otras palabras, ¿para qué sirve conocer la función de
distribución a la que mejor se ajustan los datos?

Aunque esta pregunta se tratará a profundidad en posteriores ejercicios, se


invita al lector a reflexionar sobre este asunto.

CAPITULO 3
CASO APLICADO LABORATORIO FARMACÉUTICO
Evaluación financiera de un proyecto de inversión, caso aplicado a un
Laboratorio Farmacéutico.
Para resolver este problema se requiere manejar los siguientes conceptos:

• Valor del dinero en el tiempo


• VPN
• TIR
• TIO
• Valor de salvamento
• Valor de mercado
• Valor en libros
• Costos variables
• Costos fijos
• Funciones de distribución Pert, Normal y Triangular

Se desea evaluar la posibilidad de invertir en un proyecto para producir y


comercializar un nuevo medicamento genérico para el dolor, bajo una marca
actualmente bien posicionada en el mercado. Se estima que el proyecto tenga
una duración de 5 años, al cabo de los cuales, nuevos avances científicos y la
evolución del mercado, ocasionarán la pérdida de vigencia del producto y por
lo tanto será necesario retirarlo del mercado.

Para efectos de facilidad en el manejo de las cifras los datos se expresan en


miles de pesos.
El monto de la inversión inicial se estima en $600.000.
Aunque se espera que el proyecto termine en 5 años, los activos requeridos
para la producción del medicamento podrán venderse solamente tres años
más tarde, debido a su especificidad y baja rotación, estimando su valor
residual en $180.000. El estudio de mercado realizado durante la fase de
preparación del proyecto indica que las ventas proyectadas oscilan en un
rango entre un valor pesimista de 70.000 unidades, un valor más probable de
100.000 unidades, y un valor optimista de 130.000 unidades por año.
Adicionalmente, el estudio sugiere un precio medio del producto de $12.5
con una desviación de $1.5 por unidad.
Los costos variables, representados en la materia prima involucrada para la
producción del medicamento se estiman en $5.85 por unidad como valor
mínimo, $6.3 por unidad como valor medio y $6.75 por unidad como valor
máximo, cifras obtenidas del estudio técnico. Adicionalmente, los costos fijos
se estiman en $160.000 al año. La tasa mínima de retorno requerida5 es del
20% efectivo anual.
La tasa de impuesto a las utilidades es del 33%.

Preguntas:
¿El proyecto es rentable?
¿Se debería invertir en el proyecto?

Solución: Para estimar la rentabilidad esperada del proyecto es necesario


calcular su tasa interna de retorno (TIR), para lo cual se requieren los flujos
de caja proyectados. Adicionalmente, uno de los indicadores que le permite al
inversionista tomar la decisión sobre si invierte o no en el proyecto es el valor
presente neto (VPN), el cual se calcula a partir de los flujos de caja del
proyecto y la tasa mínima requerida de retorno. (T.M.R.R.).

Resolviendo el ejercicio paso a paso


3.1 Identificación de las variables de entrada

5 Costo de oportunidad del


capital, tasa esperada, TIO, W.A.C.C., entre otros nombres utilizados para señalar la rentabilidad
mínima con la cual el inversionista quedaría satisfecho al invertir en el proyecto.
3.2 Explicación de las variables de entrada

La duración del proyecto es 5 años, pero el horizonte de evaluación del


proyecto es de 8 años debido a que sólo entonces se realizará el valor residual
de los activos, razón por la cual se proyectan los flujos de caja incluyendo los
3 años adicionales a su duración. Cabe precisar que los años seis, siete y ocho
no tienen operación.
La inversión inicial de $600.000 es determinada a partir del estudio técnico
del proyecto. Al igual que el valor de salvamento por un monto de $180.000.

La proyección de ventas es estimada a partir de un estudio de mercado, en


donde se incluye la participación de un panel de expertos y se determinan sus
valores pesimistas, medios y optimistas así: 70.000, 100.000 y 130.000
unidades. Estos datos se modelan con una función de distribución PERT.

El precio es determinado en el estudio de mercado mencionado, y se define


un precio medio de $12.5 con una desviación estándar de $1.5, variable
modelada con una función de distribución Normal.

Los costos variables unitarios son estimados a partir del estudio técnico, en
donde se determina un valor mínimo de $5.85, medio de $6.30 y máximo de
$6.75, variable modelada con función de distribución triangular.

Los costos fijos totales estimados en $160.000 por año son obtenidos a partir
de la experiencia adquirida en proyectos similares como en el estudio técnico.
La rentabilidad mínima requerida por el inversionista, es decir, su tasa de
interés de oportunidad (TIO), es el 20% efectivo anual.

Los activos se deprecian utilizando el método de línea recta a 5 años, de


acuerdo a su vida útil, estimada por un perito.
La tasa impositiva del país, de acuerdo con la normatividad, es del 33%. En
caso de que en algún período el proyecto genere pérdidas, el impuesto a
cargo será cero.
3.3 Desarrollo paso a paso del problema

Para determinar la tasa interna de retorno (TIR) y el valor presente neto del
proyecto (VPN) es necesario construir el flujo de caja proyectado para los
períodos que conforman el horizonte de evaluación.
El flujo de caja proyectado de acuerdo con las características señaladas se
construye a partir de la siguiente estructura:
Construcción del flujo de caja con @Risk:

Para modelar las ventas, se selecciona la función de distribución Pert en la


opción Definir distribución, así:
Luego se asocian las celdas con los datos de entrada de las ventas así:
Para los cuatro años siguientes las ventas se modelan de la misma manera,
por lo tanto se deben fijar las celdas utilizadas para estimar las ventas del
primer año, y así copiar la función arrastrándola hasta el año cinco. El valor
obtenido para cada año a través de este procedimiento representa el valor
medio de las ventas a partir de una función de distribución PERT; hasta este
paso no se ha activado la función recalculo aleatorio/estático, la cual generará
valores aleatorios a esta variable con la función de distribución mencionada y
por consiguiente los valores obtenidos son iguales.
Para modelar los precios se selecciona la función de distribución normal en la
opción Definir distribución, así:

Luego se asocian las celdas con los datos de entrada de los precios así:
En caso de que las variables tengan diferentes estimaciones para cada período
sería necesario repetir este procedimiento para cada año. Dado que en este
problema se tienen variables con datos de entrada estimados constantes, es
suficiente copiar la función para todos los años.

El procedimiento anterior, se aplica con una función de distribución


triangular para los costos variables unitarios.

Con todo lo anterior, se obtiene el flujo de caja proyectado (para facilidad del
lector se presenta además el flujo de caja con sus fórmulas en Excel y sus
datos numéricos):
Se puede apreciar en el flujo de caja anterior, que los valores de las variables
de entrada de cada uno de los años son iguales, dado que la herramienta
muestra los valores medios de la función de distribución de cada variable,
hasta que se active recálculo aleatorio/estático.
Con dicha función activa, los valores de las variables de entrada de cada año,
al igual que los valores de las variables de salida, toman aleatoriamente un
valor dentro de los límites de la distribución, por lo tanto, cada vez que se
active la función Recálculo aleatorio/estático, los valores cambiarán. No
sobra aclarar que el procedimiento anterior no es necesario, puesto que al
correr la simulación la herramienta lo hará automáticamente el número de
veces indicado, almacenando los resultados en una base de datos, a partir de
los cuales posteriormente se podrán obtener los resultados para las variables
de salida.

3.4 Cálculo y descripción de resultados obtenidos

Las variables de salida que permiten resolver las preguntas del problema son
el valor presente neto (VPN) y la tasa interna de retorno del proyecto (TIR),
las cuales se calculan, utilizando los flujos de caja del proyecto para la TIR, y
los flujos de caja del proyecto y la T.M.R.R para el VPN.
A continuación se ilustra paso a paso el procedimiento necesario para su
cálculo.

Luego de haber calculado el VPN y la TIR, estas celdas se asocian como


variables de salida en la opción Añadir salida, indicando el nombre de cada
una de ellas así:
Posteriormente, se configura la simulación, en donde se definen tanto el
número de iteraciones, como de simulaciones necesarias. Para esto se utiliza
la opción Configuración de la simulación, así:
Luego, es importante verificar que las variables modeladas
probabilísticamente, hayan sido definidas de acuerdo con las características
propias de cada una de ellas. La opción Ventana de modelo permite lograr lo
anterior:

En esta misma opción es posible hacer las correcciones que sean pertinentes a
cada una de las variables de entrada.

Una vez validado lo anterior, se da inicio al proceso de simulación con la


opción Iniciar simulación. Es importante resaltar, que se tiene la opción de
activar el Modo Demo para simular de forma más lenta su operación, con el
fin de poder visualizar de mejor manera los resultados:
Al finalizar la simulación, se seleccionan las celdas de salida, teniendo en
cuenta que la opción Visualizar resultados debe estar activada, con el ánimo
de visualizar los resultados del VPN y la TIR, así:
Cabe anotar que no solamente es posible observar los resultados de la
simulación para las variables de salida, sino también para las variables de
entrada.

3.5 Interpretación de los resultados


¿El proyecto es rentable?
¿Se debería invertir en el proyecto?

En las celdas (B34 Y B35) se observan los resultados del VPN y la TIR,
respectivamente, pero dichos resultados están calculados a partir de los
valores medios de las funciones de distribución de las variables de entrada,
sin tener en cuenta la simulación.

Los valores que se señalan e interpretan a continuación son resultados


probabilísticos obtenidos a partir de la simulación efectuada y se pueden
apreciar en las gráficas de las variables de salida, así como en los reportes
que la herramienta posibilita, los cuales se explicarán en detalle en el último
ejercicio de este texto.

En las dos últimas gráficas, se puede apreciar que la ganancia por encima de
lo esperado (VPN medio) es de $467.640,65 pesos, con una variabilidad en
sus resultados (desviación estándar) de $155.286,76.
Además, se tiene un 90% de confianza de que el valor presente neto esté
entre $216.000 y $726.000.

Por otra parte, la rentabilidad media del proyecto (TIR) es de 51,221%, con
una variabilidad en sus resultados de 11,050% (desviación estándar).
Además, se tiene un 90% de confianza de que la rentabilidad del proyecto
esté entre 34,0% y 70,3%.

Algunos de estos resultados se pueden comparar con los resultados obtenidos


a partir de los valores medios de las funciones de distribución de las variables
de entrada, logrados antes de ejecutar la simulación:

Resultados con : Valores Medios Simulación VPN $468.183 $467.640


TIR 50,95% 51,22%

El lector podría cuestionar la utilidad de la herramienta, pues luego de


invertir un tiempo considerable para abordar el problema de forma
probabilística, los resultados para el VPN y la TIR son muy similares como
se aprecia en el cuadro anterior. Sin embargo, la utilidad de la herramienta
consiste en las posibilidades que se tienen en cuanto al análisis de dichos
resultados, incluyendo probabilidades, lo que no sería posible realizar de otra
manera. Por ejemplo, luego de obtener los resultados de la simulación,
podemos establecer que la probabilidad de que el VPN del proyecto sea
inferior a $216.000, es del 5%, y que existe un 90% de probabilidad de que el
VPN del proyecto esté entre $216.000 y $726.000, entre otras tantas
posibilidades de interpretación que se tienen, a partir del gráfico del
histograma de frecuencias para las variables, VPN para el ejemplo dado
anteriormente.

Dicho lo anterior y retomando la pregunta que indaga sobre la rentabilidad


del proyecto, los resultados obtenidos permiten concluir que el proyecto sí es
rentable. Como ya se ilustró la rentabilidad esperada del proyecto es del
51,22% con una variabilidad del 11,05% en promedio. Pero la herramienta
permite hacer análisis que superan por mucho esta información, por ejemplo,
profundizando sobre la rentabilidad del proyecto se puede apreciar que existe
una probabilidad del 90% de que el proyecto rente entre 34,0% y 70,3%, y
que se tiene una probabilidad menor del 5% de que el proyecto rente menos
de 34,0%. Esto representa una situación no sólo positiva desde el punto de
vista de la rentabilidad sino también desde el punto de vista del riesgo,
recordando que la tasa mínima requerida de retorno es del 20%.

Se puede concluir además trabajando con el histograma de frecuencia para la


variable TIR que la probabilidad de que la rentabilidad sea inferior al 20% es
0,1%, en otras palabras, se tiene una probabilidad del 99,9% de que el
proyecto supere la tasa mínima requerida de retorno del inversionista, como
se muestra a continuación:
Se sugiere al lector que compruebe los resultados anteriores utilizando la
herramienta.

La anterior conclusión sirve además para dar respuesta a la segunda pregunta


planteada, sobre si se debe invertir o no en el proyecto. Teniendo claro que el
proyecto es rentable es fundamental recordar que esto no es suficiente para
tomar la decisión sobre si invertir o no, puesto que se deben incorporan
dentro del análisis otras variables como por ejemplo la tasa mínima requerida
de retorno6. En el último gráfico, ya se está incorporando la tasa mínima
requerida de retorno para analizar la rentabilidad del proyecto, concluyendo
que la probabilidad es casi del 100% de que ésta supere la exigida por el
inversionista.

Vale la pena recordar que la segunda variable de salida en el ejercicio es el


valor presente neto, el cual incorpora en su cálculo la tasa mínima requerida
de retorno. La lectura más simple que puede hacerse para los resultados del
VPN es que su valor esperado es de $467.640 con una variabilidad de
155.286. Pero, se puede avanzar más en el análisis trabajando con el
histograma de frecuencia para la variable de salida VPN, en donde se aprecia
que la probabilidad de que el VPN sea negativo es inferior al 0,1%, lo que
significa
6 Es común rechazar proyectos de inversión que son rentables, puesto que dicha rentabilidad puede
estar por debajo de la tasa mínima requerida de retorno del inversionista.
una probabilidad de casi el 100% de que el VPN del proyecto sea positivo,
como se puede apreciar a continuación.

Como el valor presente neto es positivo, esto significa que el proyecto renta
por encima de lo esperado, es decir, que la rentabilidad del proyecto TIR es
superior a la tasa mínima requerida de retorno T.M.R.R.

En conclusión, trabajando con las dos variables de salida, el proyecto es


rentable y viable financieramente bajo condiciones de riesgo. Sin embargo,
cabe aclarar que es posible que no sea suficiente con la TIR y el VPN para
evaluar un proyecto financieramente, y que sea necesario incluir variables
adicionales como por ejemplo el período de recuperación de la inversión
(PRI), que podrán apreciarse en el desarrollo del último ejercicio del presente
texto.

CAPITULO 4
CASO APLICADO PRODUCTORA DE CAFÉ

Evaluación financiera de un proyecto con análisis de riesgo.


Para resolver este problema se requiere manejar los siguientes conceptos:

• Valor del dinero en el tiempo • VPN


• TIR
• TIRM
• TIO
• Costos variables
• Costos fijos
• Seguro
• Función de distribución binomial • PRI
• RBC
• VAUE
• IRVA

Novedad de este problema:


• Aleatoriedad en variables cualitativas (Lluvia).

Un latifundista en Ecuador tiene 1.000 hectáreas de tierra. Un inversionista


está interesado en arrendarlas, con el fin de sembrar café Arábigo. Con el
ánimo de analizar si esta opción es viable financieramente, se contrata un
experto, para que realice un estudio de este proyecto. La información que se
le entrega al experto para que realice el estudio es la siguiente:
El valor del arrendamiento por hectárea de tierra al año es de USD 1.530
En los años anteriores las tierras recibieron un tratamiento especial para ser
aptas para este tipo de cultivos. Un asesor externo estima que el rendimiento
por hectárea de este tipo de terrenos puede ser clasificado como malo,
regular, bueno o excelente, relacionando esta clasificación con las toneladas
de café por hectárea generadas como se muestra a continuación:

Malo Regular Bueno Excelente Probabilidad 10% 20% 40% 30%


Rendimiento

en 5.0 y 5.5 5.5 y 7.0 7.0 y 9.5 9.5 y 11.0 Ton/hectárea

El café es procesado y comercializado en los Estados Unidos. Las


expectativas de precio son: precio medio de venta por tonelada de USD 970,
el precio mínimo de USD 920 y el precio máximo de USD 1020.

Los costos variables por hectárea cultivada se estiman en USD 653.


Adicionalmente, otros costos variables de cosecha dependen del rendimiento
del cultivo, el cual a su vez, varía según las condiciones climáticas. Estos
costos se estiman en USD 1.000.000 para el primer año, con un incremento
del 3% anual para los años siguientes.

Los gastos para la comercialización del café, incluyen el proceso de empaque


y flete, estimados en un valor de USD 192 por tonelada y adicionalmente,
unas comisiones de los intermediarios requeridos, las cuales se estiman en del
5,3% del ingreso bruto.

Los gastos del área administrativa se estiman en USD 99 por hectárea


sembrada. El horizonte de planeación del proyecto es de 10 años.

Se espera que el incremento anual promedio del precio del café sea mínimo
del 3% y máximo del 7%. Adicionalmente, con un incremento anual
promedio de los costos variables por hectárea de mínimo 10% y máximo del
15%, los gastos de administración por hectárea mínimo 7% y máximo 10%,
con un incremento anual de los gastos de comercialización por tonelada de
café del 8% con una desviación estándar del 2% y un incremento del 3%
anual en el costo del arrendamiento.

El inversionista espera una tasa mínima de retorno del 29% efectivo anual y
requiere una inversión inicial en la cual USD 1.000.000 son necesarios para
la adquisición de maquinaria y equipo, con una vida útil de 10 años, durante
los cuales se depreciará en línea recta, con un valor residual de 0, y el resto de
la inversión por valor de USD 3.282.000 en capital de trabajo requerido para
operar durante el primer año, el cual está conformado por el arrendamiento,
los costos variables por hectárea, otros costos variables de cosecha, y los
gastos de administración.

Las ventas de toneladas de café son realizadas de contado al final de cada año
y todo lo que está en capacidad de producir se venden en el período.
La tasa impositiva fijada por el gobierno es del 33% sobre las utilidades antes
de impuestos y en caso de que en el período no se generen utilidades la tasa
impositiva es 0%.

Preguntas:
¿Este proyecto es rentable para el inversionista?
¿Cuál es la probabilidad de que el inversionista tenga pérdidas en este
proyecto? ¿Cuál es la probabilidad que tiene el inversionista de obtener una
rentabilidad mayor al 45% efectiva anual en el proyecto?

Para el caso de lluvia:


El inversionista tiene la posibilidad de tomar un seguro con una empresa
local, el cual le cubre los costos de cultivo por valor de USD 653 por hectárea
y el arrendamiento pagado por valor de USD 1.530 por hectárea, en caso de
que se presente una tormenta y dañe el cultivo. Según estudios
metereológicos, la probabilidad anual de que exista una tormenta que dañe el
cultivo es del 8%.

¿Cuál es la probabilidad de pérdida si llueve y no se compra una póliza de


seguro? ¿Cuál es la probabilidad de pérdida si llueve y se compra una póliza
de seguro, cuyo valor es el 10% del valor asegurado, pagadero de forma
vencida? La aseguradora expide la póliza siempre y cuando se compre para
todos los años.
Explique si la probabilidad de pérdida calculada a partir del VPN es igual a la
probabilidad de pérdida calculada a partir de la TIR del proyecto.
¿A partir de los resultados encontrados, vale la pena entonces tomar el
seguro?

Apalancamiento financiero
Existe la posibilidad de solicitar un préstamo por un valor de $1.640.000
financiado a 10 años a una tasa de interés del 14% efectivo anual, pagadero
en cuotas anuales iguales. ¿Le conviene al inversionista solicitar el préstamo?
Supuestos para cálculos adicionales:
Tasa de reinversión: 29%
Tasa de financiación: 18%

Solución:

Resolviendo el ejercicio paso a paso:


Para la solución del siguiente ejercicio y dado que en los ejercicios anteriores
cada paso se ha descrito a profundidad, no se explicarán con el mismo nivel
de detalle algunos de los pasos requeridos para la construcción del modelo,
con el fin de que el lector aplique los conocimientos previamente adquiridos.
El ejercicio se analiza a partir de los siguientes escenarios:

• Sin lluvia y sin seguro.


• Con lluvia y sin seguro.
• Con lluvia y con seguro.

Además, en cada uno de estos escenarios el proyecto puede ser evaluado con
o sin financiación. Por lo tanto, se pueden construir y analizar seis flujos de
caja, tres para el proyecto y tres para el inversionista.

4.1 Escenario 1: Sin lluvia y sin seguro


4.1.1 Identificación de las variables de entrada
4.1.2 Explicación de algunas de las variables de entrada

En este problema, es importante resaltar el comportamiento que tienen las


variables de entrada. El precio sigue una función de distribución triangular, y
el incremento del precio por tonelada, así como el incremento de los costos
variables por hectárea y el incremento de los gastos de administración por
hectárea tienen una distribución uniforme. El incremento de los costos
variables de cosecha es determinístico, al igual que los gastos de comisiones
de intermediarios y el incremento en el costo de arrendamiento; el incremento
de los gastos de comercialización por tonelada tiene una función de
distribución normal.
La variable rendimiento (tonelada/hectárea) se calcula como un valor
esperado, que resulta a partir de las ponderaciones entre las probabilidades y
el rendimiento en toneladas por hectárea, que tiene una función de
distribución uniforme, dado un escenario determinado como se muestra a
continuación:

4.1.3 Desarrollo paso a paso del problema

Para solucionar el problema es necesario construir el flujo de caja del


proyecto a 10 años según lo planteado como horizonte de evaluación; es
importante tener en cuenta que los impuestos se calculan según lo causado
cada año. A continuación se ilustra el flujo de caja construido y el cálculo de
los impuestos:
Los costos de arrendamiento, los costos variables por hectárea, otros costos
variables de cosecha y los gastos de administración, son desembolsos que se
realizan por anticipado para poder comenzar la operación del proyecto.

Por tal razón, en el flujo de caja sus valores aparecen desde el período cero
hasta el período nueve. Adicionalmente, la sumatoria de estos rubros es el
capital de trabajo requerido en el período cero, así:
Para el cálculo de los impuestos de cada período es necesario construir el
estado de resultados, así:

4.1.4 Cálculo y análisis de resultados obtenidos


Como se ilustró en el ejercicio anterior, se calcula el VPN y la TIR de manera
determinística en principio, obteniendo los siguientes resultados:

Luego, se configura y
se ejecuta la simulación, que arroja los resultados que se muestran a
continuación:
4.1.5 Interpretación de los resultados
¿Este proyecto es rentable para el inversionista?
Para responder si el proyecto es rentable para el inversionista es pertinente
observar tanto la función de distribución del VPN como de la TIR.

La simulación arrojó que el mínimo valor posible para el VPN es USD


842.543 y el valor máximo USD 3.689.519 con un valor medio de USD
2.202.347. Se puede afirmar con una probabilidad del 90% que el valor
esperado del VPN estará en USD 1.557.000 y USD 2.864.000.
Adicionalmente, el valor mínimo posible para la TIR es 34,93%, máximo
54,09% y promedio de 44,31%. Se puede afirmar con una probabilidad del
90% que el valor esperado de la TIR estará entre el 39,96% y 48,78%.
En conclusión, bajo las condiciones modeladas en este escenario este
proyecto es rentable para el inversionista pues supera ampliamente su tasa
mínima requerida de retorno.
¿Cuál es la probabilidad de que el inversionista tenga pérdidas en este
proyecto?

Como se mencionó anteriormente, el valor mínimo del VPN en la función de


distribución es USD 842.543, lo que implica que la probabilidad de que el
inversionista tenga pérdidas en este proyecto bajo el escenario sin lluvia y sin
seguro es de cero. Lo anterior, se confirma con el valor mínimo de la TIR, a
partir del cual se concluye que la rentabilidad mínima que se obtendría en el
proyecto es 34,93%. Lo anterior, se puede apreciar en las gráficas de función
de distribución del VPN y de la TIR luego de ampliado el intervalo de
confianza al 100%.
¿Cuál es la probabilidad que tiene el inversionista de obtener una rentabilidad
mayor al 45% efectivo anual en el proyecto?

Modificando el límite inferior en la gráfica de la función de distribución de la


TIR se puede observar que existe una probabilidad del 39,3% de que el
inversionista obtenga una rentabilidad mayor al 45% efectiva anual.
4.2 Escenario 2: Con lluvia y sin seguro
4.2.1 Identificación de las variables de entrada
Evento con lluvia y sin seguro
Probabilidad de tormenta 8,0%
4.2.2 Explicación de algunas de las variables de entrada

En este caso aparece una variable adicional de entrada al caso anterior sin
lluvia y sin seguro, denominada probabilidad de tormenta, la cual según los
estudios meteorológicos es del 8%. Esta variable se modela con una función
de distribución binomial así: Evento lluvia: RiskBinomial (1; 8%). Lo
anterior modela un evento de lluvia con una probabilidad de 8% de
ocurrencia. 1- RiskBinomial (1; 8%) simula un evento sin lluvia, es decir, una
probabilidad del 92% de que no llueva.
A continuación se modela esta variable:

Como se puede apreciar, un cero en el campo evento sin lluvia significa que
si llueve y un uno significa sin lluvia.
4.2.3 Desarrollo paso a paso del problema

Para solucionar el problema es necesario construir el flujo de caja del


proyecto a 10 años según lo planteado como horizonte de evaluación. A
continuación se ilustra el flujo de caja determinístico construido:

De este flujo de caja se puede observar que el evento sin lluvia se presenta
todo con número uno, lo cual significa que no lloverá en ningún período. Sin
embargo, como se requiere simular el evento de lluvia, es necesario activar la
función de aleatoriedad de @Risk para simular tal evento. A continuación se
ilustra el flujo de caja probabilístico, en el cual se presenta probabilidad de
lluvia en los años dos, cuatro, nueve y diez. Nótese que para estos años las
variables ingresos, gastos de comercialización y gastos comisiones de
intermediaros están en cero, puesto que se presentó el evento lluvia.
4.2.4 Cálculo y análisis de resultados obtenidos
Como se ilustró en el ejercicio anterior, se calcula el VPN y la TIR de manera
determinística en principio, obteniendo los siguientes resultados:

Luego, se configura y
se ejecuta la simulación, que arroja los resultados que se muestran a
continuación:
4.2.5 Interpretación de los resultados
¿Este proyecto es rentable para el inversionista?
¿Cuál es la probabilidad de pérdida si llueve y no se compra una póliza de
seguro?
Para responder si el proyecto es rentable para el inversionista es pertinente
observar tanto la función de distribución del VPN como de la TIR.

La simulación arrojó que el mínimo valor posible para el VPN es USD –


11.759.535 y el valor máximo USD 3.672.311 con un valor medio de USD
709.884. Se puede afirmar con una probabilidad del 71,2% que el valor
esperado del VPN estará entre USD 0 y USD 3.800.000. La probabilidad de
pérdida de acuerdo con la simulación es de 28.8%
Adicionalmente, el valor mínimo posible para la TIR es -45.60%, máximo
54.20% y promedio de 34.87%. Se puede afirmar con una probabilidad del
71.4% que la TIR superará la tasa de interés de oportunidad con un intervalo
de confianza de 29% y 58%. Además, se tiene una probabilidad del 28.6% de
que la TIR no supere la tasa mínima de retorno.
En conclusión, se puede apreciar que en el caso en que se presente lluvia y el
inversionista no pague una póliza de seguros la probabilidad de pérdida
aumentará significativamente.

4.3 Escenario 3: Con lluvia y con seguro


4.3.1 Identificación de las variables de entrada
Las variables de entrada adicionales son gasto póliza de seguro e ingreso por
cobro de seguro.
4.3.2 Explicación de algunas de las variables de entrada
En este caso aparecen dos variables adicionales de entrada al caso con lluvia
y sin seguro, una denominada gasto póliza de seguro, y otra ingreso por cobro
de seguro.

El valor del gasto póliza de seguro es el 10% del costo del arrendamiento más
los costos variables por hectárea. El ingreso por cobro de seguro es el costo
del arrendamiento más los costos variables por hectárea, puesto que sería el
valor recibido en caso de que se presente la tormenta y dañe el cultivo.

4.3.3 Desarrollo paso a paso del problema


Para solucionar el problema es necesario construir el flujo de caja del
proyecto a 10 años según lo planteado como horizonte de evaluación. A
continuación se ilustra el flujo de caja determinístico construido:
De este flujo de caja se puede observar que el evento sin lluvia se presenta
todo con número uno, lo cual significa que no lloverá en ningún período. Sin
embargo, como se requiere simular el evento de lluvia, es necesario activar la
función de aleatoriedad de @Risk para simular tal evento.
A continuación se ilustra el flujo de caja probabilístico, en el cual se presenta
probabilidad de lluvia en los años cuatro, ocho y nueve.
Nótese que para estos años las variables ingresos, gastos de comercialización
y gastos comisiones de intermediaros están en cero, puesto que se presentó el
evento lluvia, además existe un gasto de póliza de seguro y en los períodos en
los cuales se presenta la lluvia se cobra el valor de ingreso por cobro de
seguro.

4.3.4 Cálculo y análisis de resultados obtenidos


Como se ilustró en el ejercicio anterior, se calcula el VPN y la TIR de manera
determinística en principio, obteniendo los siguientes resultados:
VPN $ 1.646.768,03 TIR 40,54%

Luego, se configura y se ejecuta la simulación, que arroja los resultados que


se muestran a continuación:
A este escenario se le calculan algunos indicadores adicionales al VPN y la
TIR con el fin de tener elementos adicionales que apoyen el proceso de toma
de decisiones en el proyecto. Estos indicadores son: Período de recuperación
de la inversión (PRI), razón beneficio costo (RBC), valor anual uniforme
equivalente (VAUE), inversión recuperada y valor agregado (IRVA).
Para el análisis del período de recuperación de la inversión se calcula el valor
presente neto del flujo de caja acumulado en el tiempo a la tasa de interés de
oportunidad determinada, con el ánimo de encontrar a lo largo del horizonte
de evaluación del proyecto en qué punto este flujo de caja acumulado se hace
cero, como se observa en el siguiente gráfico.
Periodo de recuperación de la inversión
Periodo 0 1 2 3 4 5 6 7 8 9 10 VPN acumulado en t-4.282.000 -2.998.024
-1.978.756 -1.172.446 -537.101 -38.701 350.278 652.064 884.576 1.062.236
1.646.768

VPN acumulado en t
2,000,000
1,000,000
- 0 1 2 3 4 5 6 7 8 9 10 11
-1,000,000
-2,000,000
-3,000,000
-4,000,000
-5,000,000

La razón beneficio costo puede obtenerse de dos formas. La primera consiste


en calcular la razón entre el valor presente de los flujos de caja del proyecto
desde el período uno hasta n y la inversión inicial. Este índice indica la
capacidad que tiene cada peso invertido de generar flujo de caja. La segunda
forma consiste en determinar la razón entre los valores presentes tanto de las
entradas como de las salidas del proyecto con el fin de analizar la capacidad
que tiene cada peso invertido en salidas de generar entradas. El RBC
calculado a partir de la razón entre el flujo de caja y la inversión inicial se
presenta a continuación, se sugiere que el lector calcule el otro indicador.

Análisis RBC
Valor Presente FC 5.928.768
Inversion Inicial 4.282.000
RBC 1,385

El VAUE consiste en diferir el valor presente neto de los flujos de caja del
proyecto en un valor constante durante el horizonte de evaluación del
proyecto.
VAUE
$ 518.167,09

El análisis IRVA es un enfoque realizado con base en el mismo


procedimiento efectuado para el cálculo de una tabla de amortización de un
préstamo. Es decir, si se realiza una comparación entre un préstamo y la
inversión para un proyecto, el costo del capital invertido es equivalente al
interés del préstamo y la recuperación del capital es equivalente a la
amortización de capital. Por lo tanto, el análisis IRVA permite calcular el
costo del capital invertido, la amortización de la inversión y la inversión por
recuperar para cada período en el horizonte de evaluación del proyecto, así:
T Inversión por Costo del capital recuperar al inicio invertido

0
1 -4.282.000 -1.241.780
2 -3.867.452 -1.121.561
3 -3.292.849 -954.926
4 -2.516.876 -729.894
5 -1.487.356 -431.333
6 -138.251 -40.093
7 1.614.177 468.111
8 3.876.304 1.124.128
9 6.783.483 1.967.210 10 10.508.200 3.047.378 Análisis IRVA Amortización de
la inversión y
valor agregado

414.548
574.603
775.972
1.029.520
1.349.105
1.752.429
2.262.127
2.907.179
3.724.717
10.506.806
FCN Inversión por recuperar al final del período
-4.282.000 1.656.328 -3.867.452 1.696.164 -3.292.849 1.730.898 -2.516.876 1.759.414 -1.487.356
1.780.439 -138.251 1.792.521 1.614.177 1.794.015 3.876.304 1.783.051 6.783.483 1.757.507
10.508.200 7.459.428 21.015.007 Tasas de VPN Acum en T descuento

-4.282.000 29% -2.998.024 29% -1.978.756 29% -1.172.446 29% -537.101 29% -38.701 29% 350.278
29% 652.064 29% 884.576 29% 1.062.236 29% 1.646.768

En la tabla anterior se observa que la primera columna contiene los períodos


en los cuales se evalúa el proyecto, la segunda columna muestra la inversión
por recuperar al inicio de cada período, la tercera es el costo del capital
invertido, la cuarta la amortización de la inversión, la quinta el flujo de caja
neto, la sexta la inversión por recuperar al final del período, la séptima la tasa
de interés de oportunidad y la última el valor presente neto acumulado en el
tiempo.

Los valores iníciales para construir esta tabla son el flujo de caja neto, la
inversión inicial y la tasa de descuento de cada período, los cuales se
presentan sombreados.
En la tabla siguiente se presentan con detalle las fórmulas requeridas para el
análisis IRVA. Observe que la columna flujo de caja neto son valores traídos
directamente del flujo caja construido inicialmente.

4.3.5 Interpretación de los resultados

¿Este proyecto es rentable para el inversionista?


¿Cuáles son los indicadores necesarios para afirmar si el proyecto es rentable
para el inversionista?
¿Cuál es la probabilidad de pérdida si llueve y se compra una póliza de
seguro, cuyo valor es el 10% del valor asegurado? La aseguradora expide la
póliza siempre y cuando se compre para todos los años.

Para responder si el proyecto es rentable para el inversionista es pertinente


observar tanto la función de distribución del VPN como de la TIR.
La simulación arrojó que el mínimo valor posible para el VPN es USD –
5.535.099 y el valor máximo USD 3.249.786 con un valor medio de USD
765.289. Se puede afirmar con una probabilidad del 76,9% que el valor
esperado del VPN estará entre USD 0 y USD 3.450.000. La probabilidad de
pérdida de acuerdo con la simulación es de 23.1%
Adicionalmente, el valor mínimo posible para la TIR es 1,68%, máximo
50,36% y promedio de 34,78%. Se puede afirmar con una probabilidad del
76,9% que la TIR superará la tasa de interés de oportunidad con un intervalo
de confianza de 29% y 52%. Además, se tiene una probabilidad del 23,1% de
que la TIR no supere la tasa mínima de retorno.

Otro indicador importante para acompañar la toma de la decisión es el


período de recuperación de la inversión, para este caso se presenta entre el
año cinco y el año 6, donde el valor presente neto acumulado en t pasa de
USD -38.701 a USD 350.278, período en el cual se comienza a generar VPN
positivo.

En muchas ocasiones el comportamiento del VPN acumulado en el tiempo


permite analizar si en algún momento éste comienza a decrecer o por el
contrario sigue creciendo en forma sostenida. Su comportamiento
generalmente tiene forma en “S”. Cuando se presenta esta forma es posible
realizarle un ajuste polinómico de grado 3 y obtener el punto de inflexión
para determinar en qué momento cambia su pendiente, como se observa a
continuación.

VPN acumulado en t
y = 7016.5x3 - 157531x2 + 1E+06x - 4E+06 R² = 0.9991 2,000,000
1,000,000
- 0 1 2 3 4 5 6 7 8 9 10 11
-1,000,000
-2,000,000
-3,000,000
-4,000,000
-5,000,000

La segunda derivada de la función ilustrada en el gráfico arroja como


resultado su punto de inflexión. Para un análisis completo de la curva en “S”
se sugiere al lector remitirse a los capítulos cinco y seis.
Encontrar este punto de inflexión es bastante importante puesto que las
posibles causas en la disminución de la pendiente del crecimiento del VPN
pueden ser:

• Etapa de madurez en el volumen de ventas del producto o servicio. •


Incremento en la estructura de costos y gastos del proyecto. • Exigencias del
proyecto de nuevas inversiones.
• Reducción de las ventas debido al ingreso de nuevos competidores. •
Cambios en las necesidades de los clientes.
• Obsolescencia de la tecnología.

Por todo lo anterior, es necesario que al momento de realizar la evaluación


financiera del proyecto, se realicen este tipo de análisis, con el fin de
identificar estas causas y así tomar decisiones que permitan potencializar la
creación del VPN en el futuro.

Otra forma de analizar el PRI es mediante el análisis IRVA, el cual


determinará si el desempeño del proyecto a lo largo del tiempo es adecuado o
no, es decir, muestra si se genera valor o no se genera valor. Para su análisis
es necesario:

• Determinar si la amortización de la inversión y valor agregado es positiva o


negativa. En caso de que sea positiva, significa que el flujo de caja del
período paga el costo del capital invertido y genera una suma adicional para
recuperar la inversión inicial y para crear VPN. En caso de que sea negativa,
significa que el flujo de caja del período no tiene capacidad para pagar el
costo del capital invertido, como consecuencia de una destrucción de valor
y/o de una reinversión efectuada durante el período.

• Comparar los signos y valores entre la amortización de la inversión y valor


agregado (IRVA) y la inversión por recuperar al final del período.
o Para los períodos anteriores al PRI se tienen las siguientes posibilidades:

Si IRVA > inversión por recuperar al final del período, el desempeño del
flujo de caja es mejor que lo esperado, por lo tanto existe recuperación de la
inversión.
Si IRVA < inversión por recuperar al final del período, el desempeño del
flujo de caja no cumple las expectativas esperadas, no se recupera la
inversión y el flujo de caja no cubre el costo de capital para ese período.
o Para los períodos posteriores al PRI se tienen las siguientes posibilidades:

Si IRVA > inversión por recuperar al final del período, el desempeño del
flujo de caja es mejor que lo esperado, y existe creación de VPN.
Si IRVA < inversión por recuperar al final del período, el desempeño del
flujo de caja no cumple las expectativas esperadas, y se da destrucción de
VPN.

Retomando los datos obtenidos del análisis IRVA se tiene:


Analisis IRVA

T Inversión por recuperar al inicio

0
1 -4.282.000,0
2 -3.867.451,6
3 -3.292.848,6
4 -2.516.876,5
5 -1.487.356,3
6 -138.251,1
7 1.614.177,4
8 3.876.304,3
9 6.783.483,3 10 10.508.200,2 Costo del capital invertido Amortización de la inversión y valor
agregado

-1.241.780,0
-1.121.560,9
-954.926,1
-729.894,2
-431.333,3
-40.092,8
468.111,5
1.124.128,3
1.967.210,2
3.047.378,1
414.548,4 574.602,9 775.972,1 1.029.520,1 1.349.105,2 1.752.428,6 2.262.126,9 2.907.179,0
3.724.716,9 10.506.806,3 FCN Inversión por Tasas de VPN Acum en T recuperar al final descuento
del período
-4.282.000 -4.282.000 1.656.328,4 -3.867.451,6 29% -2.998.024,5 1.696.163,9 -3.292.848,6 29%
-1.978.756,5 1.730.898,2 -2.516.876,5 29% -1.172.445,8 1.759.414,3 -1.487.356,3 29% -537.101,3
1.780.438,5 -138.251,1 29% -38.700,8 1.792.521,4 1.614.177,4 29% 350.278,1 1.794.015,5
3.876.304,3 29% 652.063,5 1.783.050,7 6.783.483,3 29% 884.575,8 1.757.506,8 10.508.200,2 29%
1.062.235,8 7.459.428,2 21.015.006,5 29% 1.646.768,0

En este cuadro se observa que la columna IRVA presenta valores positivos


entre el período 1 y 5, y la columna inversión por recuperar al final del
período presenta cifras negativas entre el período 1 y 5, lo cual significa que
hasta ese momento el flujo de caja sí ha paga el costo del capital invertido, sí
amortiza la inversión inicial, pero aún no recupera la inversión inicial
(observe los valores sombreados en este cuadro).
Adicionalmente, entre los períodos 6 y 10 el IRVA es positivo y la inversión
por recuperar al final del período también es positiva, lo que significa que se
recupera la inversión inicial y se crea VPN.

A partir de la inversión por recuperar al final del período es posible calcular


el VPN acumulado en el tiempo, y por lo tanto el PRI. Esta cifra se obtiene al
calcular el valor presente de cada uno de los valores de la inversión por
recuperar al final del período a la TIO determinada por el inversionista. En el
cuadro anterior, la columna VPN acumulado en el tiempo es igual a los
valores obtenidos en el análisis PRI, en el cual se aprecia que entre el período
cero y cinco los valores son negativos y entre el seis y el diez son positivos.

Del gráfico que aparece a continuación se puede apreciar que el valor


esperado del VAUE es USD 249.841,49 con un valor mínimo de USD
-1.734.283,72 y un valor máximo de USD 949.307,38 con una probabilidad
de que este valor sea mayor que cero de un 77,6%, lo cual concuerda con la
probabilidad de que el valor presente neto sea mayor o igual a cero.

El gráfico siguiente presenta la función de distribución de la razón beneficio


costo, en la cual se observa que existe una probabilidad del 77,6% de que este
valor sea mayor que uno, es decir, significa que existe una probabilidad del
77,6% de que los flujos de caja generados en el proyecto permitan recuperar
la inversión. Adicionalmente, se observa que su valor esperado es 1,183, lo
cual significa que por cada dólar invertido en el proyecto, éste genera 1,18
dólares de flujo de caja. Su mínimo valor es - 0,3402 y su máximo valor
1,777. El lector puede apreciar que el RBC tendrá valores negativos en
aquellos casos en que el proyecto genere flujos de caja negativos. También se
puede observar que existe una probabilidad del 22,4% de que el proyecto no
genere el suficiente flujo de caja para pagar la inversión.

El gráfico de tornado que se presenta a continuación muestra cómo se


relacionan cada una de las variables de entrada aleatorias del modelo con
relación con las variables de salida (VPN, TIR, entre otras…).

Para el caso del valor presente neto se puede observar que la variable “evento
no lluvia” entre los años 1 y 8 es la variable que más incidencia tiene en las
variaciones del valor presente neto, seguida de la variable precio por tonelada
y finalmente del rendimiento por tonelada hectárea. La variable “evento no
lluvia” tiene una correlación negativa, lo cual indica que en el caso de
presentarse lluvia se afecta negativamente el valor presente neto del flujo de
caja y una correlación positiva para las variables rendimiento por tonelada
por hectárea y precios por tonelada.

En el caso evento no lluvia año 1 un coeficiente de correlación igual a -0,43,


equivalente a un coeficiente de determinación7 de 18,49% significa que los
cambios en el valor presente neto están explicados en un 18,49% por este
evento. El lector puede comprobar que la suma de los coeficientes de
determinación de las variables que aparecen en el gráfico explica máximo el
100% en los cambios del valor presente neto.

Se sugiere que el lector realice el análisis del coeficiente de correlación para


la TIR, el cual se presenta a continuación:
Otro análisis importante que se puede realizar es encontrar respuestas a
preguntas tales como ¿cuántas hectáreas de tierra adicionales se deben
alquilar con el fin de obtener un valor medio de la TIR del 50%?, ¿cuál sería
el incremento mínimo de precio por tonelada para obtener un VPN de USD
1.700.000?
7 Coeficiente de determinación: es el cuadrado del coeficiente de correlación de la variable.

Para responder la pregunta sobre el número de hectáreas adicionales es


necesario utilizar la opción Búsqueda de objetivo de Análisis avanzados, la
cual se explicó en la sección análisis avanzado de la simulación al comienzo
del texto:
Del cuadro anterior se observa que con un aumento de 611.5 hectáreas se
alcanzaría un valor medio de la TIR del 49.977%. Se sugiere al lector
responder la pregunta para el VPN.

También, es posible efectuar análisis de estrés, el cual permite encontrar


valores extremos máximos o mínimos, un rango determinado de valores o
sustituir una función de distribución por otra. Por ejemplo, si se requiere
analizar los valores mínimos del valor presente neto ante cambios en la
variable de entrada precios por tonelada en los años 1 y 2 (es posible realizar
el análisis a todos los años, para efectos ilustrativos se realiza únicamente a
los años 1 y 2), se debe tener en cuenta que el precio está compuesto por dos
funciones de distribución, una triangular el precio base y otra uniforme la tasa
de crecimiento del precio. El análisis de estrés simula los valores mínimos de
cada función de distribución hasta el percentil 5. Para efectuar lo anterior se
debe seleccionar la opción Análisis de estrés en Análisis avanzados, allí se
escoge la celda a monitorear (VPN) y las variables de entrada a cambiar
(precios por tonelada para los años 1 y 2). Los resultados obtenidos son la
variación del valor medio del VPN, de la desviación estándar, del percentil
5% y del percentil 95%, cuyos gráficos se muestran a continuación:

Media
(Valor real) 787850
787800 787792.1867
787750 787728.6043 787730.7518
787700 787695.3433
787650 787604.0931 787600
787550
787500 Línea de base PRECIO por tonelada / PRECIO por tonelada /

1 Q4 5.00% a 95.00% 1 Q4 5.00% a 95.00% PRECIO por tonelada / PRECIO por tonelada / 2 R4
5.00% a 95.00% 2 R4 5.00% a 95.00%

El gráfico anterior muestra el valor medio inicial del valor presente neto y el
VPN obtenido a partir de valores generados por las variables precio año 1 y 2
hasta el percentil 5% y 95%. En él se aprecia la línea base, la cual es el VPN
medio (primera barra). Adicionalmente se presentan cuatro barras. La
segunda y tercera barra son el resultado del VPN ante los valores mínimos
entre el percentil 0% y 5% de las funciones de distribución triangular y
uniforme del precio del año 1; las dos restantes, cuarta y quinta barra,
contienen el resultado del VPN ante los valores mínimos entre el percentil
0% y 5% de las funciones de distribución triangular y uniforme del precio del
año 2. Al hacer análisis de stress con percentiles entre 0% y 5% se construye
un análisis pesimista de lo que podría sucederle a la viabilidad del proyecto
en caso de que se den unos precios bajos. Se sugiere que el lector visualice
los valores obtenidos del gráfico.
Desviación estándar
(Valor real) 1162600

1162388.654
1162400 1162257.438 1162200

1162000 1161923.015
1161800 1161712.435
1161600
1161400 1161269.928 1161200
1161000
1160800
1160600 Línea de base PRECIO por tonelada / PRECIO por tonelada / PRECIO por tonelada /
PRECIO por tonelada / 1 Q4 5.00% a 95.00% 1 Q4 5.00% a 95.00% 2 R4 5.00% a 95.00% 2 R4 5.00%
a 95.00%

El gráfico anterior muestra la desviación estándar del VPN tanto en la línea


base como con los resultados obtenidos del análisis de stress para los precios
del año 1 y 2. La desviación estándar del valor medio del VPN es USD
1.162.388 con un valor mínimo de USD 1.161.269 y un valor máximo de
USD 1.163.257 ambos obtenidos para precios del año 1, el primero debido a
la función de distribución triangular y el segundo a la uniforme.

Percentil 5to
(Valor real)
-1466000

-1468000
-1469532.301 -1469611.78
-1470000

-1472061.865
-1472000
-1474000
-1475923.475-1475487.461
-1476000
-1478000 Línea de base PRECIO por tonelada / PRECIO por tonelada / PRECIO por tonelada /
PRECIO por tonelada / 1 Q4 5.00% a 95.00% 1 Q4 5.00% a 95.00% 2 R4 5.00% a 95.00% 2 R4 5.00%
a 95.00%

En el gráfico anterior analiza el percentil 5% del valor presente neto por un


valor de USD 1.475.923. Este valor es obtenido al ordenar de menor a mayor
los diez mil datos arrojados por la simulación de Montecarlo, escogiendo el
dato número quinientos. Al realizar el análisis de stress se observa cómo
estos valores son inferiores a los de la línea base, alcanzando un valor
mínimo de USD -1.469.532, valor que pertenece a los mínimos obtenidos de
la función de distribución triangular del precio del año 1.

Percentil 95vo
(Valor real)
2127000
2126000 2125768.274

2125000 2124000 2123660.359


2123000

2122000 2120985.796
2121000 2120434.98
2119961.452
2120000

2119000
2118000
2117000 Línea de base PRECIO por tonelada / PRECIO por tonelada / PRECIO por tonelada /
PRECIO por tonelada / 1 Q4 5.00% a 95.00% 1 Q4 5.00% a 95.00% 2 R4 5.00% a 95.00% 2 R4 5.00%
a 95.00%

Del gráfico percentil 95% se ilustra el valor presente neto por un valor de
USD 2.123.660. Este valor es obtenido al ordenar también de menor a mayor
los diez mil datos arrojados por la simulación de Montecarlo, escogiendo el
dato número nueve mil quinientos. Al realizar el análisis de stress se observa
cómo estos valores son inferiores a los de la línea base, alcanzando un valor
mínimo de USD 2.120.434, valor que pertenece a los mínimos obtenidos de
la función de distribución triangular del precio del año 1.

Los dos gráficos siguientes muestran las variaciones porcentuales tanto del
VPN como de la desviación estándar para el percentil 5%.
Media
(Cambio sobre la línea de base) 100
0.01%
50
0.00% 0
-50
0.00%
-100
-0.02%
-150
PRECIO por tonelada / 1 Q4 5.00% a 95.00%
PRECIO por tonelada / 1 Q4 5.00% a 95.00%
PRECIO por tonelada / 2 R4 5.00% a 95.00%
PRECIO por tonelada / 2 R4 5.00% a 95.00%
Desviación estándar
(Cambio sobre la línea de base) 0
-200
-0.01%
-400
-0.04%
-600
-0.06%
-800
-1000
-1200 -0.10%
PRECIO por tonelada / 1 Q4 5.00% a 95.00% PRECIO por tonelada / 1 Q4 PRECIO por tonelada / 2
R4 5.00% a 95.00% 5.00% a 95.00%
PRECIO por tonelada / 2 R4 5.00% a 95.00%

Otro análisis adicional para evaluar si se lleva a cabo el proyecto o no, es


posible obtenerlo mediante una tabla de datos, herramienta que permita hacer
un análisis bivariado para una variable de salida determinada. En este caso se
desea evaluar cómo se comporta el VPN ante cambios en los rendimientos
por tonelada hectárea y precio de venta. Si el rendimiento por tonelada
hectárea oscila entre 5 y 11 y si el precio de venta medio cambia entre USD
970 y USD 1.100 por tonelada del año 1. En este caso se supone que el
rendimiento medio por hectárea es igual para todos los años y el precio de
venta medio del año 1 es de USD 1018,50 con un crecimiento entre un 3% y
un 7% cada año.

Para la construcción de esta tabla de datos es necesario construir en Excel una


tabla como la que aparece a continuación: El vértice superior izquierdo es la
variable de salida, los valores de la fila son los rendimientos por hectárea y
los valores de la primera columna son los precios. Se observa que los
rendimientos por hectárea tienen un crecimiento de 0,5 entre cada escenario y
los precios crecen USD 15 entre cada escenario. Estos valores son asignados
por el experto de acuerdo al análisis que se quiere realizar.
VPN Rendimiento (ton/hectárea)
$ 2.399.816,67 5,00 5,50 6,00 6,50 7,00 7,50 8,00 8,50 9,00 9,50 10,00 10,50 11,00 970
975
980
985
990
995

1.000
1.005
1.010
1.015
1.020
1.025
1.030
1.035
1.040
1.045
1.050
1.055
1.060
1.065
1.070
1.075
1.080
1.085
1.090
1.095
1.100

Para obtener los resultados se selecciona la opción Tabla de datos del menú
Datos – Herramientas de datos - Análisis de hipótesis:

Al seleccionarlo se obtiene el siguiente cuadro de diálogo:

A la celda de entrada de la fila se asocia la variable de entrada rendimiento


tonelada hectárea y a la celda de entrada de la columna se asocia la variable
precio por tonelada. Para efectos del ejercicio se asume todos los periodos
presentan la misma variabilidad del año 1 en precios y cantidades, así:
Los resultados obtenidos son:

De la tabla se puede observar que el valor mínimo del VPN es USD


-4.190.693 y un valor máximo USD 9.939.965. La zona sombreado muestra
las combinaciones entre rendimiento y precio que generan un VPN negativo
y también se aprecia que el rendimiento mínimo de tonelada por hectárea y el
precio mínimo por tonelada para comenzar a generar VPN positivo es de 6,5
y USD 1.065 respectivamente.
Otra pregunta adicional que se puede resolver en este punto es ¿cuáles son las
combinaciones entre rendimiento tonelada hectárea y precio por tonelada que
generan un VPN entre USD 2 y USD 3 millones? La segunda zona
sombreada muestra que estos valores se alcanzan cuando el rendimiento por
tonelada hectárea está entre 7,5 y 9 y cualquier rango de precios definidos
anteriormente. Si a juicio del experto se selecciona la combinación entre 8,5
toneladas por hectárea y un precio de USD 1.015 por tonelada ¿qué análisis
adicional se podría realizar? Para responder esta pregunta es necesario extraer
el valor presente neto seleccionado de la tabla de datos elaborada
anteriormente, tal como se ilustra a continuación:

El valor extraído se selecciona como una variable de salida con el fin de


ejecutar una simulación (nótese que este tipo de simulación podría requerir
un tiempo considerable para su ejecución) para analizar la función de
distribución del VPN resultante, así:
De allí se puede observar que para una combinación entre 8,5 toneladas por
hectárea y un precio de USD 1.015 por tonelada existe una probabilidad de
pérdida de 7.5% y una probabilidad de que el VPN sea mayor que cero del
92,5%, adicionalmente, el valor más probables del VPN es USD 2.035.635,
el mínimo valor es USD -5.885.046 y el máximo valor posible USD
3.973.138.

4.4 Análisis de Elasticidad

En términos matemáticos elasticidad es él % de variación porcentual en el


VPN dividió por él % de variación porcentual en el precio. Para calcular la
elasticidad en un intervalo de datos, se utiliza la definición de “Elasticidad
Arco” la cual mide la elasticidad en un punto del VPN y se hace sobre un
rango específico de precios, es decir sobre un arco, obteniendo una definición
de elasticidad precio que permite hacer una aproximación numérica.

������������������������������= ΔVPN
12(������1 + ������2) = ΔVPN(������1 +
������2)
ΔP12(������������������1 +
������������������2)
ΔP(������������������1 +
������������������2)

Donde:
EVPNp: elasticidad arco del VPN con respecto al precio
P1: precio inicial seleccionado para el análisis
P2: precio final seleccionado para el análisis
VPN1: resultado del VPN arrojado por el flujo de caja con el precio inicial
(P1) VPN2: resultado del VPN arrojado por el flujo de caja con el precio final
(P2)

Para este ejemplo, si se supone un precio inicial de USD 800 / tonelada, se


obtiene un VPN de USD 770.889 y a un precio de USD 900 / tonelada, se
obtiene un VPN de USD 1.171.749.Lo que significa que un incremento de
USD 100 / tonelada arroja como resultado un incremento en el VPN de USD
400.860 y una elasticidad de 3.51; lo cual significa que la variación
porcentual del VPN con respecto al precio es elástica, es decir, el VPN varía
en mayor proporción que los precios.

El procedimiento para su cálculo es el siguiente:

Se crea una tabla con el rango de precios a analizar y para cada precio (en
términos del año 1) se calcula el VPN y la TIR mediante la herramienta
análisis de datos, del menú Datos – Análisis Y Si.

Posteriormente se ajustan las variables a una línea recta obteniendo el


intercepto y la pendiente, para poder calcular con estos resultados la
elasticidad.

Precios VPN TIR 1.646.768 40,5% 800,0 770.889,0 33,8% 850,0 971.319,0
35,2% 900,0 1.171.749,0 36,7% 950,0 1.372.179,0 38,3%

1.000,0 1.572.608,9 39,9%


1.050,0 1.773.038,9 41,7%
1.100,0 1.973.468,9 43,5%
1.150,0 2.173.898,9 45,5%
1.200,0 2.374.328,9 47,5%
1.250,0 2.574.758,8 49,7%
1.300,0 2.775.188,8 52,0% Intercepto -2.435.990,7 4,09% Perndiente 4.008,6
3,00%

VPN
y = 4008.6x - 2E+06 R² = 1 3,000,000
2,500,000
2,000,000
1,500,000 VPN Lineal (VPN)1,000,000
500,000
-
- 200.0 400.0 600.0 800.0 1,000.0 1,200.0 1,400.0

TIR y = 0.0004x + 0.0409


60.0% R² = 0.9942
50.0%
40.0%
30.0% TIR Lineal (TIR)20.0%
10.0%
0.0%
Se sugiere al lector el cálculo de la
- 200.0 400.0 600.0 800.0 1,000.0 1,200.0 1,400.0
elasticidad de la TIR con respecto al precio y su análisis correspondiente.
4.5 Análisis de Escenarios

Otro análisis adicional que se puede realizar es utilizar la opción análisis de


escenarios en donde se puede variar el rendimiento por tonelada hectárea de
acuerdo con las diversas posibilidades de producción definidas por el experto,
así, para un escenario excelente, bueno, regular y malo.
Se propone el caso de que el rendimiento por tonelada / hectárea varíe de
acuerdo a diferentes condiciones meteorológicas y de acuerdo a la calidad del
abono utilizado así:
Rendimiento (ton/hectárea)
Periodo / Escenario 1 2 3 4 5 6 7 8 9 10 Excelente 8,00 8,20 8,40 8,60 8,80 9,00 9,20 9,40 9,60 9,80
Bueno 7,30 7,60 7,90 8,20 8,50 8,80 9,10 9,40 9,70 10,00 Regular 7,60 7,70 7,80 7,90 8,00 8,10 8,20
8,30 8,40 8,50 Malo 6,90 7,00 7,10 7,20 7,30 7,40 7,50 7,60 7,70 7,80

Para modelar los escenarios, se utiliza la opción Datos, Análisis Y si


Administrador de Escenarios:

En la opción Agregar se asigna el nombre a los diferentes escenarios a


analizar y se señalan las celdas cambiantes en el flujo de caja, en este caso,
Rendimiento (ton/hectárea) así:

Se sugiere antes de digitar los datos del escenario, nombrar las celdas tanto
de variables de entrada como de salida, con el fin de poder identificar en el
reporte que arroja el Excel cada uno de los resultados con mayor facilidad.
Este procedimiento se hace digitando el nombre de la celda en la esquina
superior izquierda de la hoja de cálculo así: Note que la celda correspondiente
al rendimiento por tonelada / hectárea el año 1 corresponde a la celda Q3 y se
ha nombrado como R_1 (rendimiento por tonelada / hectárea del año 1).
Note que la
celda correspondiente al flujo de caja del año 0 corresponde a la celda P26 y
se ha nombrado como FC_0 (flujo de caja del año 0).

Después de nombrar las celdas, se procede a digitar los datos de los


escenarios propuestos uno a uno.
Luego de haber configurado cada uno de los escenarios, se oprime la opción
Resumen y se seleccionan los resultados que se analizaran con base en los
escenarios propuestos, en este caso, el flujo de caja neto y los valores del
VPN y la TIR Los resultados arrojados se presentan a continuación, donde se
pueden observar los diferentes flujos de caja asociados a cada escenario, así
como el VPN y TIR de cada uno, en los cuales se muestra que el único
escenario no viable financieramente es el “Malo”, el cual da como resultado
un VPN de USD -89,114.3; el resto de los escenarios a pesar de tener una
expectativa baja de por rendimiento por tonelada / hectárea son viables
financieramente.

Se sugiere al lector desarrollar el análisis de escenarios para los resultados del


RBC y VAUE.
Resumen de escenario
Valores actuales: Excelente Bueno Regular Malo
Celdas cambiantes:

R_1 8,15 8,00 7,30 7,60 6,90


R_2 8,15 8,20 7,60 7,70 7,00
R_3 8,15 8,40 7,90 7,80 7,10
R_4 8,15 8,60 8,20 7,90 7,20
R_5 8,15 8,80 8,50 8,00 7,30
R_6 8,15 9,00 8,80 8,10 7,40
R_7 8,15 9,20 9,10 8,20 7,50
R_8 8,15 9,40 9,40 8,30 7,60
R_9 8,15 9,60 9,70 8,40 7,70
R_10 8,15 9,80 10,00 8,50 7,80
Celdas de resultado:
FC_0 -4.282.000 -4.282.000 -4.282.000 -4.282.000 -4.282.000
FC_1 1.656.328 1.580.234 1.225.126 1.377.315 1.022.207
FC_2 1.696.164 1.722.589 1.405.492 1.458.342 1.088.396
FC_3 1.730.898 1.868.503 1.593.294 1.538.252 1.152.960
FC_4 1.759.414 2.017.299 1.788.068 1.616.145 1.214.992
FC_5 1.780.439 2.168.150 1.989.206 1.690.967 1.273.431
FC_6 1.792.521 2.320.060 2.195.933 1.761.490 1.327.046
FC_7 1.794.015 2.471.834 2.407.279 1.826.293 1.374.414
FC_8 1.783.051 2.622.056 2.622.056 1.883.731 1.413.888
FC_9 1.757.507 2.769.058 2.838.820 1.931.912 1.443.577
FC_10 7.459.428 8.655.328 8.800.286 7.713.104 7.205.753
VPN $ 1.646.768,03 $ 2.403.289,13 $ 1.657.005,69 $ 1.170.375,14 $ -89.114,13
TIR 40,54% 44,14% 38,91% 36,77% 28,41%

Se sugiere que el lector elabore los tres escenarios restantes planteados al


inicio del capítulo, correspondientes a la proyección de flujos de caja con
financiación.

CAPITULO 5
CASO DE APLICACIÓN DE RISK OPTIMIZER

Construcción modelo de Markowitz con RiskOptimizer (Algoritmos


Genéticos)

En el siguiente ejemplo se señalan los pasos que deben seguirse para la


conformación de un portafolio mediante el modelo de Markowitz, utilizando
la herramienta “Risk Optimizer”, incluida en Palisade Decision Tools Suite.
Dicha aplicación puede ser utilizada, entre otras opciones, para analizar
alternativas de inversión para excedentes en efectivo generados por proyectos
de inversión.

Luego de leer y entender la descripción del desarrollo paso a paso para la


construcción del modelo utilizando Risk Optimizer, el lector puede
enfrentarse a la construcción de un modelo siguiendo las recomendaciones y
respondiendo las preguntas propuestas.

Pasos a seguir para la construcción del modelo:


1. Obtener una matriz de Precios (Puede ser de bonos, acciones, petróleo, oro,
etc.)

Date E1 E2 E3 En Fecha 1 P11 P21 P31 Pn1


Fecha 2 P12 P22 P31 Pn2

Dónde: P11 es el precio de la acción de la empresa 1 en el día 1. P12 es el


precio de la acción de la empresa 1 en el día 2 y así
sucesivamente.

2. Calcular matriz de rendimientos


Date E1 E2 E3 En Fecha 2 LN(P12/P11) LN(P22/P21) LN(P32/P31) LN(n2/n1) Fecha 3 LN(P13/P12)
LN(P23/P22) LN(P33/P32) LN(n3/n2)

3. Calcular rendimientos promedio con base en la matriz de rendimientos.


=Promedio (Rendimiento 1 ; Rendimiento n)
=Desvest (Rendimiento 1 ; Rendimiento n)

4. Calcular matriz de covarianza con base en la matriz de rendimientos. Ruta


en Excel: Datos, Análisis de datos, Covarianza
En el rango de entrada se seleccionan los rendimientos desde la fecha inicial
hasta la fecha final, incluyendo los nombres de las variables, teniendo
cuidado de no señalar los resultados de promedio y desviación.

Si se selecciona “rótulos en la primera fila”, se debe tener cuidado de haber


seleccionado en el rango de entrada los nombres de las variables.
En rango de salida, se selecciona la celda en la cual se desea presentar los
resultados.

Matriz de Covarianza
E1 E2 E3 E4 E1 Cov11
E2 Cov12 Cov22
E3 Cov13 Cov23 Cov33
E4 Cov14 Cov24 Cov34 Cov44

El resultado es una matriz triangular inferior, y al ser la matriz de covarianza


simetrica, ésta debe ser completada para poder realizar los cálculos del
modelo.

5. Generar una matriz de ponderaciones ( Wi) así:


Ponderaciones
Empresa Wi E1 25% E2 25% E3 25% E4 25%

SUMA 1

Si la sumatoria de esta matriz es igual a 1, se supone que no hay


apalancamiento y que el inversionista sólo cuenta con el capital propio; no
obstante, es posible simular un apalancamiento o recursos adicionales con los
cuales pueda contar el inversionista si se permite un número mayor a 1.

6. Hacer los siguientes cálculos:

Calculos Varianza Diaria


Varianza Anual
Desviacion Anual
Rendimiento Anual

-Varianza Diaria: =MMULT(MMULT(TRANSPONER(Matriz de


Ponderaciones);Matriz de Covarianza); Matriz de Ponderaciones).
Ejemplo de construcción de la Varianza Diaria: Observe los rangos que se
plantean en el siguiente gráfico y compare con la ecuación presentada:
=MMULT(MMULT(TRANSPONER(B264:B267);B257:E260);B264:B267)

Para que la formula anterior opere como una funcion matricial es


indispensable, estando ubicado en la celda activa, presionar la tecla F2 y
luego presionar simultaneamente las teclas SHIFT + CTRL + ENTER.
-Varianza Anual: = Varianza Diaria*252 (Siempre y cuando se trabajen datos
diarios )

-Desviacion Anual: =Raiz (Varianza Anual)


-Rendimiento anual: =SUMAPRODUCTO(TRANSPONER(Matriz de
Ponderaciones);Rendimiento Promedio)*252
Ejemplo de construcción del rendimiento anual: Observe los rangos que se
plantean en el siguiente gráfico y compare con la ecuacion presentada:
=SUMAPRODUCTO(TRANSPONER(B264:B267);B252:E252)*252
7.
Construir un modelo con las siguientes restricciones.
∑ ������������ = 1

������������ ≥ 0
8. Construcción del modelo en Risk Optimizer.
Pasos a seguir en el software:
RiskOptimizer – Definición del modelo.
En los campos:

Meta de optimización se selecciona el tipo de resultado requerido (Máximo,


mínimo o un valor objetivo).
Celda se selecciona la celda a optimizar.
Estadístico se selecciona el estadístico a analizar.
Rangos de celdas ajustables se selecciona el botón Grupo – Nuevo y se
seleccionan las celdas ajustables

Al aceptar aparece la siguiente ventana:

Se selecciona la opción Presupuesto (Indica que la sumatoria de los Wi


=100%) y se le da una descripción. Posteriormente se adicionan las
restricciones necesarias al modelo.
Luego de configurar el modelo, se selecciona la opción Configuraciones.
En la ventana
configuraciones selecciona la pestaña Generador y las opciones Manual y
Algoritmo genético.
Asegúrese de que en la opción Operadores estén seleccionadas todas las
opciones.
Luego de configurar el modelo, se selecciona Iniciar.

Y se despliega la siguiente ventana

Al darle click al botón de la lupa se despliega


una ventana con las siguientes opciones:
Progreso, Resumen, Registro, Población, Diversidad y Opciones de
detención.

En la opción Progreso se pueden observar los gráficos de las simulaciones


realizadas por el RiskOptimizer y los resultados obtenidos.
La opción Resumen presenta el mejor resultado obtenido hasta el momento,
los datos originales, y los últimos resultados obtenidos.
Las opciones Registro y Population recopilan todas las simulaciones
generadas por el software hasta el momento.
La opción Diversidad al principio de la simulación muestra una pantalla con
múltiples colores, indicando esto que el algoritmo genético aún está lejos de
obtener un buen resultado. Cuando esta pantalla comience a tornarse
monocromática, es un indicador de que se está llegando a un resultado
convergente o que se ha llegado a una derivada genética.
Se sugiere al lector la conformación de un portafolio de inversión siguiendo
la metodología propuesta y respondiendo las siguientes preguntas:

a) ¿Qué combinación de Wi maximiza el rendimiento del portafolio? b) ¿Qué


combinación de Wi minimiza el rendimiento del portafolio? c) ¿Qué
combinación de Wi maximiza el riesgo del portafolio?
d) ¿Qué combinación de Wi minimiza el riesgo del portafolio?
e) Dado un riesgo esperado, ¿Qué combinación de Wi maximiza el

rendimiento del portafolio?

CAPITULO 6
LA GESTION DE COSTOS Y EL RIESGO
En este capítulo el lector puede encontrar una breve descripción de la
importancia de la gestión de costos, la relación entre la gestión de costos y el
riesgo, algunas clasificaciones de los costos y gastos importantes, los estados
de resultados por costeo absorbente y variable, la gestión de costos y la toma
de decisiones gerenciales, algunos indicadores financieros y el cálculo de los
costos de la mano de obra en Colombia.

Importancia de la Gestión de Costos

La globalización de la economía, la firma de tratados de libre comercio con


diversos países y las crisis económicas que se han presentado durante las
últimas décadas, han generado una fuerte exigencia de una adecuada gestión
de los costos tanto en compañías grandes, medianas y pequeñas, provenientes
de los sectores manufacturero, comercializador y de servicios.

La búsqueda de unos niveles de eficiencia a través de un adecuado


aprovechamiento de los recursos y de unos apropiados niveles de eficacia que
le permita alcanzar los objetivos, son elementos dinamizadores de la
efectividad de las empresas, y son fundamentales para el logro de la
excelencia y sostenibilidad en el largo plazo. Es así, como la eficiencia, la
eficacia y la efectividad de los procesos, generan un fuerte impacto en la
estructura de costos de las empresas, y en ellas participan de manera
importante una serie de variables controlables y no controlables por la
dirección, con las cuales es posible medir de cierta forma su nivel de riesgo
desde el punto de vista operativo.

Por lo anterior, algunos de los propósitos y objetivos cuando se realiza un


análisis de la información de costos con el fin de que la dirección realice una
adecuada gestión de sus recursos son:

• Suministrar información a la dirección de la compañía para planear, evaluar


y controlar sus operaciones.
• Determinar los precios de ventas de los productos y/o servicios.
• Elaborar los presupuestos de la empresa.
• Identificar los niveles de eficiencia, eficacia y efectividad de sus procesos.
• Apoyar los procesos de toma de decisiones estratégicas, tácticas y
operativas.
• Identificar aquellos procesos críticos en los cuales debe concentrar los
esfuerzos la administración.
• Establecer los productos y servicios más rentables.
• Generar informes para determinar las utilidades de la empresa.

La Gestión de los Costos y el Riesgo

Cuando tradicionalmente se realiza un análisis de costos de una empresa, los


recursos y las variables que generan la magnitud del costo son modeladas de
forma determinística. La alta dinámica de los mercados actuales, los cambios
acelerados en variables micro y macro económicas, el fortalecimiento de
posiciones dominantes tanto de proveedores como de clientes, los cambios en
el medio ambiente, en situaciones políticas, entre otras, pueden generar una
aumento en la volatilidad de las variables generadoras del costo que impactan
el desempeño de la empresa. Es por esto que es imprescindible modelar en la
actualidad a través del uso de modelos más robustos que incorporen la
aleatoriedad y el comportamiento probabilístico de las variables de entrada
generadoras del costo.

Así, se logra que en una adecuada proyección y gestión del costo sea
necesario que la dirección se apoye en herramientas que le permitan analizar
los posibles escenarios con sus niveles de probabilidad ante los cambios
generados por las variables endógenas y exógenas. Con lo anterior, no es
posible garantizar el éxito en el desempeño de la empresa, pero sí garantiza
que la dirección tenga un nivel de responsabilidad superior en los procesos de
toma de decisiones gerenciales, con lo cual se aumenta la probabilidad de
éxito.

A continuación se presentan algunos conceptos fundamentales de la


contabilidad de costos indispensables para la solución de los casos que se
presentan en los capítulos siguientes:

Algunas Clasificaciones de los Costos y Gastos


Algunas de las categorías más importantes para el análisis de la información
en las que se pueden clasificar los costos y los gastos de las compañías son:

• De acuerdo con la identificación con el objeto de costos • De acuerdo con la


función
• De acuerdo con el comportamiento según el volumen de actividad • De
acuerdo con el grado de control
• De acuerdo con el momento del tiempo al cual hacen referencia.

De acuerdo con la identificación con el objeto de costos:

Para un adecuado proceso de toma de decisiones gerenciales es necesario


identificar los objetos de costos que se requiere analizar. Como lo plantea
Uribe (2011), los objetos de costos son aquellos elementos a los que se desea
hacer una medición de los costos, algunos ejemplos de objetos de costos son
los productos, servicios, procesos, actividades, proyectos de las compañías.
En la medida en que sea posible establecer fácil y económicamente cuánto de
la magnitud de un recurso es consumida por un objeto de costos, el recurso es
clasificado como una cifra directa, en caso contrario es clasificado como una
cifra indirecta.

En esta clasificación aparecen los costos y gastos directos y los costos y


gastos indirectos.

Los costos directos de producción están compuestos de los materiales


directos, la mano de obra directa y otras cifras directas que son consumidas
por los productos elaborados, en las cuales es posible establecer fácil y
económicamente cuánto de la magnitud del recurso es consumida por el
producto. Un ejemplo de costo directo es el costo de la mano de obra cuando
el pago es por unidad terminada en una empresa en donde la compañía paga a
destajo a sus empleados.

Los costos indirectos de producción se componen de los materiales


indirectos, la mano de obra indirecta y otras cifras indirectas en las cuales no
es posible establecer fácil y económicamente cuánto de la magnitud del
recurso es consumida por el producto. Un ejemplo de un costo indirecto es el
arrendamiento que se paga a un tercero por el uso del espacio físico en el cual
se fabrican las diversas referencias de la compañía.

El lector puede deducir que es posible clasificar otros rubros que no fueron
necesarios en la fabricación de los productos, como los recursos destinados a
la administración, la distribución, las ventas y la financiación como cifras
directas e indirectas a los objetos de costos motivo de análisis.
De acuerdo con la función:

En esta categoría se encuentran los costos de producción o prestación de


servicios, los gastos de operación (administración, distribución y ventas) y
los gastos de financiación.

Los costos de producción se componen de los costos de los materiales


directos y los costos de conversión (mano de obra directa y los costos
indirectos de fabricación) indispensables para la fabricación del producto.
Los gastos administración, distribución y ventas componen los gastos
operacionales del negocio. En ellos se encuentran el transporte del producto
terminado empleado para la entrega de la mercancía, las comisiones de los
vendedores, la publicidad, el salario del personal administrativo, entre otros.

Los gastos financieros son incurridos al tener acceso a recursos financieros


ajenos a la empresa.
De acuerdo con el comportamiento según el volumen de actividad:
En esta categoría se encuentran los costos y gastos fijos, los costos y gastos
variables y los mixtos.

Los fijos se componen de aquellas cifras en las que la magnitud a nivel total
permanece constante con los incrementos en el volumen de actividad en un
rango relevante determinado por la capacidad normal de la compañía.

La capacidad normal es la cantidad de unidades que la compañía es capaz de


producir y vender en un horizonte de tiempo de mediano y/o largo plazo,
generalmente definida durante el proceso de presupuestación de la empresa.

Un ejemplo de un costo fijo es el arrendamiento del espacio físico en el cual


se encuentra la planta manufacturera, el cual es constante al incrementarse los
volúmenes de producción. Es importante precisar que la magnitud es
constante hasta que se utiliza toda la capacidad de la empresa, pues en ese
caso es necesario contratar espacio adicional por el que es necesario “pagar”
un arriendo adicional. Al presentarse esta situación es posible que se
presenten unos costos fijos escalonados ascendentes determinados por
intervalos o rangos relevantes de capacidad. En esta categoría de cifras fijas
se encuentran los arrendamientos, el costo de la mano de obra cuando se paga
un salario básico independiente de los volúmenes de actividad, la
depreciación de los equipos al utilizar el método de depreciación de línea
recta, entre otros.

En los costos y gastos variables la magnitud cambia a nivel total al


incrementarse el volumen de actividad. Este es el caso de los materiales
directos, las comisiones de los vendedores determinadas a partir de un
porcentaje de los ingresos de la empresa, los pagos efectuados a terceros por
unidad terminada.

Algunos recursos pueden tener un comportamiento fijo y variable al


incrementarse el volumen de actividad, es el caso cuando las comisiones de
ventas están determinadas por un salario básico, pagado hasta un volumen de
actividad determinado, punto en el cual a partir de allí se paga un valor por
unidad vendida o comercializada. En estos casos aparecen los costos y gastos
mixtos, los cuales se caracterizan por tener un comportamiento fijo y variable
al incrementarse los volúmenes de actividad.

De acuerdo con el grado de control

Los costos y gastos se pueden clasificar de acuerdo con el grado de control


que puede ejercer quien administra los recursos. Los costos y gastos
controlables se presentan cuando es posible determinar su magnitud por un
determinado tiempo y los no controlables son aquellos en los cuales el
entorno y variables exógenas determinan por completo su valor.

Cuando se realiza la clasificación de costos y gastos controlables y no


controlables se puede establecer una relación entre la estructura de costos de
la empresa y el nivel de riesgo desde el punto de vista de costos, es decir, una
empresa con altos niveles de cifras no controlables indican un alto nivel de
riesgo, pues en este caso es difícil que la administración pueda controlar su
magnitud a través de su gestión.

Lo anterior sugiere que es interesante establecer a través de la clasificación


anterior la relación entre el riesgo y la gestión de costos del negocio.
De acuerdo con el momento del tiempo al cual hacen referencia.

La información de costos y gastos de una empresa puede hacer referencia a


hechos económicos que ocurrieron en el pasado, es el caso de los costos y
gastos reales, o pueden referirse a lo que debería ser su magnitud si se
lograran niveles normales de eficiencia de sus procesos, costos estándar, o
pueden asociarse con lo que debería ocurrir en el futuro ante volúmenes de
actividad presupuestado, a los que se denominan costos presupuestados.

En los procesos de toma de decisiones gerenciales y cuando se realiza la


gestión del costo, la dirección está interesada en establecer las diferencias
entre el deber ser, es decir los costos estándar, lo realmente consumido,
costos reales. Adicionalmente es posible analizar las diferencias entre los
costos reales y los costos proyectados o presupuestados. Al analizar las
variaciones entre los costos reales, los estándar y los presupuestos, es factible
determinar las pérdidas en el desempeño ocasionadas por unos menores
ingresos, bien sea a través de un menor precio y/o un menor volumen de
ventas, y por sobrecostos generados por una inadecuada gestión de los
recursos o por la presencia de capacidad ociosa del sistema, de lo anterior se
puede apreciar la importancia que tiene esta clasificación en los procesos de
toma de decisiones gerenciales.

Los Costos y Gastos en los Estados de Resultados

Una vez se realizan a cada una de los recursos las clasificaciones anteriores,
es posible construir los estados de resultados que permiten analizar el
desempeño financiero de la empresa. Las clasificaciones indispensables para
su elaboración son costo y gasto, fijos y variables, directos e indirectos.

Con estas tres clasificaciones se elaboran el estado de resultados por costeo


absorbente o total y el estado de resultados por costeo variable.

El estado de resultados por costeo absorbente, también denominado costeo


total tiene la siguiente estructura en las empresas del sector manufacturero y
comercializador:

+Ingresos
- Costo de la mercancía vendida = Utilidad Bruta
- Gastos de operación:
+ Gastos fijos operación
+ Gastos variables operación = Utilidad operación
+ Otros ingresos no operacionales
- Otros egresos no operacionales = Utilidad antes de intereses e

impuestos
- Gastos financieros
= Utilidad antes de impuestos
- Impuestos
= Utilidad neta

En el sector servicios tiene la siguiente estructura:

+Ingresos
- Costo de la prestación de servicios = Utilidad Bruta
- Gastos de operación:
+ Gastos fijos operación
+ Gastos variables operación = Utilidad operación
+ Otros ingresos no operacionales
- Otros egresos no operacionales = Utilidad antes de intereses e

impuestos
- Gastos financieros
= Utilidad antes de impuestos
- Impuestos
= Utilidad neta

Se puede apreciar en las estructuras anteriores, que en el estado de resultados


por costeo absorbente o total, la utilidad bruta es la ganancia generada por la
empresa que queda una vez a los ingresos operacionales se le restan los
costos de la manufactura de los productos producidos y vendidos en el caso
del sector manufacturero, o los productos comercializados en el caso de la
comercializadora, o los costos de los servicios prestados en las empresas del
sector servicios. Asimismo, se puede afirmar que la utilidad bruta es la
ganancia generada para atender los gastos de operación (administración,
distribución y ventas) y los gastos no operacionales y financieros del negocio.

El estado de resultados por costeo variable tiene la siguiente estructura en las


empresas del sector manufacturero:
+ Ingresos
- Costo variables de la mercancía vendida
= Margen de contribución bruto o de la producción
- Gastos variables de operación = Margen de contribución total
- Fijos:
+ Costos fijos de producción
+ Gastos fijos de operación
= Utilidad operación

En el sector comercializador tiene la siguiente estructura:

+ Ingresos
- Costo de la mercancía vendida = Margen de contribución bruto o de

la comercialización
- Gastos variables de operación = Margen de contribución total
- Fijos:
+ Costos fijos de producción
+ Gastos fijos de operación
= Utilidad operación

El estado de resultados en el sector servicios es:

+ Ingresos
- Costo variables de la prestación de
servicios
= Margen de contribución bruto o de
la prestación de servicios
- Gastos variables de operación
= Margen de contribución total
- Fijos
+ Costos fijos de producción
+ Gastos fijos de operación
= Utilidad operación

Algunos de las diferencias entre el estado de resultados por costeo variable y


el estado de resultados por costeo absorbente o total son:

• El costeo variable permite realizar el análisis costo-volumen-utilidad, pues


contiene todos los elementos para hacerlo. La información requerida para este
análisis no es suministrada por el costeo absorbente o total.

• Las utilidades operativas de un período depende de los niveles de venta y no


de los niveles de producción, es decir, evita que se presente el efecto de las
utilidades “fantasmas” ocasionadas cuando los niveles de producción de un
período son superiores a los niveles de ventas del mismo, pues los costos
fijos unitarios, cifras inventariables en el estado de resultados por costeo
absorbente son capitalizadas en los valores de los inventarios de productos en
proceso y productos terminados, las cuales solamente son descargadas del
estado de resultados cuando las unidades sean terminadas y vendidas.

• El costeo variable permite calcular algunos conceptos importantes como el


margen de contribución bruto y el margen de contribución total,
indispensables en procesos de toma de decisiones gerenciales.

• Con el costeo variable es posible determinar el coeficiente de contribución


unitario, el cual indica que porción de cada peso vendido queda para cubrir
los costos y gastos fijos y así estar en capacidad de generar utilidades
operativas.

• El costeo variable permite calcular el punto de equilibrio, el margen de


seguridad, el grado de apalancamiento operativo y los márgenes de
contribución bruto y total como se expresó anteriormente.

• El costeo variable permite hacer un análisis marginal a partir del estudio de


los costos e ingresos marginales. Los costos marginales son los costos en los
que incurre una compañía por una unidad adicional.

La Gestión de Costos y la Toma de Decisiones Gerenciales


Algunas de las decisiones gerenciales en las que el estado de resultados por
costeo variable es importante son:

• Determinación de precios de ventas de los productos y/o servicios. •


Identificación de los productos y/o servicios más rentables.
• Analizar la introducción de un producto o un servicio dentro del portafolio
de la
compañía y determinar estrategias y políticas de ventas.
• Identificar las unidades de negocios más rentables.
• Definir políticas de precios cuando se trata de pedidos especiales. •
Determinar la posibilidad de tercerizar parte de las operaciones de la

compañía.
• Definir políticas de precios con el fin de vender capacidad en exceso y
capacidad ociosa.
• Realizar análisis marginal para aceptación de propuestas adicionales.

A partir de este estado de resultados es posible analizar algunos conceptos


importantes que ayudan a analizar estructura de costos del negocio, tales
como:

• Margen de contribución bruto • Margen de contribución total o neto •


Margen de contribución unitario • Coeficiente de contribución unitario •
Punto de Equilibrio operacional • Margen de seguridad
• Grado de apalancamiento operativo

En primer lugar, el margen de contribución bruto se calcula a partir de la


diferencia entre los ingresos y únicamente los costos variables de producción
de los productos terminados y vendidos. Este margen indica la ganancia que
queda para cubrir los gastos variables de operación y toda la estructura de
costos y gastos fijos de la empresa, con el fin de poder generar una utilidad
operativa.

En segundo lugar, el margen de contribución total o neto es la resta entre los


ingresos y toda la estructura variable de la compañía, es decir, costos y gastos
variables. Significa la ganancia obtenida para cubrir su estructura fija. De lo
anterior, se puede observar que es deseable que tanto el margen de
contribución bruto y el margen de contribución total sean cifras grandes, con
el fin de que se genere más ganancia para cubrir la estructura fija del negocio.

En tercer lugar, a diferencia de los dos anteriores, el margen de contribución


unitario se expresa en términos unitarios, por ejemplo pesos por unidad
vendida. Se calcula a partir de la diferencia entre el precio de venta unitario y
la suma de los costos y gastos variables unitarios. Este margen de
contribución unitario es cuántos pesos por unidad vendida quedan para cubrir
los costos y gastos fijos totales del negocio. También es deseable una
magnitud mayor.

En cuarto lugar, el coeficiente de contribución unitario es la división entre el


margen de contribución unitario y el precio de venta unitario. Es una cifra
adimensional y en aquellos casos en que el precio de venta unitario es mayor
que la suma entre el costo variable unitario y el gasto variable unitario; es un
valor entre cero y uno. Este coeficiente significa cuántos pesos quedan
disponibles por cada peso vendido por la compañía con el fin de cubrir los
costos y gastos fijos totales de la empresa. Es deseable que sea un valor más
cercano a uno.

En quinto lugar, el punto de equilibrio operacional en unidades se obtiene al


dividir toda la estructura fija total (costos y gastos fijos totales) entre el
margen de contribución unitario del producto o servicio. Este punto de
equilibrio se puede calcular también en pesos y es posible hacerlo de dos
formas. La primera, multiplicando el número de unidades en el punto de
equilibrio por el respectivo precio de venta. La segunda, dividiendo toda la
estructura fija total entre el coeficiente de contribución unitario. Es
importante precisar que cuando se desea calcular el punto de equilibrio de
una empresa que tiene varios productos o servicios, es necesario dividir toda
la estructura fija entre el margen de contribución unitario promedio
ponderado. Este margen de contribución ponderado es calculado a partir de la
sumatoria de cada margen de contribución unitario de cada producto por su
respectiva fracción de ventas. Esta fracción de ventas es calculada como un
porcentaje de las unidades vendidas y no sobre el ingreso realizado en pesos.

Adicional al punto de equilibrio es posible calcular el punto de abandono de


un producto o un servicio del mercado dividiendo los costos fijos totales
directos evitables del producto o servicio analizado con su respectivo margen
de contribución unitario. Los costos fijos totales directos evitables son
aquellas partidas que desaparecerían de la estructura de costos de la compañía
en aquellos casos en los que se elimina el producto o el servicio analizado.

En sexto lugar, el margen de seguridad se calcula a partir de la diferencia


entre las ventas de la compañía y las ventas en el punto de equilibrio, dividida
con las ventas de la compañía. Es un valor que comúnmente se expresa en
términos porcentuales. Este margen de seguridad significa hasta qué
porcentaje pueden disminuir las ventas con respecto al nivel de ventas de la
compañía, para mínimo mantenerse en el punto de equilibrio operativo. Se
invita al lector a analizar la relación entre el margen de seguridad y el nivel
de riesgo del negocio, desde el punto de vista operativo.

Finalmente el grado de apalancamiento operativo indica el número de veces


que ante un incremento en los niveles de ventas, se genera un efecto sobre el
incremento en las utilidades de la compañía. Se calcula a partir de la división
entre el margen de contribución total y las utilidades operativas de la
compañía. Se puede apreciar que tanto el margen de seguridad como el grado
de apalancamiento operativo se calculan para un nivel de ventas específico.

Algunos indicadores financieros


Algunos indicadores financieros útiles para analizar el desempeño de diversas
alternativas de decisión son:

• Margen de Utilidad
• Rotación de activos
• Rentabilidad de los Activos • Valor Económico Agregado

El margen de utilidad se calcula a partir de la división entre la utilidad y los


ingresos de la compañía. Al calcular esta razón en términos porcentuales,
significa la capacidad que tienen los ingresos de generar utilidades.

La rotación de los activos se obtiene al dividir los ingresos entre los activos
de la compañía. Significa el número de veces que los recursos se convierten
en ingresos.
La rentabilidad de los activos es la razón entre la utilidad y los recursos de la
empresa. Es la capacidad que tienen los recursos de generar utilidades.

El valor económico agregado es la resta entre la utilidad operativa después de


impuestos y el costo de capital de los recursos que son necesarios para la
generación de esa utilidad.

Cálculo del costo de la mano de obra en Colombia

Para el cálculo del costo de la mano de obra en Colombia es necesario tener


en cuenta no solamente el salario básico, sino también todas aquellas cifras
constitutivas de salario tales como:

• Pensión
• Salud
• Riesgos Profesionales
• Parafiscales: SENA, ICBF y Cajas de Compensación • Prima
• Cesantías
• Intereses a las Cesantías
• Vacaciones

Estas cifras indican que por cada peso definido en el salario básico, la
compañía incurre en 1,51842 pesos. El factor 51,842% es calculado de 12%
de pensión, 8.5% de salud, 0,522% de riesgos profesionales, 2% del SENA,
3% del ICBF, 4% de la caja de compensación, 8.33% de prima, 8.33% de
cesantía, 1% de intereses de cesantías y 4.16% de vacaciones.

Adicionalmente es necesario tener en cuenta el auxilio de transporte que sirve


también de base para liquidar prima, cesantía e intereses a las cesantías. Estos
tres elementos componen un factor del 17,66%

En el costo de la mano de obra también pueden estar presentes la


alimentación, la dotación, primas extralegales, entre otros.
Como afirma Uribe, Ricardo (2011) la fórmula para determinar el costo de la
mano de obra en Colombia, es:

“Costo o Gasto Mano de Obra = [(Salario + Recargos Nocturnos + Horas


Extras) * (1+FP)] + [Auxilio de Transporte * (1+0.0833+0.0833+0.01) +
Bonificaciones + Alimentación + Prestaciones Extralegales no Constitutivas
de Salario + Dotación + Viáticos no Constitutivos de Salario]”.

Las horas extras están determinadas cuando se exceden las 48 horas


semanales. Las horas extras diurnas se recargan con un 25%, las horas extras
nocturnas con un 75%, las horas extras diurnas festivas o dominicales con un
100% y las horas extras nocturnas festivas o dominicales con un 150%.

Los recargos nocturnos están determinados por la jornada comprendida entre


las 10 de la noche y las 6 de la mañana. Se paga un recargo del 35% con
respecto al valor de la hora diurna, pero únicamente el tiempo
correspondiente a las horas trabajadas y no al descanso remunerado.

CAPITULO 7 CASO APLICADO: ANALISIS DE COSTOS


EN LA TOMA DE DECISIONES CON EL RECURSO
HUMANO
Estimar la apertura de un turno adicional de trabajo
Para resolver este tipo de problemas se requiere manejar los siguientes
conceptos:

• Costos de la mano de obra directa en Colombia • Factor prestacional


• Auxilio de Transporte
• Eficiencia
• Horas extras
• Capacidad normal
• Costo diferencial
• Función de distribución
• Variable aleatoria
• Valor esperado
• Prueba de bondad de ajuste

Enunciado del Problema Determinístico

Una compañía presta en promedio 149 servicios mensuales a los clientes. En


la prestación del servicio se utiliza una persona a la cual se le paga el salario
mínimo $535.600 y se le dan todas las prestaciones de ley, las cuales
incluyen pensión, salud, riesgos profesionales, primas, vacaciones, cesantías,
parafiscales, con un factor prestacional de 51,842%, auxilio de transporte de
$63.600 mensuales, y una dotación equivalente a $30.000 mensuales. En la
prestación de cada servicio se utilizan 2 horas en promedio y el número de
días disponibles en el mes es 24.

La empresa necesita determinar cómo prestar sus servicios, es decir, si


contrata otra persona para que labore en un turno adicional diurno o extender
el horario de la persona actual incurriendo en horas extras nocturnas (recargo
del 75%), presupuestando que en este caso la persona debido a la fatiga y al
cansancio se demora un 18% más del tiempo (durante el tiempo extra).
Determinar:

• ¿Cuál alternativa es mejor para la compañía y por qué?


• ¿A partir de cuántos servicios es mejor implementar el turno adicional? •
¿Cuánta es la máxima pérdida de eficiencia aceptada por la persona para que

sea mejor trabajar con horas extras si se desean prestar 149 servicios? •
Efectuar un análisis de sensibilidad para servicios con tiempos desde 1.5
horas
hasta 2.2 horas y con pérdidas de eficiencia desde 0% hasta el 60%. • Si se
tuviese una restricción de máximo 6 horas extras diarias en promedio, con
un deseado de 2 horas extras diarias en promedio, ¿qué le recomendaría a la
gerencia?

Resolviendo el ejercicio paso a paso (caso determinístico)


Identificación de las variables de entrada

Cálculo
y descripción de los resultados obtenidos (caso determinístico)

Para resolver el problema es necesario evaluar dos alternativas. La primera


consiste en trabajar un solo turno, incurriendo en horas extras, cuando el
número de servicios demandados superen la capacidad práctica (96 servicios
al mes). alternativa es trabajar dos turnos, cada uno con una persona, con
La segunda lo cual se aumentaría la capacidad práctica a 192 servicios al
mes. Cabe precisar, que en cualquiera de las dos alternativas la empresa no
incurre en costos adicionales a los costos de la mano de obra relacionados
con los dos turnos o las horas extras.

Para calcular los costos totales de cada alternativa es necesario evaluar la


capacidad práctica con un solo turno, vs la capacidad requerida para atender
la demanda media, y las horas extras, así:

En el escenario 1, denominado un turno con horas extras, se calculan los


costos de la mano de obra, teniendo en cuenta el básico con las prestaciones
sociales, el auxilio de transporte y las horas extras:
En el escenario 2, denominado dos turnos, se calculan los costos de la mano
de obra de dos personas:
Interpretación de los resultados obtenidos

• ¿Cuál alternativa es mejor para la compañía y por qué?


Al comparar ambas alternativas se observa que la opción un turno con horas
extras tiene un costo total de $1,659,829,76, un costo diferencial de
$176,365,26 con respecto a la opción dos turnos. Lo anterior llevaría a la
compañía a seleccionar la primera opción y trabajar con un solo turno, dado
que los costos adicionales por trabajar horas extras son inferiores a aquellos
en los que se incurriría en el caso de operar dos turnos.

• ¿A partir de cuántos servicios es mejor implementar el turno adicional?

Para responder la pregunta anterior, es necesario encontrar el punto de


indiferencia, es decir, aquel número de servicios en el que los costos de
ambas alternativas son los mismos. Para ello se utiliza la función buscar
objetivo, la cual permite determinar el punto de indiferencia en 161,6
servicios. Lo anterior significa que el costo total de ambas alternativas sería
aproximadamente igual si se prestan 162 servicios.

Al calcular el costo diferencial como la resta entre el costo de la alternativa 2


y la alternativa 1, se puede identificar que a partir del servicio 162 sería más
costoso trabajar un turno con horas extras. Las anteriores conclusiones
pueden apreciarse a continuación:
Punto de Indiferencia para el número de servicios
2,500,000.00
2,300,000.00
2,100,000.00 161.60 ; Escenario 11,900,000.00 1,836,195.02

1,700,000.00Escenario 2 Punto de Indiferencia1,500,000.00

1,300,000.00
1,100,000.00
900,000.00
90.00 140.00 190.00 240.00

• ¿Cuánta es la máxima pérdida de eficiencia aceptada por la persona para


que sea mejor trabajar con horas extras si se desean prestar 149 servicios?

Al igual que en el punto anterior es necesario utilizar la función buscar


objetivo para encontrar el punto de indiferencia para la pérdida de eficiencia.
El resultado obtenido es de 46,1% como se evidencia a continuación:
Lo anterior
significa que el costo total de ambas alternativas sería aproximadamente igual
para una pérdida de eficiencia del 46,1%.

Punto de Indiferencia para pérdida de eficiencia


1,950,000.00
1,900,000.00
1,850,000.00
46%; 1,836,195.02 Escenario 1 Escenario 2 Punto de Indiferencia 1,800,000.00
1,750,000.00
1,700,000.00
20.0% 30.0% 40.0% 50.0% 60.0% 70.0%

En la tabla anterior se puede observar que cuando la pérdida de eficiencia


durante las horas extras supera el 46,1% es mejor trabajar con dos turnos,
puesto que el costo total de esta alternativa sería inferior que el costo total de
trabajar con un turno y horas extras para cualquier nivel de pérdida de
eficiencia superior al señalado.

• Efectuar un análisis de sensibilidad para servicios con tiempos desde 1.5


horas hasta 2.2 horas y con pérdidas de eficiencia desde 0% hasta el 60%.

El análisis de sensibilidad que se ilustra a continuación es construido a partir


de la herramienta tabla de datos, incluida en Microsoft Excel. En la fila se
especifican los diversos valores para la variable tiempos y en la columna los
diferentes valores para la variable pérdida de eficiencia.

La zona sombreada representa las combinaciones entre duración del servicio


y pérdida de eficiencia, en las cuales el costo total de trabajar con un turno y
horas extras (opción 1) es menor que el costo total de trabajar con dos turnos
(opción 2). • Si se tuviese una restricción de máximo 6 horas extras diarias en
promedio, con

un deseado de 2 horas extras diarias en promedio, ¿qué le recomendaría a la


gerencia?

En el cuadro siguiente se puede observar que para que el número de horas


extras diarias en promedio deseadas se cumplan, la duración de los servicios
no puede ser superior a 1.5 horas y la pérdida de eficiencia puede ser máximo
del 45%. Para que el número de horas extras diarias en promedio no exceda
de 6 horas, los tiempos de los servicios pueden ser hasta 1,8 horas, y una
pérdida máxima del 60%. Cuando los tiempos del servicio son superiores a
1,8 horas, la pérdida de eficiencia máxima permitida para no superar las 6
horas en promedio diarias va disminuyendo, hasta el punto en el cual con una
duración de 2,2 horas la pérdida de eficiencia máxima permitida debes ser
inferior al 5%.
Hasta aquí, el problema ha quedado resuelto de forma determinística, pero
este procedimiento presenta limitaciones porque las variables de entrada son
estáticas. A continuación se presenta el problema asumiendo que algunas de
estas variables pueden tener comportamientos aleatorios.

Enunciado del problema probabilístico

Un estudio de mercado muestra que es posible que el número de servicios


demandados esté entre 140 y 160. Cada uno de estos servicios tienen la
misma probabilidad de ocurrencia.

Un estudio de métodos, tiempos y movimientos indica que el tiempo


promedio requerido para la prestación de un servicio es de 2 horas, con la
posibilidad de que el tiempo mínimo sea de 1.5 horas y un tiempo máximo de
2.5 horas.
La experiencia le ha mostrado a la gerencia que en aquellos casos en que es
necesario incurrir en horas extras la pérdida de eficiencia promedio es del
18% con una desviación estándar del 2%.

En el desarrollo del problema se podrá responder las siguientes


preguntas:

• ¿Cuál alternativa es mejor para la compañía?


• Si se tuviese una restricción de máximo 6 horas extras diarias en promedio,
con un deseado de 2 horas extras diarias en promedio, ¿qué le recomendaría a
la gerencia?
• ¿Cuáles son las variables más importantes? (Número de servicios, tiempo
por servicio, ineficiencia).
• ¿A partir de cuántos servicios es mejor implementar el turno adicional?
• A partir de la información anterior sugiera en qué momento se debe hacer la
apertura del segundo turno de trabajo.

Resolviendo el ejercicio paso a paso (Caso probabilístico)


Identificación de las variables de entrada

Explicación de las variables de entrada

Es claro que el número de horas extras requeridas depende fundamentalmente


de dos variables, el número de servicios demandados (se requieren horas
extras cuando el número de servicios demandados supera la capacidad
práctica) y la duración de cada servicio. Adicional a lo anterior cuando se
requieran horas extras se presenta una pérdida de eficiencia que se debe
considerar.
El número de servicios demandados y la duración del servicio están afectadas
por factores exógenos y endógenos que hacen que tengan un comportamiento
dinámico, por lo tanto, el modelo que se construye a continuación muestra
que el número de servicios puede variar entre 140 y 160 servicios con la
misma probabilidad y el tiempo por servicio tiene una duración mínima de
1.5 horas, máxima de 2.5 y con una valor más probable de 2.0 horas.

Para construir el problema de forma probabilista es necesario definirle a las 3


variables de entrada su función de distribución. El número de servicios
demandados tiene una función de distribución uniforme puesto que como se
explicó anteriormente con el estudio de mercado se tiene la misma
probabilidad de ocurrencia entre 140 y 160 servicios. Para el caso del tiempo
por servicio, una función de distribución triangular permite expresar el valor
mínimo, el máximo y el más probable. Además, para la pérdida de eficiencia
una función de distribución normal permite simular un valor medio de 18%
con su desviación estándar de 2%.

Desarrollo paso a paso del problema

Una vez definidas las variables de entrada con sus respectivas funciones de
distribución se procede a identificar las variables de salida a las cuales se les
realizará la simulación. En este caso para la alternativa un turno con horas
extras se selecciona el costo total de la alternativa y horas extras diarias como
variables de salida.
Luego, se ejecuta la simulación con un número sugerido de 10.000
iteraciones. Como se mencionó en el capítulo Navegando por la Herramienta
se configura la simulación en la opción Configuraciones de simulación; allí
se definen el número de iteraciones y simulaciones para el modelo como se
muestra a continuación:

Cálculo y análisis de los resultados obtenidos

Al ejecutar la simulación se obtiene sobre la variable de salida seleccionada,


en este caso el costo total, un histograma de frecuencia en donde se puede
apreciar que el costo de la alternativa un turno con horas extras tiene un 90%
de probabilidad de que sea un valor entre $1.215.000 y $1.964.000. Su valor
mínimo posible es de $968.971,19 y un valor máximo posible de $2.271.392
como se aprecia en el siguiente gráfico:
Vale la pena analizar que la probabilidad de que el costo de la alternativa un
turno con horas extras sea menor que los costos de dos turnos ($1.686.531) es
del 67,8%, así:
Adicionalmente la simulación permite visualizar cuáles son las variables que
más impacto tienen en el costo de la alternativa un turno con horas extras.
Para ello es necesario analizar el gráfico de tornado, el cual se encuentra en la
opción Sensibilidad de la simulación en el botón el botón Gráfico de tornado
como se muestra a continuación:
De este gráfico se puede apreciar que la variable que tiene un mayor impacto
en la magnitud de los costos de esta alternativa es el tiempo por servicio con
un coeficiente de correlación de 0,93, el cual significa que existe una fuerte
asociación positiva entre el costo total y el tiempo empleado en cada servicio.
La segunda variable es el número de servicios y la de menor impacto es la
pérdida de la eficiencia. En la tabla siguiente se calcula el coeficiente de
determinación (correlación elevada al cuadrado), el cual muestra, que la
variable costo total de la alternativa está determinada en una 87% por la
variable tiempo por servicios, el número de servicios en un 11,7% y un 0,3%
por la pérdida de eficiencia. Se puede observar que la sumatoria de los
coeficientes de determinación debe ser igual al 100%.
Coefic ientes de Regresión para Costo Total Nombre Regr Corr Det 1 Tiempo por servicio 0.9284
0.9207 86.19% 2 Número de Servicios 0.3698 0.3438 13.68% 3 Pérdida de Eficiencia 0.1018 0.0886
1.04%

Total 100%
Lo anterior, sugiere que la administración debe concentrar sus esfuerzos en la
disminución de los tiempos por servicio, con el ánimo de que la alternativa
un turno con horas extras sea más atractiva que abrir un segundo turno.

Adicionalmente al ejecutar la simulación, la variable de salida horas extras


diarias muestra sin restricción alguna que existe un 90% de probabilidad de
que las horas extras diarias requeridas sea hasta 7,87 horas:

Sin embargo, el máximo de horas extras deseadas es de 6 horas y existe una


probabilidad del 69,5% de que se logre:
Al realizar el análisis sobre el número de horas extras deseadas (2 horas), se
observa que apenas existe una probabilidad del 1,3% de que este valor se
alcance:
En conclusión, la alternativa un turno con horas extras tiene una probabilidad
del 67,8% de que su costo sea menor al de la alternativa con dos turnos, con
una probabilidad del 69,5% de que el número de horas extras diarias
requeridas sea menor de 6 horas.

Finalmente, para responder la pregunta ¿a partir de cuántos servicios es mejor


implementar el turno adicional? es necesario utilizar la función Búsqueda de
objetivo, la cual se encuentra ubicada en Herramientas – Análisis Avanzados,
así:
Este interrogantes se puede responder al encontrar el número de servicios que
hace que el costo de la alternativa un turno con horas extras sea igual al costo
de dos turnos ($1.686.531). Al seleccionar Búsqueda de Objetivo se
despliega una ventana en donde es necesario definir la celda objetivo, en este
caso el costo de la alternativa un turno con horas K9 y el valor objetivo, en
este caso $1.686.531.5, cambiando la celda C4 número de servicios:

Una vez ingresados los valores se presiona el botón Opciones donde se define
el porcentaje de error permitido con respecto al valor objetivo, en este caso
0,1%:
Luego, se presiona el botón Analizar para realizar la búsqueda del valor
objetivo, al encontrarlo el programa muestra el resultado así:

De este cuadro se puede observar que con un promedio de 157,5 servicios al


mes el costo total de la alternativa un turno con horas extras es igual a la
alternativa con dos turnos. Es importante precisar que el valor en el costo de
la alternativa un turno con horas extras es de $1.702.750,10 es levemente
diferente al costo de los dos turnos $1.686.531.5, debido al margen de error
permitido durante la simulación:

Escenario 1: Un turno con horas Extras


Costo de Mano de Obra

Básico con prestaciones 813,265.75


Horas Extras 859,484.35
Dotación 30,000.00
Costo total 1,702,750.10

Escenario 2: Dos turnos


Costo de Mano de Obra

Básico con prestaciones 813,265.75


Horas Extras -
Dotación 30,000.00
Costo total 1,686,531.50
Capacidad Práctica 384.00 horas mes Capacidad Práctica 192.11 servicios

De acuerdo con el desarrollo anterior se invita al lector a responder en qué


momento se debe hacer la apertura del segundo turno de trabajo.

CAPITULO 8
CASO APLICADO: TOMA DE DECISIONES A PARTIR DE
ESTADO DE RESULTADOS POR COSTEO VARIABLE Y
EL ANALISIS COSTO VOLUMEN UTILIDAD
Comparación de la estructura de costos de cada producto e identificación
de puntos de cierre o abandono de productos del mercado
Para resolver este tipo de problemas se requiere manejar los siguientes
conceptos:

• Costos
• Gastos
• Costos y gastos fijos
• Costos y gastos variables
• Costos y gastos directos
• Costos y gastos indirectos
• Costos y gastos evitables
• Costos marginales
• Capacidad Normal
• Punto de equilibrio
• Margen de seguridad
• Coeficiente de contribución unitario • Grado de apalancamiento operativo •
Estado de resultados por costeo variable • Margen de contribución bruto
• Margen de contribución total o neto • Función de distribución
• Variable aleatoria
• Valor esperado
• Sesgo de especificación

Enunciado del Problema Determinístico (Propuesto en Uribe Ricardo,


2011)

Una compañía fabrica chaquetas y pantalones. Durante el último mes se han


fabricado 500 chaquetas y 600 pantalones. Sus inventarios iniciales han sido
de 10 unidades para las chaquetas y de 20 para los pantalones. Al final del
han quedado sin vender 100 chaquetas y 30 pantalones. La empresa ha
utilizado su capacidad normal.

En la fabricación de una unidad se requieren tela, botones, energía y procesos


tercerizados de estampación. A su mano de obra se le paga a destajo (por
unidad terminada). A continuación aparecen los valores unitarios de cada uno
de estos elementos:

Chaquetas Pantalones Tela $ 60.000 $ 50.000


Botones $ 2.000 $ 2.000
Mano de obra $ 30.000 $ 40.000
Energía $ 5.000 $ 6.000
Estampado $ 10.000 $ 10.000

Nota: Los costos de la mano de obra ya tienen incluido el valor de las


prestaciones sociales de la empresa.

La empresa incurre en $10.000.000 por concepto de arriendo y depreciación


de sus máquinas y $3.000.000 por la Gerencia, la vigilancia y la depreciación
de los equipos de cómputo de sus áreas administrativas. A los vendedores les
paga una comisión equivalente al 10% del precio de venta de cada prenda con
las prestaciones sociales ya incluidas. Para entregarle la mercancía a sus
clientes, utiliza un transportador quien cobra $1.000 por cualquier tipo de
prenda entregada. Los precios de venta de las chaquetas y los pantalones son
$180.000 y $160.000 respectivamente.

Preguntas:

a. Calcular los márgenes de contribución unitarios de las chaquetas y


pantalones. b. Calcular la utilidad operativa de la compañía con la estructura
de un estado de resultados por costeo variable con el fin de determinar el
desempeño operativo del negocio.

c. Calcular el punto de equilibrio, el margen de seguridad, el coeficiente de


contribución unitario.
d. La gerencia estima que el 25% de los costos fijos de producción podrían
ser costos evitables, pues podría hacer un adelgazamiento de la empresa en el
caso en que se elimine el producto con menor margen de contribución
unitario. Determine el punto de cierre o abandono del producto identificado e
indique si debe ser eliminado del portafolio de la compañía.

Resolviendo el ejercicio paso a paso (caso determinístico) Identificación


de las variables de entrada
Cálculo y descripción de los resultados obtenidos (caso determinístico)

Para calcular los márgenes de contribución unitarios de las chaquetas y los


pantalones es necesario restarle a los precios de venta los costos variables de
producción unitarios y los gastos variables de operación unitarios.

Los costos variables de producción unitarios se componen de la tela, los


botones, la mano de obra, la energía y el estampado de cada uno de los
productos. Es así como en este problema los costos variables unitarios son
$107.000 por unidad para las chaquetas y $108.000 para los pantalones.

Los gastos variables de operación se componen del transporte y de las


comisiones de ventas. Los gastos variables de operación unitarios de las
chaquetas son $19.000 y $17.000 para los pantalones.

Con las cifras anteriores es posible obtener el margen de contribución


unitario de cada producto, al restarle a cada precio de venta la suma de los
costos y gastos variables unitarios. Por lo tanto, el margen de contribución
unitario de las chaquetas es de $54.000 y de $35.000 para los pantalones, lo
que indica que por cada chaqueta vendida le quedan a la compañía $54.000
para cubrir la estructura de costos y gastos fijos del negocio para generar unas
utilidades operativas.

Adicionalmente, es posible calcular los coeficientes de contribución unitarios


de cada producto a partir de la razón entre el margen de contribución unitario
y el precio de venta de cada producto. Es importante recordar que este
coeficiente significa cuántos pesos le quedan a la compañía por peso
facturado para cubrir su estructura de costos y gastos fijos. El coeficiente de
contribución unitario de las chaquetas es 0,3 y para los pantalones es 0,22. Lo
anterior indica que por cada peso vendido, las chaquetas tienen un mejor
nivel de contribución para cubrir la estructura fija del negocio y para generar
utilidades.

Los volúmenes de ventas se obtienen al sumar el inventario inicial y la


producción del período y restarle el inventario final del período. Las ventas
de chaquetas son 410 unidades y 590 unidades para los pantalones.

Una vez calculados los costos y gastos variables unitarios y los márgenes de
contribución unitarios es posible construir la parte operativa del estado de
resultados por costeo variable, con el fin de calcular el desempeño operativo
de la empresa, tal como se muestra a continuación:
En el estado de resultados anterior se puede apreciar que la utilidad de
operación es de $29.790.000, en donde los márgenes de contribución total
son de $42.790.000, que sirven para cubrir los $ 13.000.000 de costos y
gastos fijos de la empresa y para generar utilidades operativas. A pesar de
que las chaquetas tienen unos volúmenes de ventas inferiores a los
pantalones, arrojan un mayor margen de contribución total, puesto que sus
precios de ventas son superiores, con lo cual se obtienen unos márgenes de
contribución unitarios mayores.

Para calcular el punto de equilibrio operacional es necesario dividir los costos


y gastos fijos totales sobre el margen de contribución unitario. Debido a que
la empresa se consume $13.000.000 de fijos para los dos productos, se
requiere calcular el margen de contribución unitario promedio ponderado,
teniendo en cuenta los márgenes de contribución unitario de cada producto.

Para ello, se multiplica el margen de contribución unitario de cada uno por su


respectiva participación en el mercado de las unidades vendidas. Con esto se
obtiene un margen de contribución unitario promedio ponderado de $42.790
por unidad vendida, el cual significa que en promedio por cada unidad
vendida quedan casi $43.000 para cubrir los costos y gastos fijos de la
empresa, cuando la mezcla de ventas en unidades es 41% de chaquetas y 59%
de pantalones.

Al dividir los $13.000.000 de costos y gastos fijos entre los $42.790 de


margen de contribución unitario en promedio, se obtiene un punto de
equilibrio operacional de la mezcla de productos de la compañía por un valor
de 304 unidades. Al multiplicar esta cifra por los respectivos porcentajes de
participación en unidades de cada referencia se obtiene que se deben vender
125 chaquetas y 179 pantalones.

Lo anterior se puede apreciar en los dos cuadros siguientes:

En el primer cuadro se puede observar que el coeficiente de contribución


unitario es de 0.30 y 0.22 para las chaquetas y pantalones. Estas cifras se
obtienen al dividir el margen de contribución unitario sobre el precio de venta
de cada producto. El coeficiente de contribución unitario de 0.30 para las
chaquetas, significa que por cada peso vendido de chaquetas quedan 0.3
pesos para cubrir los $13.000.000 de costos y gastos fijos y para obtener
utilidades operativas. Si se quiere obtener el punto de equilibrio en pesos de
este negocio es posible hacerlo dividiendo los $13.000.000 de costos y gastos
fijos de la empresa con el coeficiente de contribución unitario promedio
ponderado. Para su cálculo se realiza la sumatoria ponderada entre el precio
de venta de cada producto y su porcentaje de participación en el mercado
(mezcla de ventas), obteniendo un valor de $168.200.

Luego se divide el producto entre el precio de venta de cada producto y su


participación en el mercado entre este valor obtenido
($180.000*0.41/$168.200 y $160.000*0.59/$168.200). Con esto se obtiene el
porcentaje de participación de cada referencia por cada peso vendido (44%
para chaquetas y 56% para pantalones). Esto significa que por cada $100
vendidos el 44% provienen de las chaquetas y el 56% de los pantalones,
diferente a la mezcla de ventas en unidades, en donde por cada 100 unidades
vendidas, 41% provienen de las chaquetas y el 59% de los pantalones. Así, el
coeficiente de contribución unitario promedio de 0.25 es la suma ponderada
entre el coeficiente de contribución unitario de cada producto y la mezcla de
ventas obtenida en pesos (0.44*0.30+0.56*0.22)

Con lo anterior, se dividen los $13.000.000 de fijos entre el coeficiente de


contribución unitario promedio obtenido de 0.25 obteniendo un punto de
equilibrio en pesos de $51.100.724.47.

Es posible calcular este mismo punto de equilibrio en pesos al realizar la


suma entre el precio de venta unitario de cada producto y el número de
unidades vendidas de cada uno en el punto de equilibrio
($180.000*125+$160.000*179).

En el cuadro que aparece a continuación se puede apreciar el estado de


resultados por costeo variable que se obtendría para un nivel de ventas igual
al punto de equilibrio:
El margen de seguridad proyectado del 25.44% se obtiene de la diferencia
entre el nivel de ventas presupuestado y el punto de equilibrio presupuestado
sobre el nivel de ventas presupuestado ((410+490)-(125+179))/(410+590).
Esto significa que el nivel de ventas presupuestado puede caer hasta un
25.44% para no tener pérdidas operativas.

Para determinar el punto de cierre o abandono del producto con menor


margen de contribución unitario, en este caso los pantalones ($35.000), es
necesario identificar los costos fijos directos evitables de los pantalones.
Estos son aquellas cifras que desaparecerían dado el caso de que dicho
producto se eliminara del portafolio de la empresa. La gerencia estima que el
25% de los $10.000.000 de costos fijos de producción podrían ser evitables al
eliminar los pantalones, por lo tanto, el punto de cierre se calcula al dividir
los fijos evitables (10.000.000*0.25) entre el margen de contribución unitario
de los pantalones ($35.000), obteniendo una cifra de 71.43 pantalones al mes.
Esto significa que si la empresa no vende más de 71.43 pantalones al mes no
se justificaría ofrecerlo dentro del portafolio de la compañía, porque dicho
producto estaría siendo subsidiado por las chaquetas.

Lo anterior se puede apreciar de una mejor manera al comparar dos estados


de resultados por costeo variable, uno para unas ventas de 71.43 pantalones y
otro para unas ventas de solamente chaquetas:
Enunciado del problema probabilístico

Para el enunciado anterior a continuación se presentan las cifras


probabilísticas para algunas de las variables de entrada obtenidas a partir del
comportamiento histórico de los precios de las materias primas y de las
variaciones de mercado de este tipo de productos:

Se espera que la tela utilizada para la fabricación de las chaquetas sea como
mínimo $55.000 por unidad, máximo $65.000 y el valor más probable
$60.000. Para los pantalones un mínimo de $45.000, un máximo de $55.000
y el valor más probable de $50.000.

Adicionalmente, la mano de obra utilizada para la fabricación de las prendas


es tercerizada y debido a la amplia oferta de maquiladores en la región se
espera que los costos de mano de obra por unidad tengan un valor esperado
de $30.000 con una desviación estándar de $2.000 para las chaquetas y un
valor esperado de $40.000 y una desviación estándar de $1.000 para los
pantalones.

El precio de venta unitario depende de la temporada, la oferta de la


competencia y las promociones que se obtienen en el mercado, por tal motivo
se espera que el precio mínimo sea $140.000, el máximo $190.000 con un
valor más probable de $180.000 para las chaquetas y un mínimo de $130.000,
y máximo de $165.000 para los pantalones.

El área de producción estima que los tiempos de procesamiento dependan de


los ajustes de las máquinas, la calidad de las telas, el diseño de la prenda y los
niveles de eficiencia del personal, por lo tanto, se espera que el tiempo
requerido para la terminación de una chaqueta sea de 30 minutos con una
desviación estándar de 3 minutos por unidad y de 12 minutos con una
desviación estándar de 1 minuto por unidad para los pantalones.

Es importante recordar que el resto de las variables presentan las cifras del
enunciado determinístico.
En el desarrollo del problema se podrán responder las siguientes
inquietudes:

a. Calcular los márgenes de contribución unitarios de las chaquetas y


pantalones. b. Calcular la utilidad operativa de la compañía con la estructura
de un estado de resultados por costeo variable con el fin de determinar el
desempeño operativo del negocio.

c. Calcular el punto de equilibrio, el margen de seguridad, el coeficiente de


contribución unitario.

d. La gerencia estima que los costos fijos directos evitables de


los pantalones

pueden oscilar entre un 18% y un 30% costos fijos de producción.


Determinar la probabilidad de que el punto de cierre o abandono de los
pantalones sea superior a 120 unidades.

Resolviendo el ejercicio paso a paso (Caso probabilístico) Identificación


de las variables de entrada
Explicación de las variables de entrada

El precio de compra de la tela depende de la oferta de las materias primas y


de sus diversos proveedores a nivel mundial. Así, los expertos en el proceso
de compra han estimado sus valores mínimos, máximos y más probables con
base en sus altos niveles de experiencia adquiridos durante los últimos años,
lo cual se simula con una función de distribución triangular.

Así mismo, el costo de la mano de obra (maquiladores) utilizados para la


fabricación de las prendas, dependen de la oferta existente a lo largo de los
diversos meses del año. El área de producción ha estimado el
comportamiento de su magnitud con base en las negociaciones previas que
han realizado con los maquiladores, los cuales tienen un comportamiento
normal.
El área de ventas espera que los precios de venta dependan de la temporada
del año, la oferta de la competencia y sus promociones, para el caso de las
chaquetas se estima que tengan un comportamiento triangular y para los
pantalones un comportamiento uniforme.

Desarrollo paso a paso del problema

Una vez definidas las variables de entrada con sus respectivas funciones de
distribución se procede a identificar las variables de salida a las cuales se les
realizará la simulación. Para resolver las tres primeras inquietudes se
seleccionan el margen de contribución unitario, el coeficiente de
contribución, el punto de equilibrio unitario tanto de las chaquetas como de
los pantalones, la utilidad operativa, el punto de equilibrio de la mezcla y el
margen de seguridad como variables de salida. A continuación se ilustra la
variable de salida margen de contribución unitario de las chaquetas:
Adicionalmente, para responder la cuarta inquietud es necesario identificar
otra variable de entrada (Porcentaje de costos fijos directos evitables), la cual
se espera se comporte de manera uniforme con un mínimo del 18% y un
máximo del 30%. Posteriormente, se selecciona la variable de salida punto
cierre de los pantalones, así:
Antes de ejecutar la simulación, en la opción Ventana de modelo se pueden
verificar tanto las variables de entrada como las de salida. A continuación se
visualizan las 7 variables de entrada:
Luego, se ejecuta la simulación con un número sugerido de 10.000
iteraciones. Como se mencionó en el capítulo Navegando por la Herramienta
se configura la simulación en la opción Configuraciones de simulación, se
definen el número de iteraciones y simulaciones para el modelo como se
muestra a continuación:

Cálculo y análisis de los


resultados obtenidos
Al ejecutar la simulación se obtienen resultados sobre 10 variables de salida:

Margen de contribución unitario chaquetas


Margen de contribución unitario pantalones
Coeficiente de contribución unitario chaquetas
Coeficiente de contribución unitario pantalones
Utilidad operativa
Punto de equilibrio de la mezcla
Punto de equilibrio de los pantalones
Punto de equilibrio de las chaquetas
Margen de seguridad
Punto de cierre de los pantalones
Los resultados obtenidos sobre los márgenes de contribución unitarios de
cada prenda son:
En el gráfico anterior se observa que existe un 90% de probabilidades de que
el margen de contribución unitario de las chaquetas esté entre $26.493 y
$59.280, con un valor más probable de $44.849, y un valor mínimo de
$11.713, lo cual indica que no existe probabilidad de que el margen de
contribución de este producto sea negativo, por lo tanto, siempre existirá
dinero por chaqueta vendida para cubrir los costos y gastos fijos de la
empresa.

Dado que el gráfico muestra que la función de distribución del margen de


contribución está sesgada a la derecha es importante analizar el índice de
sesgo (Sk).

Para su cálculo se utiliza la función RiskSkewness. En el campo Fuente de


datos se selecciona la celda de Excel que contiene la función de distribución
de la variable a analizar (margen de contribución unitario de las chaquetas),
como se presenta a continuación:
Un Sk<0 indica que la función de distribución es pesada hacia la derecha. Un
Sk=0 indica que la función de distribución está centrada alrededor de la
media. Un Sk>0 indica que la función de distribución es pesada hacia la
izquierda.

El valor de -0,41 confirma lo observado en el gráfico, que la función de


distribución es pesada hacia la derecha, lo cual para este caso es pertinente,
pues sugiere que existe una mayor probabilidad de obtener un margen de
contribución unitario más alto, aspecto positivo para el desempeño de la
compañía.

Al realizar un análisis similar sobre el margen de contribución de los


pantalones se obtiene que:

Existe un 90% de probabilidades de que el margen de contribución unitario


de los pantalones esté entre $9.156 y $38.235, con un valor más probable de
$23.623, y un valor mínimo de $2.232, lo cual también indica que no existe
probabilidad de que el margen de contribución de este producto sea negativo,
por lo tanto, siempre existirá dinero por pantalón vendido para cubrir los
costos y gastos fijos de la empresa, así:
Al calcular el Sk se obtiene un valor de 0,01 lo cual hace referencia a una
función de distribución simétrica, es decir que está centrada alrededor de la
media.

Si se quisiera realizar un análisis comparativo de los márgenes de


contribución unitarios de ambos productos se superponen las dos funciones
de distribución, así:
El anterior gráfico muestra que el margen de contribución de las chaquetas
tienen una probabilidad mayor de ser superior que el de los pantalones.

Al utilizar el procedimiento anterior sobre los coeficientes de contribución


unitarios de las chaquetas y los pantalones se obtiene lo siguiente:
Para las chaquetas se tiene un coeficiente mínimo de 0,082 y un máximo de
0,3705 con un valor más probable de 0,2613.

Existe una probabilidad del 90% que el coeficiente de contribución unitario


de las chaquetas esté entre 0,1763 y 0,3234 y para este mismo rango existe
una probabilidad del 40,6% para los pantalones.
Para los pantalones se tiene un coeficiente mínimo de 0,017 y un máximo de
0,27 con un valor más probable de 0,156.

Lo anterior indica que existe una mayor probabilidad de que los pantalones
generan menos pesos por peso facturado con respecto a las chaquetas.
Al calcular el comportamiento de las utilidades operativas a partir de la
estructura de costos, gastos y comportamiento de los precios se obtiene:

Del gráfico se puede apreciar que existe una probabilidad del 0,01% de
generar utilidades operativas negativas, con un mínimo valor de -$3.123.709.
Adicionalmente, se espera con un 90% de confianza que la utilidad operativa
esté entre $7.740.000 y $30.480.000, con un valor esperado de $19.326.400.

Asimismo, es interesante comparar los resultados obtenidos en el modelo


determinístico (utilidad operativa de $29,790,000) y la probabilidad de que
este valor sea superado en el modelo probabilístico, así :
Del gráfico se observa que la probabilidad de superar la utilidad operativa del
modelo determinístico es apenas del 6,5%, con un 93,5% de probabilidad de
no alcanzar este valor.

Al calcular el punto de equilibrio de la mezcla (para unas ventas 41%


chaquetas y 59% pantalones), se obtiene:
Del gráfico se aprecia que el número de unidades a vender entre los
productos es en promedio 423 unidades, con una valor mínimo de 249 y un
valor máximo de 1316. Además, se observa un 90% de probabilidad de que el
número de unidades a vender entre los dos productos es mínimo 299 y
máximo 627.

Nótese que la función de distribución está sesgada a la izquierda (Sk=1,54),


lo cual indica una mayor probabilidad de que sea necesario vender menor
cantidad de producto para alcanzar el punto de equilibrio, lo cual es deseable
para la compañía, pero también existe una “pequeña” probabilidad del 6,6%
de que sea necesario producir y vender entre 600 unidades y 1200 unidades,
esto podría ser inalcanzable dependiendo de la capacidad productiva de los
dos productos de la empresa.

Al analizar los puntos de equilibrios de manera individual (para unas ventas


41% chaquetas y 59% pantalones), se obtiene:

Se sugiere que el lector analice estos resultados obtenidos.

Adicionalmente al calcular el margen de seguridad, se obtiene:


En el gráfico anterior se observa que existe una probabilidad del 90% de que
el margen de seguridad esté entre el 37,3% y el 70,1%.

Del gráfico también se observa que el valor mínimo del margen de seguridad
es de 31,63%; se invita a reflexionar sobre ¿cuánto sería el valor que tendrían
que incrementarse las ventas para alcanzar el punto de equilibrio?

Es interesante comparar los resultados obtenidos en el modelo determinístico


(margen de seguridad del 25,44%) y la probabilidad de que este valor sea
menor en el modelo probabilístico, así:
Como resultado se obtiene una probabilidad del 1,5% de que el margen de
seguridad sea inferior al 25,44% obtenido en el modelo determinístico.

Finalmente, al calcular el punto de cierre de los pantalones se obtiene:


Del gráfico se observa que existe una probabilidad del 20,1% de que el
número mínimo de pantalones a vender sea menor de 72 unidades (cifra
obtenida en modelo determinístico) para que se justifique mantenerlos dentro
del portafolio de la compañía.

CAPITULO 9
CASO APLICADO: TOMA DE DECISIONES PARA
DETERMINAR EL USO DE RECURSOS PROPIOS O A
TRAVES DE LA SUBCONTRATACION
Para resolver este tipo de problemas se requiere manejar los siguientes
conceptos:

• Costos
• Gastos
• Costos y gastos fijos
• Costos y gastos variables
• Costos y gastos directos
• Costos y gastos indirectos
• Costos y gastos evitables
• Margen de utilidad
• Rotación de activos
• Rentabilidad del activo
• EVA
• Costo unitario
• Margen de contribución total o neto • Coeficiente de correlación
• Gráfico de tornado
• Función de distribución
• Simulación de Montercalo
• Scatter Plot

Enunciado del Problema Determinístico

Un distribuidor tiene la posibilidad de utilizar vehículos de 2.0 toneladas para


el reparto de la mercancía. Diariamente se requiere entregar 2500 pedidos en
la ciudad principal. El distribuidor necesita determinar si entrega los pedidos
utilizando vehículos propios, o si subcontrata la operación de distribución con
un tercero. Para efectuar el análisis se conocen las siguientes cifras:

• La inversión en un camión de las características requeridas es $45.000.000 •


Se tiene una capacidad diaria de reparto de 150 pedidos por vehículo. • El
rendimiento promedio del combustible es de 20 kilómetros por galón. • El
costo del combustible es $8.000 por galón.
• Se laboran 22 días al mes.
• Para la operación de cada vehículo se requiere un conductor $1.000.000 y
dos

auxiliares de entrega $950.000 cada uno, cifras que ya incluyen las


prestaciones sociales.
• La tasa de oportunidad de la compañía es del 1.0% mensual.
• Cada vehículo recorre en promedio 60 kilómetros diarios por ruta.
• El vehículo tiene 4 llantas. Cada una vale $400.000 y tienen una vida útil
estimada de 30.000 kilómetros.
• El costo promedio de cambio de aceite es de $100.000 y la frecuencia de
cambio es cada 5.000 kilómetros.
• El mantenimiento preventivo diario equivale a $7.000 por día laborado.
• El SOAT cuesta al año $500.000
• La revisión técnico-mecánica cuesta $0 al año, debido a que es un vehículo
nuevo.
• Los impuestos anuales del vehículo son $200.000
• La depreciación es a 5 años con método de línea recta.
• El GPS anual es $600.000
• El seguro anual del vehículo equivale a $2.500.000
• Cuando se subcontrata la operación con un tercero se le paga $1.800 por
pedido entregado.

Preguntas Parte A:

1. ¿Cuál de las dos alternativas le recomendaría a la compañía?


2. ¿Qué tan sensible es la alternativa de recursos propios a un cambio en las
siguientes variables?
a. Capacidad de pedidos por vehículo (rango entre 120 y 160) y demanda
diaria requerida (2.000 y 3.000)

Propuestos para el lector:

b. Rendimiento del combustible (rango entre 10 kmts/galón y 25 kmts/galón)


y costo del combustible (entre $8.000 y $10.000 por galón)
c. Tasa de oportunidad (entre 0,8% y 1,2% y valor de la inversión (entre
$40.000.000 y $50.000.000)
d. Número de kilómetros diarios recorridos por ruta (entre 60 kmts y 80
kmts) y costo del combustible (entre $8.000 y $10.000 por galón)

Información adicional para continuar el análisis (Parte B):

El distribuidor cobra $2.800 por cada pedido entregado (de los 2.500 pedidos
iniciales). Adicionalmente, el distribuidor requiere entregar otros 9.800
pedidos al mes en la ciudad principal ubicados en puntos más extremos, por
los cuales el distribuidor recibe $2.800 por pedido y paga $1.800 a un tercero
por pedido entregado.

Asimismo, el distribuidor requiere entregar otros 13.000 pedidos al mes en


municipios cercanos, por los cuales el distribuidor recibe $1.800 por pedido y
paga $1.500 a un tercero por pedido entregado.
Las cuentas por cobrar promedio del distribuidor son $50.000.000 y requiere
de un efectivo promedio para operar de $10.000.000 al mes para entregar la
totalidad de los pedidos al mes.

La tasa impositiva es del 33% sobre las utilidades.


Los gastos mensuales adicionales de operación del distribuidor incluyendo
los gastos administrativos son de $50.000.000.
Preguntas Parte B:
3. Analice el desempeño financiero de la alternativa propia.
Pregunta propuesta para el lector

a. En caso en que el distribuidor tercerice toda la operación, incluyendo los


2.500 pedidos iniciales, pagando $1.800 por cada pedido entregado, ¿qué
alternativa escogería?

b. ¿Qué pasaría si el distribuidor planteara una opción de 30% subcontratado


y 70% con recursos propios sobre el desempeño de la empresa?, ¿qué pasaría
si fuera 50% y 50%?

Resolviendo el ejercicio paso a paso (caso determinístico)


Identificación de las variables de entrada
Cálculo y descripción de los resultados obtenidos (caso determinístico)}

Para comparar las dos alternativas es necesario calcular los costos por
vehículo al mes y los costos de toda la operación mensual y así determinar el
costo por pedido entregado al utilizar los vehículos propios para el reparto.
Este costo por pedido se compara con los costos de la tercerización. De la
diferencia entre la magnitud entre las cifras obtenidas se calcula el costo
diferencial entre ellas.
A continuación se presenta el procedimiento para analizar la alternativa de
recursos propios:
Inicialmente se determinan el número de vehículos requeridos para soportar
toda la operación, así:

Se divide el número de pedidos diarios a entregar entre la capacidad de


pedidos diarios que cada vehículo puede realizar (2500/150). Con esto se
obtiene 16.67 vehículos lo cual significa que se requieren 17 vehículos en
toda la operación. Posteriormente se calculan los costos mensuales de cada
vehículo obteniendo:

De la tabla anterior se puede apreciar que el costo mensual de combustible de


un vehículo se calcula al multiplicar los 3 galones diarios que se consume (60
kmts/día divido 20 kmts/galón) por el número de días laborados en el mes (22
días) por el precio de compra del combustible ($8000/galón).

El conductor y los dos auxiliares suman $1.000.000 y $1.900.000


respectivamente con el factor prestacional ya incluido.
El costo de las llantas se obtiene así:
(Valor de la llanta * número de llantas por vehículo) / (Vida útil) * (distancia
diaria recorrida)* (número de días laborales)
($400.000 * 4) / (30.000*60*22) = $70.400
El costo del aceite se calcula de la siguiente forma:
(Valor cambio de aceite / frecuencia de cambio) * (Distancia diaria
recorrida)* (número de días laborales)
($100.000 / 5.000) * (60*22) = $26.400

El costo del mantenimiento se obtiene a partir del producto entre el valor del
mantenimiento preventivo diario ($7.000) y el número de días laborados (22).
El costo del SOAT de $41.666.67, la revisión técnico mecánica $0, los
impuestos $16.666.67; el GPS $50.000 y el seguro $208.333.33 se obtienen
al dividir sus costos anuales por vehículo entre los doce meses del año.

El valor de la depreciación de $750.000 se obtiene al dividir el valor de la


inversión ($45.000.000) entre su vida útil (5 años) y los doce meses del año.

Es importante hacer énfasis en que es necesario calcular el costo de


oportunidad mensual de cada vehículo de los recursos invertidos en esta
alternativa. Un valor de $450.000 mensuales se obtiene de multiplicar la
inversión ($45.000.000) por la tasa de oportunidad mensual (1%).

Una vez calculadas las cifras anteriores se procede a realizar su sumatoria


para obtener el costo mensual de cada vehículo, una cifra de $5,195,466,97
Al multiplicar cada uno de los costos anteriores por el número de vehículos
se obtiene el costo mensual total para entregar los 2.500 pedidos diarios, así:
Luego, se
calculan el número de pedidos mensuales totales por vehículo y por los 17
vehículos requeridos, así:

El número de pedidos que un vehículo puede repartir en el mes es de 3.300,


el cual se obtiene al multiplicar la capacidad de pedidos diarios por vehículo
(150) y el número de días laborados en el mes (22).

El número de pedidos que debe atender toda la flota es de 55.000 al mes,


obtenidos del producto entre la demanda diaria requerida (2500) y el número
de días laborados en el mes (22).
En este punto es importante resaltar que el costo por pedido de un vehículo es
diferente al costo por pedido de toda la operación, puesto que el número de
vehículos requeridos (16,66) indica que para la demanda diaria de 2.500
pedidos, un vehículo no utilizará toda su capacidad y por tanto el costo por
pedido de todo el sistema se incrementa unitariamente.

El costo por pedido de un vehículo es de $1.574, el cual se obtiene al dividir


los costos mensuales de un vehículo ($5.195.466.7) entre el número de
pedidos que puede atender el vehículo en el mes (3.300).

El costo por pedido al analizar toda la operación es de $1.606, el cual se


obtiene al dividir los costos mensuales de toda la operación ($88.322.933.3)
entre el número de pedidos que se atienen al mes (55.000).

La diferencia de $31.5 que se calcula al restar $1.606 y $1.574 indica el


sobrecosto unitario por pedido entregado, esto como consecuencia de tener
un vehículo al 67% de su capacidad.

Al comparar los costos por pedido entregado con recursos propios y la opción
de subcontratar la operación con un tercero quien cobra $1.800 por pedido
entregado, se obtiene el costo diferencial de $225.62 para un vehículo y
$194.13 para toda la operación. El cuadro que aparece a continuación
presenta todos los resultados anteriores y el ahorro obtenido con respecto a la
opción de la subcontratación:

En conclusión, se aprecia que la alternativa de recursos propios es menos


costosa que la opción de la subcontratación.

Para responder la pregunta ¿qué tan sensible es la alternativa de recursos


propios a un cambio en las variables capacidad de pedidos por vehículo y
demanda diaria requerida?, es necesario realizar un análisis de sensibilidad,
que permita apreciar el impacto que un cambio en la capacidad de pedidos
por vehículo y un cambio en la demanda diaria requerida generan sobre el
costo diferencial unitario de la operación de todos los vehículos, utilizando la
herramienta tabla de datos de Microsoft EXCEL, así:

En la tabla anterior se puede apreciar que cuando la capacidad de pedidos por


vehículo cae a 130 pedidos diarios, la alternativa de recursos propios es más
costosa que la tercerización, independientemente del comportamiento de la
demanda requerida por el mercado.

Para responder las preguntas de la parte B (la 3 y la a y la b) es necesario


construir el estado de resultados de la compañía y calcular algunos
indicadores financieros como el margen de utilidad, la rotación de los activos,
la rentabilidad del activo y el EVA.

El estado de resultados de la empresa se presenta a continuación:


El ingreso de $154.000.000 en la ciudad principal es el producto entre los
pedidos diarios (2.500), el número de días laborables (22) y el precio por
pedido ($2.800).

El ingreso de $27.440.000 en los puntos extremos es el producto entre el


número de pedidos mensuales (9.800) y el precio por pedido ($2.800).
El ingreso de $23.400.000 en los municipios es el producto entre el número
de pedidos mensuales (13.000) y el precio por pedido ($1.800).

El costo de la prestación de servicios ($80.672.933) en la ciudad principal es


la diferencia entre los costos total mensuales de la operación con recursos
propios ($88.322.933.3) y el costo de oportunidad ($7.650.000).

El costo de la prestación de servicios ($17.640.000) en los puntos extremos


es el producto entre el número de pedidos mensuales (9.800) y el pago a
terceros por pedido entregado ($1.800).

El costo de la prestación de servicios ($19.500.000) en los municipios es el


producto entre el número de pedidos mensuales (13.000) y el pago a terceros
por pedido entregado ($1.500).

La utilidad bruta es la diferencia entre los ingresos y el costo de la prestación


de los servicios, alcanzando $87.027.067 entre los tres canales de la empresa.
La utilidad de operación es la diferencia entre la utilidad bruta y $50.000.000
de gastos de operación correspondientes a los gastos administrativos
mensuales.
En el estado de resultados se puede apreciar que no existen ingresos no
operaciones, egresos no operaciones, ni gastos financieros, con lo cual la
utilidad antes de impuestos es igual a la utilidad de operación.

Los impuestos de $12.218.932 son el 33% de la utilidad antes de impuestos.


La utilidad neta de $24.808.135 es la diferencia entre la utilidad antes de
impuestos y los impuestos.
El margen de utilidad neta es del 12.11%, el cual es la razón entre la utilidad
neta y los ingresos. Esto significa que por cada $100 vendidos $12.11 son
utilidades netas.

La rotación de activos 0.25 es la razón entre las ventas y los activos totales.
En este caso, los activos totales son $825.000.000, que se obtienen de sumar
el valor de los activos fijos (17 vehículos * $45.000.000), $50.000.000 de
cuentas por cobrar y $10.000.000 de efectivo. Esta rotación significa que los
ingresos son 0.25 veces el tamaño de los activos requeridos para generar ese
nivel de ventas.
La rentabilidad de los activos (neta) es de 3.01%, se obtiene a partir de la
razón entre la utilidad neta ($24.808.135) y los activos totales
($825.000.000). Este indicador mide la capacidad que tiene cada peso
invertido en activos de producir utilidad neta.

El EVA (Valor Económico Agregado) es la diferencia entre la utilidad


operativa después de impuestos (UODI) y el costo de oportunidad de los
activos fijos y el capital de trabajo de corto plazo requerido para generar esa
utilidad operativa después de impuestos. Así, el EVA es $16.558.134,7.

La tabla que aparece a continuación muestra un resumen de los resultados


anteriores:

Enunciado del problema


probabilístico
El problema ilustrado hasta este punto se ha abordado de manera
determinística, sin embargo es interesante analizar los resultados obtenidos
teniendo en cuenta el comportamiento probabilístico de algunas de las
variables anteriores. Para lograr esto se utiliza la Simulación de Montecarlo.

Las variables con comportamiento probabilístico son:

a. Valor vehículo: la compañía puede utilizar diferentes marcas de vehículos.


Los concesionarios ofrecen diversas opciones en donde el precio mínimo es
de $40.000.000, el máximo $48.000.000 y el precio del camión más vendido
es de $45.000.000

b. Capacidad: la capacidad del vehículo depende de la mezcla de productos


que se vendan en una temporada. La capacidad mínima de 130 pedidos
diarios por vehículo se genera cuando la mezcla de ventas se compone de
productos con un volumen y un peso alto. La capacidad máxima es de 160
pedidos díarios por vehículo, cuando la temporada tiene productos con peso y
volumen bajo.

c. Rendimiento combustible: el comportamiento de esta variable, depende de


la ruta recorrida, el tráfico de la ciudad, del estado de mantenimiento del
vehículo y del volumen y peso de carga del mismo. La información histórica
de la empresa muestra que el rendimiento promedio es de 20 kmts/galón con
una desviación estándar de 2 kmts/galón.

d. Precio combustible: esta variable es determinada por el gobierno nacional


y depende de las zonas geográficas en donde esté ubicado el vehículo. El
precio fluctúa entre $8.600 por galón y $9.500 por galón.

e. Distancia recorrida: esta variable depende de la zona geográfica, los


tiempos de desplazamiento y atención, de los horarios de los clientes y de los
volúmenes de mercancía. Para el problema se tiene un valor optimista de 50
kmts/diarios, un valor pesimista de 75 kmts/diarios y un valor medio de 60
kmts/diarios.

f. Vida útil llanta: esta variable depende de la marca de la llanta, de los


hábitos de manejo, de la zona geográfica, del peso y volumen de carga y del
estado de mantenimiento del vehículo. La vida útil mínima esperada es de
27.000 kmts y máxima de 35.000 kmts.

g. Número de pedidos: esta variable depende de las épocas del año, del
comportamiento de la economía y de la inversión en publicidad efectuada por
la empresa. Se espera que el número de pedidos mínimos sea 2.200, máximo
2.700 y un valor más probable de 2.500.

Preguntas:
1. ¿Cuál de las dos alternativas le recomendaría a la compañía?
2. Analice el desempeño financiero de la alternativa propia.
Resolviendo el ejercicio paso a paso (Caso probabilístico)
Identificación y explicación de las variables de entrada

Debido a que la compañía puede utilizar diferentes marcas de vehículos,


porque los concesionarios ofrecen diversas opciones en donde el precio
mínimo es de $40.000.000, el máximo $48.000.000 y el precio del camión
más vendido es de $45.000.000, la función de distribución triangular permite
modelar esta situación, así:

Por otra parte, la capacidad del vehículo depende de la mezcla de productos


que se vendan en una temporada. La capacidad mínima de 130 pedidos
diarios por vehículo se genera cuando la mezcla de ventas se compone de
productos con un volumen y un peso alto. La capacidad máxima es de 160
pedidos diarios por vehículo, cuando la temporada tiene productos con peso y
volumen bajo. La función de distribución uniforme permite modelar esta
variable, así:

Asimismo, el rendimiento del combustible, depende de la ruta recorrida, el


tráfico de la ciudad, del estado de mantenimiento del vehículo y del volumen
y peso de carga del mismo. La información histórica de la empresa muestra
que el rendimiento promedio es de 20 kmts/galón con una desviación
estándar de 2 kmts/galón. La función de distribución normal simula estos
valores, así:
El precio del combustible es una variable sobre la cual no se tiene control en
la empresa porque es determinada por el gobierno nacional y depende de las
zonas geográficas en donde esté ubicado el vehículo. El precio fluctúa entre
$8.600 por galón y $9.500 por galón, una función de distribución uniforme
simula este comportamiento, así:
La distancia recorrida por cada vehículo depende de la zona geográfica, los
tiempos de desplazamiento y atención, de los horarios de los clientes y de los
volúmenes de mercancía. Un valor optimista de 50 kmts/diarios, un valor
pesimista de 75 kmts/diarios y un valor medio de 60 kmts/diarios. Una
función de distribución Pert permite simular esta situación, así:
La vida útil llanta depende de la marca de la llanta, de los hábitos de manejo,
de la zona geográfica, del peso y volumen de carga y del estado de
mantenimiento del vehículo. La vida útil mínima esperada es de 27.000 kmts
y máxima de 35.000 kmts. Una función de distribución uniforme modela
estos valores, así:
El número de pedidos que se requiere entregar diariamente depende de las
épocas del año, del comportamiento de la economía y de la inversión en
publicidad efectuada por la empresa. Se espera que el número de pedidos
mínimos sea 2.200, máximo 2.700 y un valor más probable de 2.500. La
función de distribución triangular simula estas cifras, así:

Desarrollo paso a paso del problema

Una vez definidas las variables de entrada con sus respectivas funciones de
distribución se procede a identificar las variables de salida a las cuales se les
realizará la Simulación de Montecarlo.

Para resolver la pregunta ¿cuál de las dos alternativas le recomendaría a la


compañía?, es necesario identificar como variables de salida el costo por
pedido y el ahorro, y para analizar el desempeño financiero de la empresa se
requiere identificar como variables de salida la utilidad neta, el margen de
utilidad, la rotación de activos, la rentabilidad de activos, el EVA, la UODI y
el Ck.
Cálculo y análisis de los resultados obtenidos

Al ejecutar la simulación se obtienen resultados sobre 9 variables de salida.


Las dos primeras variables permiten responder la primera pregunta y las siete
restantes la pregunta adicional:

• Costo por pedido


• Ahorro
• Utilidad Neta
• Margen de Utilidad
• Rotación de Activos
• EVA
• UODI
• Ck
Los resultados obtenidos sobre el costo por pedido entregado en la alternativa
recursos propios son:
En el gráfico anterior se observa que existe un 90% de probabilidad de que el
costo por pedido esté entre $1.540 y $1.884, con un valor más probable de
$1.703,62 y un valor mínimo de $1.445,2. Esto indica que existe probabilidad
de que el costo por pedido sea superior a la tercerización ($1.800 por pedido).

Por lo anterior, es importante analizar la probabilidad de que el costo por


pedido en la alternativa con recursos propios sea menor al costo de un pedido
entregado por un tercero, así:
De este gráfico se observa que existe un 78,2% de probabilidad de que el
costo de la alternativa propia sea menor al costo de un tercero.

Un análisis adicional importante que se puede realizar es observar el gráfico


de tornado de las variables de entrada sobre esta variable de salida, con el fin
de evaluar cuáles son las variables de entrada que tienen un mayor nivel de
incidencia en la magnitud del costo por pedido, así:
De este gráfico se puede apreciar que la variable que mayor nivel de
incidencia negativa tiene sobre el costo por pedido, es la capacidad de
pedidos que puede entregar un vehículo diariamente en cada ruta, seguida por
el rendimiento del combustible.

Posteriormente se puede complementar este análisis con un Diagrama de


dispersión, sobre la variable capacidad, así:
Como se puede apreciar en el gráfico anterior, la zona sombreada muestra el
costo por pedido en función de la capacidad. Cuando la capacidad está entre
130, el costo por pedido varía entre un mínimo de $1.800 y un máximo de
$2.000 aproximadamente; cuando la capacidad está en 160 pedidos el costo
por pedido varía entre un mínimo de $1.450 y $1.650 aproximadamente.

Se invita al lector a analizar qué otras conclusiones se pueden plantear de este


gráfico.

Los resultados obtenidos sobre ahorro de la alternativa recursos propios son:


De los gráficos se puede reafirmar que existe una probabilidad del 21,8% de
que el costo por pedido de la alternativa de recursos propios sea superior a la
alternativa de tercerización.

Para analizar el desempeño financiero de la empresa es necesario analizar las


7 variables restantes.

Los resultados obtenidos sobre la utilidad neta son:


En el gráfico anterior se observa que existe un 90% de probabilidad de que la
utilidad neta esté entre $13.950.000 y $27.310.000, con un valor más
probable de $20.719.171,8 y un valor mínimo de $8.480.340,29. Esto indica
que no existe probabilidad de pérdida en el ejercicio.

El gráfico de tornado que se ilustra a continuación, permite observar que las


variables más críticas sobre la utilidad neta son la capacidad y el número de
pedidos diarios demandados.
Se invita al lector a realizar el análisis de estas variables utilizando el
Diagrama de dispersión.

Los resultados obtenidos sobre el margen de utilidad neta son:

En el gráfico anterior se observa que existe un 90% de probabilidad de que el


margen de utilidad esté entre $7,06 y $13,13, con un valor más probable de
$10,2 y un valor mínimo de $4,47. Esto indica que no existe probabilidad de
margen de utilidad negativo.

Los resultados obtenidos sobre la rotación de activos son:


En el gráfico anterior se observa que existe un 90% de probabilidades de que
la rotación de activos esté entre 0,2172 y 0,27, con un valor más probable de
0,2429 y un valor mínimo de 0,2022.

Los resultados obtenidos sobre la rentabilidad del activo son:


En el gráfico anterior se observa que existe un 90% de probabilidad de que la
rentabilidad del activo esté entre 15,64% y 34,47%, con un valor más
probable de 2,5% y un valor mínimo de 0,95%.
En este gráfico se aprecia que existe un 90% de probabilidad de que el EVA
esté entre 5.090.000 y 19.320.000, con un valor más probable de $12.337.495
y un valor mínimo de -$477.617%.

A continuación se presentan los comportamientos esperados de la utilidad


operativa después de impuestos y el costo de oportunidad de los activos
requeridos para generarla. Se invita al lector a analizar estos resultados.
CAPÍTULO 10
CONCEPTOS DE ESTADÍSTICA

Los términos que se presentan a continuación han sido seleccionados con el


objetivo de resolver las dudas que el lector pueda tener alrededor de
conceptos estadísticos importantes manejados en el texto y requeridos para la
evaluación financiera de proyectos con análisis de riesgo. Se presentan en
orden alfabético para facilitar su búsqueda. Para cada uno de los términos se
presentan una o varias definiciones seleccionadas y debidamente
referenciadas de diferentes textos y autores reconocidos en el tema,
consideradas completas y sencillas según el criterio de los autores.

Algoritmos genéticos
- “Son métodos de búsqueda basados en los mecanismos de la selección
natural (supervivencia del más apto) y los principios de la genética. Fueron
desarrollados tratando de imitar algunos de los procesos observados en la
evolución natural”. (Cerrolaza & Annicchiarico, 1996)

- “El algoritmo genético (A.G) busca resolver problemas de reconfiguración


para minimizar las pérdidas de un sistema cumpliendo con restricciones con
los límites de las caídas de tensión y la capacidad de corriente”. (Arango
Lemoine, 2000)

Análisis de regresión
- “El análisis de regresión trata del estudio de la dependencia de la variable
dependiente, respecto a una o más variables (las variables explicativas) con el
objetivo de estimar o predecir la media o valor promedio poblacional de la
primera en términos de los valores conocidos o fijos (en muestras repetidas)
de las ultimas”. (Gujarati, 1997)

- “La regresión es una expresión cuantitativa de la naturaleza básica de la


relación entre las variables dependiente e independiente. Por ejemplo, dado
un modele de regresión simple con una variable independiente el modelo
determinara si las 2 variables tienden a desplazarse en la misma dirección (las
dos crecen o decrecen al mismo tiempo) o en sentidos opuestos (una aumenta
cuando la otra disminuye. También indicará la cantidad en que Y cambiará
cuando la variable independiente varíe en una unidad”. (Webster, 2000)

- “El análisis de regresión se utiliza para fines de predicción. En el análisis de


regresión el objetivo es desarrollar un modelo estadístico que se pueda usar
para predecir los valores de una variable dependiente o de respuesta basada
en los valores de por lo menos una variable explicatoria o independiente”.
(Berenson & Levine, 1996)

- “Los análisis de regresión se basan en la relación o asociación existente


entre dos (o más) variables. La variable (o variables) conocida recibe el
nombre de variable independiente. La variable que estamos intentando
predecir es la variable dependiente”. (Levin & Rubin, 2004 )

Análisis de regresión múltiple


- “La principal ventaja de la regresión múltiple es que nos permite utilizar
más información disponible para estimar la variable dependiente. En algunas
ocasiones la correlación entre dos variables puede resultar insuficiente para
determinar una ecuación de estimación confiable. Sin embargo, si agregamos
los datos de más variables independientes, podemos ser capaces de
determinar una ecuación de estimación que describa la relación con mayor
precisión. La regresión múltiple y el análisis de correlación implican un
proceso de tres pasos como el que usamos en la regresión simple. En este
proceso, nosotros:

1. Describimos la ecuación de la regresión múltiple


2. Examinamos el error estándar de regresión múltiple de la estimación.
3. Utilizamos el análisis de regresión múltiple para determinar que tan bien
describe la ecuación de regresión los datos observados.

Además en la regresión múltiple podemos observar cada una de las variables


independientes y probar si contribuyen significativamente a la forma en que
la regresión describe los datos”. (Levin & Rubin, 2004 )

- “El modelo de regresión lineal múltiple expresa la media de la variable de


respuesta Y como función de una o más variables de predicción distintas X1,
X2, …, Xp. Asume la forma siguiente:

Advierta que este modelo difiere conceptualmente del modelo polinomial. En


el modelo polinomial se trata de una variable de predicción que puede estar
elevada a potencias mayores que 1. En este caso, se trata de p variables de
predicción distintas, cada una de primer grado”. (Milton & Arnold, 2004)

Análisis de sensibilidad

- “El análisis de sensibilidad se trata de la determinación de cómo los


cambios en las entradas o parámetros afectan las salidas. La capacidad de las
tablas de Excel brinda mucha facilidad para realizar análisis de sensibilidad
sobre uno o dos datos de entrada simultáneamente. Si deseamos encontrar un
valor sobre una sola variable de entrada que determina un nivel deseado en la
variable de salida entonces la función de Buscar Objetivo es muy útil. Si
deseamos determinar la combinación de variables de entrada que optimice
(maximice o minimice) una variable de salida, entonces el solver de Excel o
el algoritmo genético Evolver pueden resolver su problema”. (Winston, 2008)

Coeficiente de asimetría
- “Utilizando la información muestral, el coeficiente de asimetría de la
población se estima de la siguiente manera

Donde
y s son la media y la desviación típica muestrales, respectivamente.

La parte más importante de esta expresión es el numerador; el único fin del


denominador es la estandarización, de forma que el valor del coeficiente de
asimetría sea independiente de las unidades de medida. Tendremos un
coeficiente de asimetría positivo cundo la distribución este desplazada hacia
la derecha, al ser en este caso la media del cubo de las diferencias respecto a
la media muestral positiva. De la misma forma, el coeficiente de asimetría
será negativo en distribuciones desplazadas hacia la izquierda y 0 en
distribuciones, como es el caso de la normal, que son simétricas en torno a la
media”. (Newbold, Carlson, & Thorne, 2008)

- “Skewness describes the degree to which a distribution is not symmetric.


Negatively skewed distributions tail off to the left (most of their density is to
the right); positively skewed distributions tail off to the right (most of their
density is to the left). The coefficient of skewness is a measure of skewness
and is computed as”.


(Evans & Olson, 2002)

Coeficiente de correlación
- “Es la raíz cuadrada de el coeficiente de determinación .Se designa con la
letra r. El valor de r se sitúa en el intervalo de +1 y -1. Si r>0, la recta tendrá
pendiente ascendente. Si r<0 la recta de regresión tendrá pendiente negativa.
El valor absoluto de r indica la fuerza de la relación entre X e Y; mientras que
el signo nos dice si están relacionados de forma directa o inversa. Un r que
valga +1 indica una correlación positiva perfecta, mientras que r=-1 sugiere
una correlación negativa perfecta. Si r=0, no hay relación lineal entre X e Y”.
(Webster, 2000)

- “El coeficiente de correlación es una medida estandarizada de la asociación


lineal que existe entre las variables aleatorias X y Y en relación con sus
dispersiones. El valor del coeficiente igual a cero indica la ausencia de
cualquier asociación lineal, mientras que los valores -1 y +1 indican
relaciones lineales perfectas, negativas y positivas respectivamente”.
(Canavos, 1987 )

- “Medida que podemos usar para describir que tan bien una variable es
explicada por otra. Cuando tratamos con muestras el coeficiente de
correlación de muestra se denota como r y es la raíz cuadrada del coeficiente
de determinación. Cuando la pendiente de la ecuación es positiva, r es la raíz
cuadrada positiva, pero si b es negativa, es la raíz cuadrada negativa. Por lo
tanto el signo de r indica la dirección de la relación entre las 2 variables, X y
Y. Si existe una relación inversa, esto es, si Y disminuye al aumentar X,
entonces r caerá entre 0 y -1. De manera similar, si existe una relación directa
(si Y aumenta al aumentar X) entonces r será un valor en el intervalo de 0 a
1”. (Webster, 2000)

Coeficiente de determinación
- “Mide el poder explicativo del modelo de regresión, es decir, la parte de la
variación de Y explicada por la variación de X. De esta forma, r2 mide la
fuerza de la relación lineal entre X e Y. r2 solo tiene significado para
relaciones lineales. Dos variables pueden presentar un coeficiente de
determinación cero y sin embargo estar relacionadas de manera no lineal. El
valor de r2 ha de estar entre 0 y 1 puesto que es imposible explicar más del
100% de la variación de Y”. (Webster, 2000)

- “El coeficiente de determinación, R2, es la proporción de variabilidad de la


variable dependiente explicada por su relación lineal con la variable
independiente. La proporción de variabilidad explicada verifica que
0<=R2<=1, y que a mayor R2, mayor capacidad explicativa de la regresión”.
(Newbold, Carlson, & Thorne, 2008)

- “El coeficiente de determinación es la principal forma en que podemos


medir la extensión o fuerza de la asociación que existe entre dos variables, X
y Y. El coeficiente de determinación de muestra se desarrolla de la relación
entre dos tipos de variación: la variación de los valores Y en un conjunto de
datos alrededor de: 1. La línea de regresión ajustada y 2. Su propia media. …
En los problemas con que se topa la mayoría de los responsables de la toma
de decisiones, R2 caerá en alguna parte entre estos dos extremos de 0 y 1.
Recuerde no obstante que un R2 cercano a 1 indica una fuerte correlación
entre X y Y, mientras correlación entre estas que un R2 cercano a 0 significa
que existe poca

dos variables. Un punto que debemos subrayar fuertemente es que R2 mide


solo la fuerza de una relación lineal entre 2 variables”. (Levin & Rubin, 2004
)

Coeficiente de Curtosis
- “La curtosis nos da una idea de la masa que tienen las colas de una función
de densidad. En la distribución normal, la curtosis poblacional es 3”.
(Newbold, Carlson, & Thorne, 2008)

- “Cuando medimos la curtosis de una distribución estamos midiendo su


grado de pico. Existen muchos grados diferentes de curtosis, pero los
estadísticos normalmente utilizan tres clases generales: mesocurtica, una
curva que tenga más pico, leptocurtica, y una curva que tenga menos pico, se
denomina platicurtica”. (Levin & Rubin, 2004 )
- “Kurtosis refers to the peakedness (i.e., high, narrowa9 or flatness (i.e.,
short, flat-topped) of the distribution. The coefficient of Kurtosis measures
the degree of Kurtosis of a distribution and is computed as

A normal distribution has a coefficient of Kurtosis of 3. If the value of CK is


less than 3, the distribution is relatively flat with a very wide degree of
dispersion. If the value o CK is grater than 3, the distribution is highly peaked
with little dispersion”. (Evans & Olson, 2002)

Distribución binomial
- “En una distribución binomial cada intento da lugar a la aparición de uno de
dos resultados mutuamente excluyentes. Cumple determinadas condiciones: •
Debe haber únicamente 2 resultados posibles. Uno de ellos se señala como

éxito, el otro como fracaso. Pero no conviene vincular ninguna connotación


de “bueno” o “malo”. Son completamente objetivos, y un “éxito” no implica
necesariamente un resultado deseable.

• La probabilidad de un éxito, π, permanece constante de un intento al


siguiente, igual la probabilidad de fracaso, 1- π.

• La probabilidad de éxito en un intento es totalmente independiente de lo


obtenido en cualquier otro intento.
• El experimento se puede repetir muchas veces”. (Webster, 2000)

- “Esta distribución describe una variedad de procesos de interés para los


administradores y describe datos discretos, no continuos, que son resultado
de un experimento conocido como el proceso de Bernoulli, en honor al
matemático suizo del siglo XIX, Jacob Bernoulli. El lanzamiento de la
moneda no alterada un número fijo de veces es un proceso Bernoulli, y los
resultados de tales lanzamientos pueden representarse mediante la
distribución binomial de probabilidad. El éxito o fracaso de los solicitantes de
empleo, entrevistados para pruebas de aptitudes, también puede ser descrito
como un proceso Bernoulli.

Podemos utilizar el resultado del lanzamiento de una moneda no alterada un


cierto número de veces como ejemplo del proceso de Bernoulli. Podemos
describir el proceso de la manera siguiente:

1. Cada intento (cada lanzamiento en este caso) tiene solamente 2 resultados


posibles: cara o cruz, sí o no, éxito o fracaso.
2. La probabilidad del resultado de cualquier intento (lanzamiento)
permanece fijo con respecto al tiempo. Con una moneda no alterada la
probabilidad de tener cara siempre es 0.5 para cada lanzamiento,
independientemente del número de veces que se lance la moneda.
3. Los intentos son estadísticamente independientes, es decir, el resultado de
un lanzamient0o no afecta el resultado de cualquier otro lanzamiento”. (Levin
& Rubin, 2004 )
- “La distribución binomial está ligada a un tipo de experimento llamado
ensayo de Bernoulli, en honor a Jacques Bernoulli (1654-1705). El ensayo de
Bernoulli es un experimento aleatorio que solo puede concluir de dos
maneras distintas mutuamente excluyentes e independientes. Uno de los
resultados se llama éxito y el otro fracaso.
Ejemplos de ensayos de Bernoulli son:
• Seleccionar un artículo para clasificarlo como bueno o defectuoso •
Seleccionar una persona para clasificarla como apta o no apta de acuerdo con
algún criterio.
Los ensayos de Bernoulli dan origen a una variable aleatoria. Y algo bastante
particular, solo toma dos valores y cuyos valores de probabilidad
(distribución) están dados por la formula siguiente

P(Y=y)= p, y=1
q, y=0

0, otro caso En donde p corresponde a la probabilidad de que se dé o de que


ocurra un éxito y q = 1-p, la probabilidad de que ocurra un fracaso”. (Chao,
1993)

Distribución de probabilidad
- “Es una lista de todos los resultados posibles de un experimento y de la
probabilidad asociada a cada resultado. En la distribución de probabilidad se
relacionan todos los resultados posibles, junto con la probabilidad de cada
resultado. Las probabilidades de todos los resultados posibles suman 1”.
(Webster, 2000)

- “La distribución de probabilidad de una variable aleatoria es una


representación de las probabilidades de todos los resultados posibles. Esta
representación puede ser algebraica, grafica o tabular”. (Newbold, Carlson, &
Thorne, 2008)

- “Una distribución de probabilidad es un listado de las probabilidades de


todos los posibles resultaos que podrían obtenerse si el experimento se llevara
a cabo”. (Levin & Rubin, 2004 )

Distribución de probabilidad normal


- “Es una distribución de probabilidad continúa. Se utiliza para reflejar la
distribución de variables como alturas, pesos, distancias, y otras medidas que
admiten subdivisión infinita. Es una disposición única de valores en la cual si
estos se representan de manera gráfica la curva resultante toma la forma
simétrica y acampanada. En una distribución normal el 50% de las
observación está por encima de la media y el 50% restante por debajo de la
misma. Hay 2 parámetros que determinan por completo la forma y posición
de una distribución normal: su media y su desviación típica”. (Webster, 2000)

- “Una distribución de probabilidad continua que es muy importante es la


distribución normal. Varios matemáticos han contribuido a su desarrollo
entre los que podemos contar al astrónomo-matemático del siglo XIX Karl
Gauss. En honor a su trabajo la distribución de probabilidad normal a
menudo también se le llama distribución gaussiana. Existen dos razones
básicas por las cuales la distribución normal ocupa un lugar tan prominente
en la estadística. Primero, tiene algunas propiedades que la hacen aplicable a
un gran número de situaciones en las que es necesario hacer inferencias
mediante la toma de m muestras. Segundo la distribución normal casi se
ajusta a las distribuciones de frecuencia reales observadas en muchos
fenómenos, incluyendo características humanas (pesos, alturas, IQ),
resultados de procesos físicos (dimensiones y rendimientos) y muchas otras
medidas de interés para los administradores, tanto en el sector público como
en el privado.
Características de la distribución normal de probabilidad:
1. La curva tiene un solo pico; por tanto, es unimodal. Tiene forma de
campana.
2. La media de una población distribuida normalmente cae en el centro de su
curva normal.
3. Debido a la simetría de la distribución normal de probabilidad, la mediana
y la moda de la distribución se encuentran también en el centro; en
consecuencia, para una curva normal, la media, la mediana y la moda tienen
el mismo valor.
4. Los dos extremos de la distribución normal de probabilidad se extienden
indefinidamente y nunca tocan el eje horizontal. (Levin & Rubin, 2004 )

- La distribución normal es de vital importancia en estadística por tres


razones principales:
1. Numerosos fenómenos continuos parecen seguirla o se pueden aproximar
mediante ella.
2. Se puede utilizar para aproximar varias distribuciones discretas de
probabilidad y de esta forma evitar molestos cálculos.
3. Proporcionar la base para la inferencia estadística clásica por su relación
con el teorema del límite central.

La distribución normal tiene varias propiedades teóricas interesantes. Entre


estas:
1. Tiene “forma de campana” y es de apariencia simétrica
2. Sus mediciones de tendencia central (media, mediana, moda, rango medio
y eje medio) son idénticas.
3. Su “dispersión media” es igual a 1,33 desviaciones estándar. Es decir, el
rango intercuartilico está contenido en un intervalo de dos tercios de una
desviación estándar por debajo de la media, hasta dos terceras partes de una
desviación estándar por encima de la media.
4. Su variable aleatoria asociada tiene rango infinito (-∞<X<+∞)”. (Berenson
& Levine, 1996)

Distribución de probabilidad uniforme


- “La probabilidad de que la variable aleatoria tome un valor en cada
subintervalo de igual longitud, es la misma. En un evento en que una variable
aleatoria toma valores de un intervalo infinito, de manera que estos se
encuentran distribuidos igualmente sobre un intervalo”. (Canavos, 1987 )

- “Es una distribución en la cual las probabilidades de todos los resultados


son las mismas. Todos los resultados posibles tienen la misma probabilidad
de ocurrir y por consiguiente forman una distribución de probabilidad
uniforme”. (Webster, 2000)

Distribución t-student
- “A la distribución t se le conoce como distribución t de student o
simplemente distribución de student. Debido a que se le utiliza cuando el
tamaño de la muestra es de 30 o menor, los estadísticos con frecuencia,
asocian la distribución t con estadísticas de muestras pequeñas. Esto no es del
todo cierto, pues el tamaño del amuestra es solamente una de las condiciones
que nos llevan a utilizar la distribución de Student. La segunda condición es
que la desviación estándar de la población debe ser desconocida. El uso de la
distribución t para hacer estimaciones se requiere siempre que el tamaño de la
muestra sea de 30 o menor y la desviación estándar de la población no se
conoce. Además al utilizar la distribución t, suponemos que la población es
normal o aproximadamente normal.
Sin derivar la distribución t de manera matemática, podemos obtener un
entendimiento intuitivo de la relación que existe entre la distribución t y la
distribución normal. Ambas son simétricas. En general la distribución t es
más plana que la distribución normal y hay una distribución t diferente para
cada tamaño posible de la muestra. Incluso con esto, conforme el tamaño de
la muestra se hace más grande, la forma de la distribución t pierde su
horizontalidad y se vuelve aproximadamente igual a la distribución normal”.
(Levin & Rubin, 2004 )

- “…trataremos ahora el caso, de considerable interés practico, en el que la


varianza poblacional es desconocida y el tamaño de la m muestra es pequeño.
Para ello es necesario presentar una nueva clase de distribución de
probabilidad.

La variable aleatoria
Tiene una distribución normal estándar. En el caso que la desviación típica
poblacional sea desconocida, este resultado no puede ser utilizado
directamente. En tales circunstancias es natural considerar la variable
aleatoria

que resulta de sustituir el valor desconocido


en la ecuación por la desviación típica muestral Sx, obteniéndose

T
Sx Esta variable aleatoria no sigue una distribución normal estándar. Sin
embargo, su distribución es conocida y es de hecho, un miembro de una
familia de distribuciones denominada t de Student.

La distribución de t de Studet
Dada una muestra de n observaciones con media
y desviación tipi9ca Sx, procedente de una población normal con media
µ, la variable aleatoria
T

Sx

Sigue una distribución de t de student con (n-1) grados de libertad. Un


miembro determinado de la familia de distribuciones t de student se
caracteriza por el número de grados de libertad para el cual emplearemos el
parámetro v. Una variable aleatoria t de Student con v grados de libertad la
denominaremos por tv. La forma de la distribución t de Student es bastante
similar a la de la normal estándar. Ambas distribuciones tienen media 0 y las
funciones de densidad son simétricas alrededor de la media. Sin embargo, la
función de densidad de la t de Student tiene una dispersión mayor (que se
refleja en una mayor varianza) que la normal estándar. ... La dispersión
mayor de la t de Student surge como resultado de la incertidumbre adicional
provocada por el hecho de sustituir la desviación típica poblacional conocida
por un estimador muestral. A medida que el número de grados de libertad
aumenta, la t de student toma una forma cada vez más similar a la de la
normal estándar. Cuando el número de grados de libertad es elevado ambas
distribuciones son virtualmente idénticas. Esto resulta razonable
intuitivamente y se deduce del hecho de que para una muestra grande, la
desviación típica muestral es un estimador muy preciso de la desviación
típica muestral es un estimador muy preciso de la desviación típica
poblacional”. (Newbold, Carlson, & Thorne, 2008)

- “Existe un número de propiedades importantes de las distribuciones t que


vale la pena observar. En primer lugar una distribución t tiene una variación
de -∞ a ∞ exactamente como una distribución normal. En segundo lugar al
igual que la distribución normal típica, una distribución t es simétrica con una
media, una moda y una mediana igual a cero, excepto que t1 (la distribución t
con 1 gl) no tiene media. En tercer lugar la varianza de tρ, con ρ>2, es
ρ/(ρ-2); cuando ρ<=2, tρ no posee varianza. En cuarto lugar una distribución t
tiene una dispersión mayor que la distribución normal estandarizada. Sin
embargo cuando ρ se vuelve grande, tρ se aproxima a la distribución normal
estandarizada como límite”. (Chou, 1972)

Errores tipo 1 y tipo 2


- “El rechazo de una hipótesis nula cuando es cierta se denomina error de tipo
1, y su probabilidad (que como hemos visto es también el nivel de
significancia de la prueba) se simboliza como α (alfa). De manera alternativa,
al hecho de aceptar una hipótesis nula, cuando es falsase le denomina error de
tipo 2, y su probabilidad se simboliza como β (beta). Existe un equilibrio
entre estos dos tipos de errores: la probabilidad de cometer un tipo de error
puede reducirse solo si deseamos incrementar la probabilidad de cometer el
otro tipo de error…puesto de otra manera, con el fin de obtener una β baja
tendremos que tolerar una α alta”. (Levin & Rubin, 2004 )

- “Hay dos posibles estados de la naturaleza: la hipótesis nula es cierta o


falsa. Un error que se puede cometer, llamado error tipo 1, es rechazar una
hipótesis nula cierta. Si la regla de decisión es tal que la probabilidad de
rechazar la hipótesis nula cuando es cierta es α, entonces α se llama nivel de
significación del contraste. Puesto que la hipótesis nula tiene que ser aceptada
o rechazada la probabilidad de aceptar la hipótesis nula cuando es cierta es
(1- α). El otro error posible llamado error de tipo II, ocurre cuando se acepta
una hipótesis nula falsa. Supongamos que para una determinada regla de
decisión particular, la probabilidad de cometer este error, cuando la hipótesis
nula es falsa se denota por β. Entonces la probabilidad de rechazar una
hipótesis nula falsa es (1- β) y se denomina potencia del contraste”.
(Newbold, Carlson, & Thorne, 2008)

- “Cuando tomamos decisiones referentes a un todo (población) con base en


la evidencia que presenta un parte de este todo (muestra) nos exponemos a
equivocarnos (cometer error) respecto a la situación verdadera de este todo.
El error puede ser causado porque “rechazamos Ho al ser Ho verdadera” –
error tipo I- o porque “aceptamos Ho al ser Ho falsa” –error tipo II-. De los
errores a que estamos expuestos a cometer, el error tipo I se considera el más
grave. La probabilidad de cometerlo se llama nivel de significancia. Los
niveles de significancia se toman de valores pequeños”. (Chao, 1993)

Función de distribución continua


- “Sea X una variable aleatoria y x un valor especifico que esta puede tomar.
En este contexto llamaremos función de distribución acumulada a la
probabilidad de que X sea menor que X.
La función de distribución acumulada Fx(X) de una variable aleatoria
continua X expresa la probabilidad de que X sea menor o igual que x, como
función de x, es decir,”

Fx(X)=P(X<=x) (Newbold, Carlson, & Thorne, 2008)

- “La idea de una función de distribución acumulativa en el caso continuo es


útil. Se define exactamente como en el caso discreto si bien se calcula con la
integración, no con la suma.

Sea X una variable aleatoria continua con densidad f. la función de


distribución acumulativa de X, denotada con F, está definida por:

F(x)=P(X<=x) x real.
El cálculo de F(x) para un número real específico x precisa integrar la
densidad para todos los numero reales que sean menores o iguales que x.
Calculo de F en el caso continuo

P(X<=x)= F(x)=
para todo número real x.

Desde el punto de vista grafico esta probabilidad corresponde al área bajo la


gráfica de la densidad a la izquierda del punto x, al cual incluye”. (Milton &
Arnold, 2004)

Función de distribución discreta


- “Supongamos que X es una variable aleatoria discreta y que x es uno de sus
posibles alores. La probabilidad de que la variable aleatoria X tome el valor x
se representa P(X=x). la distribución de probabilidad de una variable
aleatoria es una representación de las probabilidades de todos los resultados
posibles. Esta representación puede ser algebraica, grafica o tabular. Para las
variables aleatorias discretas, un procedimiento sencillo consiste en
confeccionar una lista con la probabilidad de cada uno de los posibles
resultados. La función de probabilidad Px(X) de una variable aleatoria
discreta X representa la probabilidad de que X tome el valor de x, como
función de x. es decir, Px(X)=P(X=x)
Donde la función se eleva en todos los posibles valores de x”. (Newbold,
Carlson, & Thorne, 2008)

- “La segunda función usada para calcular probabilidades es la función de


distribución acumulativa, F. El adjetivo “acumulativa” indica el uso de esta
función. Suma o acumula las probabilidades calculadas por medio de la
densidad. Esta función se define como sigue:

Sea X una variable aleatoria discreta con densidad f. la función de


distribución acumulativa de X, denotada con F, se define con la formula
siguiente: F(x)= P(X<=x) para todo número real x.
Considérese un numero especifico x. A fin de calcular P(X<=x= F(x) se suma
la densidad f de todos los valores de X que ocurren con probabilidad distinta
de cero y son menores o iguales que x. El cálculo se hace con la formula
siguiente”: F(x)=Σf(x)
(Milton & Arnold, 2004)

- “La distribución de probabilidad para una variable aleatoria discreta es una


formula, una gráfica o una tabla, que proporciona la probabilidad asociada a
cada valor de la variable aleatoria. Como se asigna uno y un solo valor de x a
cada evento simple, los valores de x representan eventos numéricos
mutuamente excluyentes. Al sumar p(x) para todos los valores de x, se
obtiene la suma de las probabilidades de todos los eventos simples y, por lo
tanto, es igual a 1. Es posible entonces señalar dos requisitos para una
distribución de probabilidad”:

0<=p(x)<=1
Σp(x)=1
(Mendenhall, 1990)

Función de densidad
- “La afirmación de que la probabilidad de que una variable aleatoria
continua asuma cualquier valor especifico sea 0 es indispensable en la
definición. Las variables discretas no tienen esa restricción. Por ello en el
caso continuo se calculan las probabilidades de manera distinta que en el caso
discreto. En este último se define la función f llamada densidad, que
posibilita el cálculo de las probabilidades relacionadas con la variable
aleatoria X. Esta función se da por: f(x)= P(X=x) donde x es un número real.
La definición precedente no puede usarse en el caso continuo ya que P(X=x)
siempre es cero. Sin embargo se necesita una función que permita calcular la
probabilidad de una variable aleatoria continua. Esa función también se llama
densidad.
Sea X una variable aleatoria continua. Una función f tal que

1. F(x)>=0para todo x real.

2.

3.
en donde a y b son número reales.

Se llama densidad de x”
(Milton & Arnold, 2004)

- “El modelo probabilístico para la distribución de frecuencias de una


variable aleatoria continua implica la selección de una curva generalmente
regular o alisada a la que se llama distribución de probabilidad o función d
densidad de probabilidad de una variable aleatoria. Si la ecuación de esta
distribución de probabilidad continua es f(x) entonces la probabilidad de que
x este en el intervalo a<x<b es el área bajo la curva de distribución para f(x)
entre los 2 puntos a y b. Esto concuerda con la interpretación de un
histograma de frecuencias relativas donde las áreas sobre un intervalo, bajo el
histograma, correspondieron a la proporción de observaciones que caen en
dicho intervalo. Ya que el número de valores que puede tomar x es
infinitamente grande y no se puede contar, la probabilidad de que x sea igual
a un valor especifico por ejemplo a, es cero. Entonces las afirmaciones
probabilísticas acerca de las variables aleatorias continuas siempre
corresponden a áreas bajo la distribución de probabilidad sobre un intervalo
por ejemplo, de a a b- y se expresa como P(a<x<b). Nótese que la
probabilidad en a<x<b es igual a la probabilidad de que a<x<=b, pues
P(x=a)=P(x=b)=0.

Hay muchas distribuciones de probabilidad continuas y cada una se


representa mediante una ecuación f(x), que se escoge de manera que el área
total bajo la curva de distribución de probabilidad sea igual a 1.
Una vez que conocemos la ecuación f(x) de una distribución de probabilidad
particular, se pueden encontrar probabilidades específicas, por ejemplo la
probabilidad de que x este en el intervalo a<x<b, de dos maneras. Podemos
graficar la ecuación y utilizar métodos numéricos para aproximar el área
sobre el intervalo a<x<b. este cálculo puede realizarse utilizando métodos
muy aproximados o una computadora para obtener cualquier grado de
precisión. O bien, si f(x) tiene una forma particular podemos usar el cálculo
integral para

encontrar
. Afortunadamente, no hay que
utilizar en

la práctica, ninguno de estos métodos, porque se han calculado y tabulado las


áreas bajo la mayoría de las distribuciones de probabilidad continuas mas
empleadas”.
(Mendenhall, 1990)

Histograma

- “Una descripción informativa de cualquier conjunto de datos está dada por


la frecuencia de repetición u arreglo distribucional de las observaciones en el
conjunto. Para identificar los patrones en un conjunto de datos es necesario
agrupar las observaciones en un número relativamente pequeño de de clases
que no se superpongan entre si, de tal manera que no exista ninguna
ambigüedad con respecto a la clase a que pertenece una observación en
particular. El número de observaciones en una clase recibe el nombre de
frecuencia de clase, mientras que el cociente de una frecuencia de clase con
respecto al número al número combinado de observaciones en todas las
clases se conoce como la frecuencia relativa de esa clase. Al graficar las
frecuencias relativas de las clases contra sus respectivos intervalos en forma
de rectángulos, se produce lo que comúnmente se conoce como Histograma
de frecuencia relativa”. (Canavos, 1987 )

- “Los subintervalos en los que se dividen el conjunto de datos, reciben el


nombre de clases, y el número de observaciones en cada clase se llama
frecuencia. Para cada clase particular, la frecuencia acumulada s el número
total de observaciones que hay en esa clase y las anteriores. La información
tabulada de esta forma puede ser representada gráficamente usando un
diagrama llamado histograma. Los límites de cada clase aparecen señalados
en el eje horizontal. Encima de cada clase aparece dibujado un rectángulo
cuya área es proporcional a la frecuencia de esa clase. El histograma nos
permite hacernos una idea visual rápida y adecuada de la proporción de
observaciones que se encuentran dentro de un determinado intervalo”.
(Newbold, Carlson, & Thorne, 2008)
- “Un histograma consiste en una serie de rectángulos cuyo ancho es
proporcional al alcance de los datos que se encuentran dentro de una clase, y
cuya altura es proporcional al número de elementos que caen dentro de la
clase. Si las clases que utilizamos en la distribución de frecuencia son del
mismo ancho, entonces las barras verticales del histograma también tienen el
mismo ancho. La altura de la barra correspondiente a cada clase representa el
número de observaciones de la clase. Como consecuencia de lo anterior, el
área contenida en cada rectángulo (ancho por altura) ocupa un porcentaje del
área total de todos los rectángulos igual al porcentaje de la frecuencia de la
clase correspondiente con respecto a todas las observaciones hechas. Un
histograma que utiliza las frecuencias relativas de los puntos de dato de cada
una de las clases, en lugar de usar el número real de puntos se conoce como
histograma de frecuencias relativas. Este tipo de histograma tiene la misma
forma que un histograma de frecuencias absolutas, construido a partir del
mismo conjunto de datos. Esto es así, debido a que e n ambos, el tamaño
relativo de cada rectángulo es la frecuencia de esa clase comparada con el
número total de observaciones”. (Levin & Rubin, 2004 )

Intervalos de confianza
- “Es el intervalo dentro del cual puede estar el parámetro desconocido. Este
suele ir acompañado de una afirmación sobre el nivel de confianza que se
puede asignar a su precisión. El coeficiente de confianza es el nivel de
confianza que tenemos en que el intervalo contiene el valor desconocido del
parámetro. Son 3 los niveles que por lo común se asocian a los intervalos de
confianza: 99, 95 y 90%. Un intervalo de confianza tiene un límite inferior de
confianza (LCL) y un límite superior de confianza (UCL). Para hallar estos
dos límites se calcula la media muestral. Después se le suma una cantidad
para hallar el UCL y se le resta la misma cantidad para hallar el LCL. Se
interpreta como la probabilidad de construir un intervalo que comprenda la
media, no a la probabilidad que la media este en él”. (Webster, 2000)

- “Un estimador por intervalos de un parámetro poblacional es una regla


(basada en información muestral) para determinar un rango, o un intervalo.
En el cual posiblemente se encuentre dicho parámetro. La estimación
correspondiente se denomina estimación por intervalos.

Hasta ahora hemos dicho que los estimadores por intervalos contienen
“posiblemente” o “muy posiblemente” el verdadero, aunque desconocido,
parámetro poblacional. Para formalizar estas expresarlas en términos
probabilísticos. Sea afirmaciones, es necesario

Ø el parámetro a estimar. Supongamos que hemos extraído una muestra


aleatoria, y que basándonos en la información muestral es posible encontrar
dos variables aleatorias, A y B, con A menor que B. Si estas variables
aleatorias tienen la propiedad de que la probabilidad de A sea menor que Ø y
que B sea mayor que Ø es 0.9, podemos decir que

• P(A< Ø<B)=0.9
El intervalo de A a B es un estimado por intervalos de Ø al 90% de
confianza. Si denominamos las realizaciones particulares de estas dos
variables aleatorias por a y b, entonces el intervalo de a y b se denomina
intervalo de confianza del 90% para Ø. De acuerdo con el concepto de
frecuencia de probabilidad, podemos interpretar estos intervalos así: si se
extraen repetidamente muestras de la población y se calculan los intervalos
de esta manera, entonces el 90% de los intervalos contendrá el parámetro
desconocido.
De manera más general podemos definir intervalos de confianza del
porcentaje que nosotros queramos, siempre menor, por supuesto, del 100%”.
(Newbold, Carlson, & Thorne, 2008)
- “En estadística, la probabilidad que asociamos con una estimación de
intervalo

se conoce como el nivel de confianza. Esta probabilidad, entonces, indica que


tanta confianza tenemos de que la estimación parámetro de la población. Una
probabilidad del intervalos incluya al indica más confianza. En

estimación los niveles de confianza que se utilizan con más frecuencia son
90, 95 y 99%, pero somos libres de aplicar cualquier nivel de confianza. El
intervalo de confianza es el alcance d la estimación que estamos haciendo. Si
informamos que tenemos 90% de confianza de que la media de la población
de ingresos de las personas que viven en una cierta comunidad está entre
$8,000 y $24,000, entonces el intervalo $8,000-$24,000 será nuestro
intervalo de confianza. A menudo sin embargo, expresamos el intervalo de
confianza en términos de errores estándar, más que con valores numéricos.
Así pues con
frecuencia expresaremos los intervalos de confianza se esta forma: ±1.64
en la que:
+1.64
=límite superior del intervalo de confianza

-1.64
=límite inferior del intervalo de confianza
Por consiguiente tenemos que los límites de confianza son los límites
superior e inferior del intervalo de confianza”. (Levin & Rubin, 2004 )

Media aritmética
- “Es el promedio o medición de tendencia central de uso más común. Se
calcula sumando todas las observaciones de una serie de datos y luego
dividiendo el total entre el número de elementos involucrados. Por lo tanto
para una muestra que contiene una serie de n observaciones x1, x2,…, xn, la
media aritmética puede escribirse como:”

(Berenson & Levine, 1996)

- “La media de las observaciones X1, X2, …, Xn es el promedio aritmético


de estas y se denota por
-

La media es una medida apropiada de tendencia central para muchos


conjuntos de datos. Sin embargo, dado que cualquier observación se en
conjunto se emplea para su cálculo, el valor de la media puede afectarse de
manera desproporcionada por la existencia de algunos valores extremos”.
(Canavos, 1987 )
- “La media aritmética de un conjunto de n observaciones Y1, Y1, …, Yn es
igual a la suma de las observaciones dividida entre n”. (Mendenhall, 1990)

- “La media aritmética es solamente el nombre técnico dado al promedio para


distinguirlo de otras medidas que también se podrían denominar promedio.
Cuando usamos los datos originales o brutos, la media de la población se
define como la sumatoria de todas las observaciones divididas por el número
de observaciones”. (Mills, 1980)

- “La media de un conjunto de observaciones numéricas es la suma de los


valores del conjunto, dividida por el número de observaciones, es decir, su
promedio”. (Newbold, Carlson, & Thorne, 2008)

Muestra
- “La muestra es un subconjunto representativo seleccionado de una
población. Una buena muestra es aquella que refleja las características
esenciales de la población de la cual se obtuvo. En estadística, el objetivo de
las técnicas de muestreo es asegurar que cada observación de la población
tiene una oportunidad igual e independiente de ser incluida en la muestra”.
(Canavos, 1987 )

- “Es una colección de mediaciones seleccionadas de la población de interés”.


(Mendenhall, 1990)

- “Porción representativa de la población que se selecciona para su estudio


porque la población es demasiado grande para analizarla en su totalidad. Es la
porción de la población que se selecciona para análisis”. (Webster, 2000)

Percentiles
- “Es una forma de medir la dispersión de un conjunto de datos. Los
percentiles dividen un conjunto de datos en 100 partes iguales. El primer
percentil es el valor por debajo del cual se localizan no más del 1% de las
observaciones y el resto por encima. Un percentil y su localización en una
serie ordenada se indican por medio de subíndices. Por ejemplo, el percentil
15º se indica como P15 y su localización en l serie ordenada es L15”.
(Webster, 2000)

- “Hay algunas medidas útiles de posición “no central” que suelen utilizarse
al resumir o descubrir propiedades de grandes conjuntos de datos
cuantitativos. A estas medidas se les denomina cuantiles. Algunos de los
cuantiles más utilizados son los deciles (que dividen los datos ordenados en
decimos) y los percentiles (que los dividen en centésimos)”. (Berenson &
Levine, 1996)

- “Son fractiles que dividen los datos en 100 partes iguales”. (Levin & Rubin,
2004 )
Población
- “La población es la totalidad de elementos o cosas que se consideran”.
(Berenson & Levine, 1996)
- “Es la colección completa de todas las observaciones de interés para el
investigador”. (Webster, 2000)

- “La población es la colección de toda la posible información que caracteriza


un fenómeno. Es cualquier colección ya sea de un número finito de
mediciones o una colección grande virtualmente infinita, de datos acerca de
algo de interés”. (Canavos, 1987 )

- “Es el conjunto de todas las mediciones de interés al muestrista”.


(Mendenhall, 1990)

Prueba de bondad de ajuste Anderson-Darling


- “This method is similar to the Kolmogorov –Smirnov approach except that
it weights the differences between the two distributions at their tails grater
than at their midranges. This approach is useful when you need a better fit at
the extreme tails of the distribution. A computed value of less than 1,5
generally indicates a good fit”. (Evans & Olson, 2002)

Prueba de bondad de ajuste JI-cuadrada


- “…utilizando la prueba ji-cuadrada para determinar si la proporción de
éxitos era o no igual en cada uno de los diversos grupos, así como para
probar si había alguna asociación entre 2 variables cualitativas. En cada una
de estas aplicaciones de la prueba ji-cuadrada con la ecuación se tuvo, para
un numero particular de grados de libertad,

-
Este estadístico de la prueba midió la diferencia al cuadrado entre las
frecuencias teóricas (fe) y la observada (f0) en una celda dividida entre la
frecuencia teórica en cada celda. La frecuencia teórica en la celda se basó en
una hipótesis nula de, ya sea, no hay diferencia en la proporción de éxitos en
todos los grupos o no hay asociación entre las variables.

Otra importante aplicación de la prueba ji cuadrada es la de probar la bondad


de ajuste de un grupo de datos en una distribución especifica probabilidad. Al
probar la bondad de ajuste de un grupo de datos, se comparan las frecuencias
reales en cada categoría (o intervalo de clase) con las frecuencias que,
teóricamente se esperarían si los datos siguiera una distribución especifica de
probabilidad. Al efectuar la prueba ji cuadrada para la bondad del ajuste se
requieren varios pasos. Primero, hay que establecer la hipótesis de la
distribución de probabilidad que se va a ajustar a los datos. Segundo, una vez
determinada la distribución de probabilidad hipotética, los valores de cada
parámetro de la distribución (tal como la media) se deben poner como
hipótesis o estimar con los datos reales. A continuación se utiliza la
distribución de probabilidad hipotética específica para determinar la
probabilidad, y luego, la frecuencia teórica para cada categoría o intervalo de
clase. Para terminar se puede emplear el estadístico de la prueba ji cuadrada
para probar so la distribución especifica tiene o no un buen ajuste con los
datos”. (Berenson & Levine, 1996)

- “Utilizamos la prueba ji cuadrada para decidir si aceptamos o no una


hipótesis nula que era una hipótesis de independencia entre dos variable. La
prueba ji cuadrada puede utilizarse también para decidir si una distribución
de probabilidad en particular, como la binomial, la de Poisson o la normal, es
la distribución apropiada. Esta es una habilidad importante, porque como
tomadores de decisiones que utilizamos la estadística, necesitaremos escoger
una cierta distribución de probabilidad para representar la distribución de los
datos que tengamos que trabajar. Necesitaremos la habilidad de cuestionar
que tan lejos podemos avanzar a partir de las suposiciones que subyacen en
una distribución particular antes de que debamos concluir que tal distribución
ya no se puede aplicar. La prueba ji cuadrada nos permite hacernos esta
pregunta y probar si existe una diferencia significativa entre una distribución
de frecuencias observada y una distribución de frecuencias teórica. De esta
manera podemos determinar la bondad de ajuste de una distribución teórica
(es decir, que tan bien se ajusta a la distribución de datos que observaos en
realidad). Así pues, podemos determinar si debemos creer que los datos
observados constituyen una muestra obtenida de la distribución teórica
hipotetizada”. (Levin & Rubin, 2004 )
- “Es un procedimiento con el cual pretendemos determinar si los datos
observados provienen de una distribución método consiste en comparar la
frecuencia teóricamente considerada. El

observada con la frecuencia esperada según el modelo teórico considerado. Si


la diferencia entre las frecuencias observadas y esperadas es tan apreciable
que difícilmente pueda deberse al azar solamente se concluye que la muestra
no se ha tomado de la población que ha dado lugar a las frecuencias
esperadas”. (Chao, 1993)

Prueba de bondad de ajuste Kolmogorov-Smirnov.


- “Se trata de un método no paramétrico sencillo para probar si existe una
diferencia significativa entre una distribución de frecuencia observada y otra
de frecuencia teórica. La prueba K-S es por consiguiente otra medida de la
bondad de ajuste de una distribución de frecuencia teórica como lo es la
prueba jicuadrada. Sin embargo la prueba K-S tiene varias ventajas sobre la
prueba jicuadrada: es una prueba más poderosa y es más fácil de utilizar,
puesto que no requiere que los datos se agrupen de alguna manera.
La estadística K-S, Dn, es particularmente útil para juzgar que tan cerca está
la distribución de frecuencia observada de la distribución de frecuencia
esperada, porque la distribución de probabilidad de Dn depende del tamaño
de muestra n, pero es independiente de la distribución de frecuencia esperada
(Dn es una estadística de “distribución libre”)”.
(Levin & Rubin, 2004 )

- “The X² test requires a fair amount of data to have a reasonable number of


cells, each with at least five observations. For small samples, the
kolmogorovSmirnov test provides a more suitable test for goodness of fit.
Furthermore, the X² test often requires using the data itself to estimate
distribution parameters. The Kolmogorov-Smirnov test is not limited by these
factors.
The underlying idea of the Kolmogorov -Smirnov test is to sort the data in
ascending order and find the gratest difference between the theoretical value
for each ranked observation and that observation´s theoretical counterpart”.
(Evans & Olson, 2002)

Rango
- “El rango es la diferencia entre las observaciones mayor y la menor de un
conjunto de datos”.
Rango= Xmayor - Xmenor
(Berenson & Levine, 1996)

- “Para datos brutos o sin agrupación, el rango se define como la diferencia


entre el valor más alto y el más bajo en un conjunto de datos. Con datos
agrupados no se saben los valores máximos y mínimos. Si no hay intervalos
de clase abiertos podemos aproximar el rango mediante el uso de los límites
de clase. Se aproxima el rango tomando el límite superior del intervalo de
clase menos el límite inferior”. (Mills, 1980)

- “El rango o recorrido de un conjunto de datos es la diferencia entre la mayor


y la menor de sus observaciones”. (Newbold, Carlson, & Thorne, 2008)

Sesgo muestral
- “Ocurre cuando en el proceso de muestreo hay una tendencia a seleccionar
determinado elementos de la muestra en lugar de otros. Si el diseño del
procedimiento no es correcto y tiende a promover la selección de demasiadas
unidades con una característica particular a expensas de otras que no tengan
esa característica, se dice que la muestra es sesgada”. (Webster, 2000)

- “Las curvas A y B son curvas sesgadas. están sesgadas porque los valores
de su distribución de frecuencia están concentradas en el extremo inferior o
en el superior de la escala de medición del eje horizontal. Los valores no
están igualmente distribuidos. la curva A esta sesgada hacia la derecha (o
positivamente sesgada) debido a que va disminuyendo poco a poco hacia el
extremo izquierdo de la escala. La curva B es exactamente lo opuesto. Esta
sesgada hacia la izquierda (negativamente sesgada) ya que disminuye poco a
poco si la recorremos hacia el extremo inferior de la escala.
CURVA A

CURVA B

La curva A podría representar la distribución de frecuencias del número de


días que un producto se encuentra en existencia en un negocio de venta de
frutas al mayoreo. La curva estaría sesgada hacia la derecha con muchos
valores en el extremo inferior y pocos en el extremo derecho, debido a que el
inventario debe agotarse rápidamente. De manera análoga la curva B podría
representar la frecuencia del número de días que requiere un agente de bienes
raíces para vender una casa. Estaría sesgado hacia la izquierda, con muchos
valores en el extremo superior de la escala y pocos en el inferior, debido a
que el inventario de casas se coloca muy lentamente”. (Levin & Rubin, 2004
)
- “La distribución de los datos es o no simétrica. Si la distribución de los
datos no

es simétrica se llama asimétrica o sesgada. Por tanto el sesgamiento se aplica


a la falta de simetría en la distribución de los datos. Aunque se han
desarrollado varias medidas para la forma, es suficiente (para fines
descriptivos) comentar la importante propiedad de los datos en términos de
simetría o carencia de ella., sin emplear ninguna medida particular. Para
describir la propiedad de la forma solo se necesita comparar la media y la
mediana. Si estas dos medidas son iguales se puede considerar que los datos
son simétricos (o con sesgamiento cero). Por otra parte, si la media excede de
la mediana, se pueden describir los datos como positivos o con sesgamiento a
la derecha, mientras que si la mediana excede de la media, los datos se
pueden llamar negativo o con sesgamiento a la izquierda.
El sesgamiento positivo ocurre cuando se aumenta la media con valores
inusitadamente altos, mientras que el sesgamiento negativo surge cuando se
disminuye la media con valores en extremo bajos”. (Berenson & Levine,
1996)

Simulación
- “Sería conveniente describir algunas de las definiciones más aceptadas y
difundidas de la palabra simulación. Thomas H. Naylor la define así:

Simulación es una técnica numérica para conducir experimentos en una


computadora digital. Estos experimentos comprenden ciertos tipos de
relaciones matemáticas y lógicas las cuales son necesarias para describir el
comportamiento y la estructura de sistemas complejos del mundo real a
través de largos periodos de tiempo.

La definición anterior está en un estado muy amplio, pues puede incluir desde
una maqueta, hasta un sofisticado programa de computadora. En sentido más
estricto, H. Maisel y G. Gnugnoli, definen simulación como;

Simulación es una técnica numérica para realizar experimentos en una


computadora digital. Estos experimentos involucran ciertos tipos de modelos
matemáticos y lógicos, que describen el comportamiento de sistemas de
negocios, económicos, sociales, biológicos, físicos o químicos a través de
largos periodos de tiempo.

Otros estudiosos del tema como Robert E. Shannon. Definen simulación


como:

Simulación es el proceso de diseñar y desarrollar un modelo computarizado


de un sistema o proceso y concluir experimentos con este modelo con el
propósito de entender el comportamiento del sistema o evaluar varias
estrategias con las cuales se puede operar el sistema”.

(Coss Bu, 1994)


- “La simulación de un sistema antes de su construcción suele requerirse en el
diseño de sistemas operativos de diversos tipos. Dicha simulación se logra
usualmente con la ayuda de una computadora. Sin embargo, la idea
subyacente a ella puede ilustrarse con una tabla de dígitos aleatorios”.
(Milton & Arnold, 2004)

- “Simulation is the process of building a mathematical or logical model of a


system or a decision problem, and experimenting with the problem to obtain
insight into the system`s behavior or to assist in solving the decision problem.
The two key elements of this definition are model and experiment. The
principal advantage of simulation lies in its ability to model any appropriate
assumptions about a problem or system, making it the most flexible
management science tool available”. (Evans & Olson, 2002)

Simulación Montecarlo
- “Monte Carlo simulation is basically a sampling experiment whose purpose
is to estimate the distribution of an outcome variable that depends on several
probabilistic input variables. The term Monte Carlo Simulation was fir used
during the development of the atom bomb as a code name for computer
simulations of nuclear fission. Researchers coined this term because of the
similarity to random sampling in games of chance such as roulette in the
famous casinos of Monte Carlo. Monte Carlo simulation is often used to
evaluate the expected impact of policy changes and risk involved in decision
making”. (Evans & Olson, 2002)

Valor esperado
- “El valor esperado, E(X), de una variable aleatoria X se define como

Donde la notación indica que la suma es sobre todos los posibles valores de
x. el valor esperado de una variable aleatoria se conoce como su media y se
representa µx”. (Newbold, Carlson, & Thorne, 2008)
- “Es el promedio pesado del valor de cada resultado posible multiplicado por
la probabilidad de dicho resultado. Aunque existen muchos valores diferentes
posibles que la variable aleatoria puede tomar, el valor esperado es un solo
número”. (Levin & Rubin, 2004 )

- “Se puede considerar como su promedio ponderado sobre todos los


resultados posibles, siendo las ponderaciones la probabilidad relacionada con
cada uno de los resultados.

Esta medida de resumen se puede obtener multiplicando cada resultado


posible X por su probabilidad correspondiente P(X), y después sumando los
productos resultantes. Por lo tanto el valor esperado de la variable aleatoria
discreta X, representada como E(X) se puede expresar de la forma siguiente.

Donde
X= variable aleatoria discreta de interés Xi= resultado i de X
P(Xi)= Probabilidad de ocurrencia del evento i de X i= 1, 2, …, N”

(Berenson & Levine, 1996)

Valor P o valor de significancia


- “El valor p es la probabilidad de obtener una prueba estadística igual o más
rigurosa que el resultado observado, dando por sentado que Ho es cierta. Con
frecuencia al valor p se le denomina nivel observado de significación, el nivel
más pequeño en el cual se puede rechazar Ho para un determinado grupo de
datos. Si el valor p es mayor o igual que α, la hipótesis nula no se rechaza; si
el valor p es menor que α, se rechaza la hipótesis nula”. (Berenson & Levine,
1996)

- “El nivel de significancia de una prueba corresponde a la probabilidad de


cometer el error tipo I. Es decir, es la probabilidad de rechazar Ho, siendo Ho
verdadera. Esta probabilidad se denota con la letra α y corresponde al área de
rechazo; de tal forma que se igualara al total del área derecha o del área
izquierda si se tratara de pruebas de una cola o se repartirá en partes iguales
entre las dos colas, si se trata de una prueba bilateral.

El termino significancia se debe a que la diferencia entre el valor hipotético y


el resultado muestral es de una magnitud que se puede considerar de una
significancia tal como para no pensar que su valor observado es debido al
azar. Por otra parte cuando el valor de la estadística de prueba cae en la
región de rechazo la prueba se dice significativa. Los niveles de significancia,
como es de esperarse, se toman de magnitud pequeña y son los más usuales:
0.1, 0.5, 2.5, 5, 10%. Dentro de la metodología moderna de la estadística una
vez determinado el valor de la estadística de prueba se calcula el área
superior p (inferior); luego esta área se compara con la dada por el nivel de
significancia; si es menor, se rechaza la hipótesis nula; si no lo es, no se
rechaza. Pero el asunto va mucho más allá, puesto que hay una tendencia a no
fijar de antemano el nivel de significancia α, sino a determinar el valor p y
luego tomar ese valor como referencia para decir hasta donde el valor de la
estadística de prueba hace significativa la prueba y surge así el concepto del
valor p. Un valor p es el nivel más bajo (de significancia) en el cual el valor
observado de la estadística de prueba es significativo”. (Chao, 1993)

Variable aleatoria
- “Sea S un espacio muestral sobre el que se encuentra definida una función
de probabilidad. Sea X una función de valor real definida sobre S, de manera
que transforme los resultados de S en puntos sobre la recta de los reales. Se
dice entonces que X es una variable aleatoria. Se dice que X es aleatoria
porque involucra la probabilidad de los resultados del espacio muestral, y X
es una función definida sobre el espacio muestral de manera que transforma
todos los posibles resultados del espacio muestral en cantidades numéricas”.
(Canavos, 1987 )

- “Una variable Y es una variable aleatoria si los valores que toma


corresponden a los distintos resultados posibles de un experimento, y por ello
el hecho de que tome un valor particular es un evento aleatorio”.
(Mendenhall, 1990)

- “Una variable aleatoria es una variable que toma valores numéricos


determinados por el resultado de un experimento aleatoria”. (Newbold,
Carlson, & Thorne, 2008)
Varianza
- “Es la media aritmética de las desviaciones respecto de la media aritmética
elevadas al cuadrado. Para esto hay que hallar: 1) la cantidad en que cada
observación se desvía de la media aritmética, 2) elevar al cuadrado esas
desviaciones y 3) hallar la media aritmética de estas desviaciones elevadas al
cuadrado. La varianza de una población es:

Donde
X1, X2, X3,…, Xn son las observaciones individuales
Es la media aritmética de la población n es el número de observaciones”.
(Webster, 2000)

- “La varianza de las observaciones X1, X2, …, Xn, es, en esencia, el


promedio del cuadrado de las distancias entre cada observación y la media
del conjunto de observaciones. La varianza se denota por

La varianza es una medida razonablemente buena de la variabilidad debido a


que si muchas de las diferencias son grandes (o pequeñas) entonces el valor
de la varianza será grande (o pequeño). El valor de la varianza puede sufrir
un cambio muy desproporcionado, aún más que la media, por la existencia de
algunos valores extremos en el conjunto”. (Canavos, 1987 )

- “La varianza de una muestra de n observaciones Y1, Y2,…, Yn se define


como la suma de los cuadrados de las desviaciones de las observaciones
respecto a su media, dividida esta suma entre (n-1)”. (Mendenhall, 1990)

CAPITULO 11
CONCEPTOS DE PROYECTOS

Los términos que se presentan a continuación han sido seleccionados con el


objetivo de resolver las dudas que el lector pueda tener alrededor de
conceptos de proyectos importantes manejados en el texto y requeridos para
la evaluación financiera de proyectos con análisis de riesgo. Se presentan en
orden alfabético para facilitar su búsqueda. Para cada uno de los términos se
presentan una o varias definiciones seleccionadas y debidamente
referenciadas de diferentes textos y autores reconocidos en el tema,
consideradas completas y sencillas según el criterio de los autores.

Amortizaciones
- “Pago o extinción de una deuda, generalmente a largo plazo, como en el
caso de deudas públicas o hipotecarias, que se amortiza mediante pagos
periódicos a cuenta de la deuda contraída”. (Brand, 1999)

- “El término “amortización” se utiliza para describir una eliminación


sistemática o gastos del costo de un activo intangible durante su vida útil. El
asiento contable usual para la amortización consiste de un debito a Gasto de
amortización y un crédito a la cuenta de Activos intangibles. No existe
objeción teórica para acreditar una cuenta de amortización acumulada, en
lugar de una cuenta de activos intangibles, pero este método se encuentra rara
vez en la práctica.

Aunque es difícil estimar la vida útil de un intangible tal como una marca
registrada, es bastante probable que tal activo no contribuya a las utilidades
futuras de manera permanente. Por consiguiente, el costo del activo
intangible debe ser deducido del ingreso durante los años en los cuales se
puede esperar que éste ayude a producir ingresos. Bajo las reglas corrientes
del Financial Accounting Standards Board –FASB-, el periodo máximo para
la amortización de un activo intangible no puede exceder 40 años.
Normalmente se utiliza el método en línea recta para amortizar activos
intangibles”. (Meigs, Meigs, Battner, & Whittington, 1998)

- “Termino contable que viene a significar la pérdida del valor de un activo


financiero, mediante un pago o anulación, como consecuencia del uso, del
transcurso del tiempo, de los adelantos de la técnica o del cumplimiento del
fin para el que estaba destinado”. (Estupiñán Gaitan & Estupiñán Gaitan,
2006)

Análisis de escenarios
- “Constituye la técnica más sencilla y de uso más común en el análisis de
riesgos. Los miembros del equipo valoran la importancia de cada evento de
riesgo en términos de lo siguiente:

✓ Probabilidad del evento


✓ Impacto del evento
En pocas palabras, es necesario evaluar los riesgos en términos de la
probabilidad de que éste se presente y en su impacto o consecuencia. Proceso
en el que se identifica y se analizan los acontecimientos de riesgo potencial”.
(Gary & Larson, 2009)

- “Mecanismo para evaluar la consecución de posibles resultados de un


proyecto si se tiene en cuenta tres escenarios probables: optimista, pesimista
y más probable o esperado”. (Toro López, 2009)

- “Análisis de los proyectos según diversas combinaciones de supuestos”.


(Brealey, C., & Marcus, 2007)

Análisis de sensibilidad
- “Tiene como objetivo medir los efectos en el criterio de decisión (valor
presente neto, tasa interna de retorno, etc.) de cambios en las variables que
conforman el proyecto, como precio, cantidad demanda, costos tasa de
descuento”. (Rosillo, 2008)

- “Todas las estimaciones del proyecto son variables que dependen de los
acontecimientos futuros. Seguramente, nunca vamos a acertar con exactitud
las estimaciones de nuestro proyecto. Por tal motivo, es sumamente
importante realizar un análisis de sensibilidad para responder a preguntas
tales como:

✓ ¿Qué pasaría con nuestras estimaciones en caso de que alguna variable


cambie?
✓ ¿Cuánto puede incrementar una variable de costo y el proyecto sigue
siendo rentable?
✓ ¿Cuánto pueden caer las ventas (precios o cantidades) y el proyecto sigue
siendo rentable?
✓ ¿Cuáles son las variables que más afectan al proyecto?
✓ ¿Cómo se vería afectado el proyecto si cambian muchas variables en
forma simultánea?
✓ ¿Cuánto cambiaría la duración del proyecto si cambia alguna variable?
Cuatro herramientas de análisis de sensibilidad muy utilizadas en la
planificación del proyecto:
✓ Punto de equilibrio
✓ Elasticidad de las distintas variables
✓ Análisis de sensibilidad de dos variables
✓ Análisis de escenarios”. (LLedó & Rivarola, 2007)

- “Análisis de los efectos que los cambios de las ventas, los costes, etc.,
producen en la rentabilidad de los proyectos”. (Brealey, C., & Marcus, 2007)

Análisis IRVA
- “Este método se basa en dos herramientas analíticas que completan el
método del VAN como son: la amortización de la inversión inicial y el
payback descontado.
Para analizar la amortización de la inversión inicial se utiliza un enfoque
semejante al de la amortización de un préstamo. Si se examina la tabla de
amortización del préstamo es posible determinar cuánto valor se crea y
cuando ocurre esa creación de valor.
Si se compara el préstamo con una inversión existe una similitud entre el
pago o anualidad en el caso del préstamo y el FCL en el caso de la inversión.
De la anualidad del préstamo es posible deducir la amortización siendo el
interés del préstamo similar al coste del capital invertido y la amortización
similar a la recuperación del capital invertido. Si se examina la tabla de la
amortización de la inversión será posible encontrar si ocurre o no creación de
valor y si es así, cuando.
Si se recuerda la idea del VAN y como mide la creación de valor, esta sugiere
que se crea valor cuando en una inversión se recupera el capital invertido y se
remunera a las fuentes de financiación y lo que quede es el valor creado. Pues
bien, con esta idea se trata de medir en cada periodo lo que queda del FCL
después de pagar el coste del dinero invertido. Lo que queda se destina a
recuperar la inversión y después de recuperada la inversión en su totalidad, se
puede hablar de creación de valor. El remanente que queda en cada periodo
después de pagar.
El IRVA se calcula así:
Flujo de caja libre real menos el coste del capital de la empresa por el saldo
de los activos totales al inicio del periodo.
El valor que tome el IRVA nos va a servir para medir la labor de la dirección
y saber si se ha creado o destruido valor. Cuando la inversión se recupere en
su totalidad, se estará creando valor si el IRVA es positivo.

La expresión matemática que lo define es la siguiente: IRVAt = FCLt – Ko x


(Io - Σ IRVAj)
Donde,
IRVAt, es la inversión recuperada y valor agregado en t.
FCLt, es el flujo de caja libre en el periodo t.
Ko, es el coste del capital medio ponderado en t.
Io, es la inversión inicial.
IRVAj, es el IRVA de los periodos anteriores.
El momento del tiempo en el que se recupera el capital invertido y su coste, a
partir de ese momento hay creación de valor y este punto en el tiempo se
llama periodo de repago descontado”. (Vélez Pareja, 2002)

Apalancamiento financiero y tipos de apalancamiento financiero


- “Utiliza como instrumento de apalancamiento los costos fijos financieros
que debe pagar una empresa a sus fuentes externas de financiamiento de sus
inversiones y operaciones.
El grado de apalancamiento financiero (GAF) se define de la siguiente forma:

Grado de apalancamiento financiero=((Ventas-Costos variables


totales))/((Ventas-Costos variables totales-intereses) )

La interpretación de este indicador ya no parte de duplicar la producción y las


ventas, sino de incrementar en un 100% las utilidades antes de impuestos e
intereses, lo que usualmente, se conoce como EBIT”. (Rosillo, 2008)

- “Surge de la existencia de las cargas fijas financieras que genera el


endeudamiento y se define como la capacidad de la empresa de utilizar dichas
cargas fijas con el fin de incrementar al máximo el efecto que un incremento
de la UAII puede tener sobre las utilidades por acción.

Por lo tanto, el A palancamiento Financiero como medida, muestra el


impacto de un cambio en la UAII sobre la UPA.
La medida de apalancamiento se denomina “grado de apalancamiento
financiero” o “grado de ventaja financiera” y muestra la relación de cambio
de la UPA frente a un cambio determinado en las UAII, siempre para un
determinado volumen de referencia. Se calcula así”:

°������������ =% ������������
������������������������������������
������������ ������������
������������������
% ������������
������������������������������������
������������ ������������
������������������������
(García S., 1999)
Atributos de un proyecto
- “Los atributos siguientes ayuda a definirlo: ✓ El proyecto tiene un objetivo
bien definido

✓ Un proyecto se realiza por medio de una serie de tareas interdependientes


✓ Un proyecto utiliza varios recursos para realizar las tareas
✓ Un proyecto tiene un marco de tiempo específico, o una duración finita
✓ Un proyecto puede ser una tarea única o que se realiza una sola vez
✓ Un proyecto tiene un cliente
✓ Por último, un proyecto involucra cierto grado de incertidumbre” (Gido
& Clements, 2007)

Capacidad Exceso u Ociosa


- “Cuando es posible observar capacidad subutilizada de una empresa para
producir. Por ejemplo, cuando tiene la posibilidad de producir más y no lo
hace por razones fundamentalmente de falta de demanda o por
inconvenientes económicos”. (Sapag Chaín, 2007)

Capacidad Instalada
- “El tamaño de un proyecto corresponde a su capacidad instalada y se
expresa en número de unidades de producción por año. Se distinguen tres
tipos de capacidad instalada:

✓ Capacidad de diseño: tasa estándar de actividad en condiciones normales


de funcionamiento;
✓ Capacidad del sistema: actividad máxima posible de alcanzar con los
recursos humanos y materiales trabajando de manera integrada;
✓ Capacidad real: promedio actual de actividad efectiva, de acuerdo con
variables internas (capacidad del sistema) y externas (demanda)”. (Sapag
Chaín, 2007)

Capital de trabajo
- “Los recursos que una empresa adquiere para llevar a cabo sus operaciones
sin contratiempo alguno. Dichos recursos están representados por el
inventario, las cuentas por cobrar y el efectivo que la empresa combina a
través de un proceso que denomina rotación, con el fin de aprovechar en
forma eficiente su capacidad instalada, a través de la generación de utilidades
y flujo de caja”. (García S., 1999)

- “El capital de trabajo es otra medida utilizada frecuentemente para expresar


la relación entre activos y pasivos corrientes. “el capital de trabajo” es el
exceso de activos corrientes sobre pasivos corrientes”. (Meigs, Meigs,
Battner, & Whittington, 1998)

Ciclo de vida de un proyecto


- “El ciclo de vida del proyecto atraviesa, en forma secuencial, cuatro etapas:
definición, planeación, ejecución y entrega. El punto de partida se inicia en el
momento en que arranca el proyecto. Los esfuerzos comienzan poco a poco,
pero llegan a un punto máximo y luego caen hasta la entrega del proyecto al
cliente.
1. Etapa de definición: se definen las especificaciones del proyecto; se

establecen sus objetivos; se integran equipos; se asignan las principales


responsabilidades.

2. Etapa de planeación: aumenta el nivel de esfuerzo y se desarrollan planes


para determinar qué implicara el proyecto, cuándo se programará, a quién
beneficiará, que nivel de calidad debe mantenerse y cuál será el presupuesto.

3. Etapa de ejecución: una gran parte del trabajo del proyecto se realiza tanto
en el aspecto físico como en el mental. Se elabora el producto físico (un
puente, un informe, un programa de software) Se utilizan las mediciones de
tiempo, costo y especificaciones como medios de control del proyecto. ¿El
proyecto está dentro de lo programado, dentro de lo presupuestado y cumple
con las especificaciones? ¿Cuáles son los pronósticos para cada una de estas
medidas? ¿Qué revisiones/cambios se necesitan?

4. Etapa de entrega: comprende dos actividades: entregar el producto del


proyecto al cliente y volver a desplegar los recursos del proyecto. Lo primero
puede comprender la capacitación del cliente y transferencia de documentos.
Lo segundo implica, por lo general, la liberación del equipo/materiales del
proyecto hacia otros proyectos y encontrar nuevas asignaciones para los
integrantes del equipo”. (Gary & Larson, 2009)

- “En general, los proyectos se dividen en destinas fases con el objeto de


hacer más eficiente la administración y el control. A estas fases en su
conjunto se les denomina ciclo de vida del proyecto.

Cada fase del proyecto se considera completa cuando finaliza la producción


de entregable. Los entregables son los bienes o servicios claramente
definidos y verificables que se producen durante el proyecto o que son sus
resultados. Ejemplo de entregable son: un estudio de pre factibilidad, un
estudio de factibilidad, el diseño de un producto, la implementación de un
producto en el mercado, etcétera.
Si bien las fases de cada proyecto en particular tienen similares nombres y
requerimientos de entregables, casi todos los proyectos son distintos. La
mayoría comprende cuatro o cinco fases, pero algunos pueden tener varias
fases adicionales en función del tamaño del emprendimiento”. (LLedó &
Rivarola, 2007)
- “El término “proyecto” involucra una secuencia de tareas que se inicia con
la

definición y delimitación de una jerarquía de objetivos interrelacionados en


una cadena medio-fin. Incluye la información la formulación y evaluación de
diversas alternativas, la selección de la mejor alternativa, la gestión de la
misma y solo se considera “terminado” con una evaluación ex post, cuyas
conclusiones deben servir para alimentar la definición y ejecución de
proyectos futuros. Este conjunto de actividades es comúnmente denominado
“el ciclo del proyecto”. Todos los proyectos siguen su propio ciclo. Existen
muchas versiones acerca de lo que es “el ciclo de un proyecto” diferenciadas
esencialmente por el manejo de la terminología y la cronología o secuencia
de algunas actividades. En este texto, proponemos un enfoque flexible de la
definición del ciclo del proyecto, basado en tres principios básicos:

✓ Cada etapa del ciclo tiene su razón de ser y, por tanto, no debería limitarse
a hacer una repetición más detallada de las labores realizadas en etapas
anteriores.

✓ Es importante involucrar, desde el principio del ciclo del proyecto, a los


distintos actores interesados o involucrados en el mismo, para que colaboren
conjuntamente en su diseño, evaluación y gestión. Con ello se evitará la
necesidad de replantear sustancialmente un proyecto en las atapas avanzadas
de su preparación, con el fin de corregir aspectos básicos que se hubieran
podido concebir de manera correcta desde el inicio. Asimismo, se adquiere
continuidad en los procesos de planeación y gestión.

✓ El ciclo no se debe entender como una secuencia inflexible; se necesita


construirlo sobre una secuencia flexible que se adapte con facilidad frente a
las realidades de cada proyecto. El ciclo no representa una camisa de fuerza
lineal, sino una lógica de progresión de un proyecto. Sobre las diversas
etapas, se puede proceder de manera interactiva, de tal forma que los
hallazgos y las decisiones de una etapa pudieran conducir a revisitar etapas ya
trabajadas.

En su forma general, el ciclo del proyecto comprende tres etapas, a saber:


Etapa de formulación
Desarrollo de alternativas, evaluación ex ante

Etapas de gestión
Ejecución de actividades e inversiones,
evaluación sobre la marcha

Etapa ex post
Gerencia de efectos e impactos de mediano y largo plazo y largo plazo
Evaluación post

Las etapas sugieren una secuencia para el desarrollo del proyecto, que
permite avanzar sobre la formulación y gestión del mismo. No obstante, la
secuencia necesariamente tiene que entenderse de manera flexible, a fin de
que las propuestas y las decisiones de la etapa de formulación se puedan
revisitar en la medida que la gestión del proyecto sugiera que no se están
logrando los objetivos propuestos o se están generando efectos o impactos no
esperados. Por tanto, el ciclo podría entenderse gráficamente de la siguiente
forma:

Etapa de formulación
Desarrollo de alternativas, evaluación ex ante

Etapas de gestión
Ejecución de actividades e inversiones,
evaluación sobre la marcha

Etapa ex post
Gerencia de efectos e impactos de mediano

y largo plazo y largo plazo Evaluación post

No existe consenso universal sobre la denominación de estas diferentes


etapas ni sobre los límites entre una y otra. Sin embargo, una discusión
detallada de la terminología resultaría poco fructífera. En este texto, se
presenta una definición básica de las diferentes etapas y algunas fases dentro
de cada etapa, sin ánimo de introducir rigidez en el manejo de la
terminología.
No obstante, cabe destacar una limitación de algunas presentaciones del ciclo
del proyecto, con el fin de diferenciarlas se propone un ciclo de tres
actividades o tres etapas que se interrelacionan de manera circular: la
formulación, la gestión y la evaluación. Es nuestro pensar que la evaluación
no constituye una etapa separada del ciclo del proyecto, sino una actividad
que se realiza en las diversas etapas del ciclo. La evaluación apoya los
análisis y las decisiones en las diferentes fases de la etapa de formulación; es,
a su vez, una herramienta que apoya la gestión de las actividades e
inversiones y, realizada en la etapa ex post, documenta experiencia y
alimenta futuras iniciativas.
La separación de la evaluación como etapa separada del ciclo del proyecto ha
facilitado que la evaluación se entienda como una actividad que puede ser
posterior a la gestión. En su lugar, si definimos la evaluación como actividad
y herramienta de todas las etapas del ciclo, toma un rol de apoyo a las
decisiones y las actividades durante todo el ciclo”. (Mokate, 2004)

Costo Anual Uniforme Equivalente (CAUE)


- “El costo anual equivalente consiste en reducir todos los ingresos y todos
los egresos a una serie uniforme de pagos que sea equivalente a los ingresos y
egresos originales, de esta forma, los costos durante un año de una alternativa
se pueden comparar con los costos durante un año de la otra alternativa.
Normalmente el periodo de comparación es el año, pero puede darse el caso
en que el periodo de comparación sea el mes en cuyo caso se puede decir
como costo mensual uniforme equivalente (CMUE).
La ventaja de este índice es que no exige que se tenga que tomar tiempos
iguales como en el caso del VAN, sino que únicamente se comparan los
costos, que de forma equivalente, se hayan causado durante un año”. (Baca
Currea, 2005)

Costos de operación
- “Corresponde al gasto en remuneraciones, arriendo, comunicaciones,
uniformes, publicidad, insumos varios, contabilidad, sistemas de
información, seguros, mantenimiento de oficinas y maquinarias, materiales
de oficina y energía”. (Sapag Chaín, 2007)

- “La segunda gran categoría de costos corresponde a los costos de operación,


que consisten en los desembolsos por insumos y otros rubros necesarios para
el ciclo productivo del proyecto a lo largo de su funcionamiento. Estos costos
se pueden clasificar en costos de producción, de ventas, administrativos y
financieros. Éstos, a su vez, se pueden desagregar, entre otros, en costos de
mano de obra, materias primas e insumos, arriendos y alquileres, y costos
financieros e impuestos.

Los costos de operación se registran en el periodo en que se producen los


respectivos desembolsos (contabilidad de caja)
En toda evaluación es necesario distinguir entre los costos de operación que
son deducibles de impuestos sobre la renta y los que no se pueden deducir.
Donde la mayoría de ellos son deducibles, cualquier costo que no lo sea se
registrará en el flujo de fondos de una manera diferente a los demás costos.
Generalmente, la estimación de los costos del proyecto incluye también un
rubro para “imprevistos””. (Mokate, 2004)

Costos fijos
- “Son aquellos que permanecen constantes durante un período determinado y
para una escala pertinente de producción. Están directamente relacionados
con la capacidad instalada de la empresa, su incurrencia es fruto de
decisiones específicas que toma la administración y pueden variar
dependiendo de dichas decisiones. Por ejemplo, la administración pue4de
decidir si para un volumen determinado de producción utiliza 1 o 2
supervisores, 1 o 2 mecánicos, lubricantes de X o Y calidad, etc. Esto le da a
algunos costos fijos el carácter de “discrecionales”, que al ser planeados o
programados para mantener una determinada capacidad de producir y vender,
adquieren el carácter de “costos periódicos”, que deberían confrontarse contra
los ingresos del período en el que se incurren y no ser considerados como
costos del producto susceptibles de capitalizar en forma de inventario, tal
como lo hace el sistema tradicional de costeo total, también llamado “costeo
absorbente” Desde el punto de vista unitario, los costos fijos son variables
por unidad”. (García S., 1999)

- “Los costos fijos son aquellos independientes del volumen de unidades


asignadas a una tarea y/o de su duración”. (Toro López, 2009)

- “Son aquellos que no se alteran ante cambios en los niveles de producción;


por ejemplo, el arriendo, los salarios del personal administrativo, los servicios
públicos (según el producto o servicio), la depreciación, etc. Esta definición
no debe mirarse de manera absoluta, porque puede ocurrir que después de
determinado nivel de producción sea necesario incrementar el personal
administrativo u otros costos fijos”. (Rosillo, 2008)

Costos variables
- “Los variables se modifican –no necesariamente en forma proporcional –
con el nivel de uso de los recursos requeridos por una tarea”. (Toro López,
2009)

- “Son los que cambian con la producción, como la materia prima y la mano
de obra directa; por ejemplo, si para fabricar 100 camisas por día se requiere
150 metros de tela, la fabricación de 200 camisas necesitara 300 metros”.
(Rosillo, 2008)

Depreciaciones

- “El reconocimiento de un costo o de un gasto como consecuencia de un


costo o de un gasto como consecuencia del deterioro o la obsolescencia de
ciertos activos fijos (los depreciables). Por lo tanto, período tras período
deberá afectarse o castigarse la utilidad con una parte proporcional del costo
de dichos activos con lo que su valor en libros para efectos de su presentación
en el Balance, disminuirá. Expliquemos la anterior definición.

La depreciación puede ser costo o gasto en la medida en que afecte los


activos destinados a la producción o a aquellos que se utilizan en las
actividades administrativas y de ventas”. (García S., 1999)

- ““Los activos depreciables” son objetos físicos que conservan su medida y


forma, pero que eventualmente se desgastan o se vuelven obsoletos. No son
consumidos físicamente al igual que otros activos como los suministros, pero
aun así su utilidad económica es “gastada” con el paso del tiempo. Los
activos depreciables incluyen, por ejemplo, los edificios y todo tipo de
equipo, inmueble, muebles y hasta vías de ferrocarril. Sin embargo, el terreno
no es visto como un activo depreciable porque su vida útil es ilimitada. En
cada periodo expira una parte de los activos útiles depreciables. Allí la parte
correspondiente al gasto es reconocida como un gasto de depreciación”.
(Meigs, Meigs, Battner, & Whittington, 1998)

- “El termino depreciación se utiliza para referirse a la pérdida de valor


contable de activos fijos”. (Sapag Chaín, 2007)

Diferidos
- “Comprende los gastos pagados por anticipado, tales como, intereses,
primas de seguro, arrendamientos, contratos de mantenimiento, honorarios,
comisiones y los gastos incurridos de organización y preoperativos,
remodelaciones o adecuaciones, mejoras de oficina, estudios y proyectos,
construcciones en propiedades ajenas tomadas en arrendamiento, contratos de
ejecución, contribuciones y afiliaciones e impuestos diferidles”. (Romero
Romero, 2008)

Fases del proyecto


- “Como en cualquier otro plan, lo primero que se debe hacer es un desglose
del proyecto desde un punto de vista general, describiendo y ordenando
claramente cada uno de los componentes y segmentos que lo constituye. Este
paso es fundamental en aras de mejorar proyectos que por su misma
complejidad y envergadura requieren de una clara asignación de
responsabilidades y de mecanismos que faciliten la supervisión de las tareas.
Como una recomendación inicial, aborde siempre la administración de un
proyecto como si estuviera compuesto de tres etapas principales:

1. La definición de objetivos y la creación del plan básico del proyecto


2. El desarrollo y supervisión del proyecto.
3. El cierre del proyecto.
La definición de objetivos y la creación del plan básico del proyecto. Una
vez definidos los objetivos de un proyecto, se entran a definir estos aspectos
en el orden mostrados:
1. El marco de tiempo deseable o factible para el desarrollo del proyecto. 2.
La lista de tareas que conforman el proyecto y su secuencia.
3. Ordenar las tareas en fases y establecer sus interdependencias. 4.
Programar las tareas teniendo en cuenta su tiempo de duración y las
relaciones de ejecución que guarden entre si las tareas.
5. Identificar los recursos que cada tarea requiere, y
6. Estimar los tiempos de ejecución y los costos asociados con los recursos y
con el desarrollo del proyecto en general.
Las demás fases del proyecto se basarán directamente en la información que
se registre en esta que pasa a ser llamada el plan general del proyecto8.
Dependiendo de la experiencia y los conocimientos de los responsables de un
proyecto, es posible identificar las tareas y grupos de tareas que conforman
un proyecto. Como principio práctico, es posible romper un proyecto en al
menos tres fases generales:

1. Iniciales o de arranque
2. Intermedias o de desarrollo general, y
3. Terminación o finalización

Desde un punto de vista administrativo, los procesos de manejo de proyectos


se desarrollan en cinco fases, en las que los flujos de información se traslapan
en muchos casos y la información de un proceso no solo sirve al siguiente
sino que retroalimenta procesos anteriores. La siguiente figura muestra estos
procesos en el que las flechas indican los flujos de información; observe
como un proceso de control alimenta con datos tanto a procesos de
planeación como de ejecución:
Figura 1.2 Procesos administrativos de un proyecto (Derechos de autor
PPMC Intrenational 2000)
8 Algunas personas lo llaman el Plan maestro, otros el Plan base y algunas otras, lo llaman inclusive el
Presupuesto.

Procesos de iniciación Procesos de planeación

Procesos de control Procesos de ejecución


Procesos de cierre
Enlaces entre procesos” (Toro López, 2009)

Flujo de caja del inversionista


- “En el flujo de caja libre del Inversionista se toma únicamente como
inversión de proyecto únicamente los dineros que aporta el inversionista”
(Baca Currea, 2005)

Flujo de caja del proyecto puro


- “Este flujo revela la capacidad del proyecto para generar ingresos netos, sin
entrar en la preocupación con respecto a las fuentes de financiamiento. En
dicho flujo se registran los ingresos gravables que se concentran en los
ingresos por venta o prestación de servicios. También se contemplan los
ingresos financieros procedentes de la inversión de excedentes temporales te
efectivo. De este ingreso, se restan los costos deducibles, que son los de
operación, mantenimiento, administración, mercadeo, ventas, impuestos
indirectos y depreciación. El resultado de este cálculo es la ganancia neta
gravable, que sirve de base para el cálculo de los impuestos atribuibles a la
realización del proyecto.
A las ganancias netas gravables se restan los impuestos directos, se suma la
ganancia extraordinaria por la venta de activos, ajustada por el pago de
impuestos sobre la misma. Además se restan los costos no deducibles y se
suman los ingresos no gravables, incluyendo la venta de activos por su valor
en libros y subsidios, principalmente. El resultado se puede denominar la
“ganancia neta”.
A esta ganancia neta hay que hacerle un ajuste por la depreciación, pues no
representa un desembolso efectivo del proyecto. Asimismo, hay que restarle
los costos de inversión (activos fijos y nominales, gastos preoperativos y
capital de trabajo) y sumarle los valores de salvamento de activos que no
serán vendidos al final del proyecto. El resultado final es el flujo de fondos
del proyecto (sin financiamiento).
Por supuesto, las operaciones que se han discutido se realizan para cada
período del flujo, manteniendo la ubicación temporal de cada rubro”.
(Mokate, 2004)

Horizonte de planeación del proyecto


- “La calidad del estimado depende del horizonte de planeación; los
estimados de los acontecimientos actuales son hasta 100 por ciento precisos,
pero no tanto para hechos más lejanos. La precisión de los estimados de
tiempos y costos mejorará a medida que usted avance de la fase conceptual al
punto en que se definen los paquetes de tareas individuales”. (Gary & Larson,
2009)

- “Horizonte de evaluación del proyecto: (o plazo en que se evaluará la


inversión) depende mucho de las características de cada proyecto. Si es uno
al que se le augura una vida útil real de 5, 8 o 15 años, por ejemplo, lo mejor
será construir un flujo de caja a ese número de años. Pero si el proyecto
pretende mantenerse en el tiempo, hay una convención no escrita que hace
que la mayoría de los evaluadores usen un periodo de evaluación de 10
años”. (Sapag Chaín, 2007)

- “Horizonte de planificación: Límite temporal de un plan financiero”.


(Brealey, C., & Marcus, 2007)

- “El horizonte de planeamiento: Cuando pensamos en el futuro, podemos


imaginarnos diferentes periodos de tiempo. Por lo general, pensamos en el
corto plazo como un periodo entre seis meses y un año. En ese período el
ejecutivo financiero suele “operar” antes que “planear”. Por ejemplo, en el
corto plazo sigue de cerca el flujo de efectivo para ver cuando precisará el
dinero para pagar los salarios o los impuestos. Cuando pensamos en el largo
plazo, hablamos de un horizonte de planeamiento, período durante el cual el
ejecutivo financiero planea, imagina como serán las operaciones en el futuro,
se mueve hacia un lado y hacia otro, examina, trata de optimizar, cuenta con
más tiempo para pensar. En la planificación financiera de largo plazo,
pensamos en un plazo de cinco años o más; describimos todo lo que
pensamos que ocurrirá en ese período: como pueden evolucionar las ventas,
si podemos expandirnos a otros mercados, cómo evolucionarán los, que
activos requerimos y cómo los financiaremos. En general, al preparar un plan
financiero se combinan todos los proyectos de la empresa con el objeto de
determinar la inversión total requerida, y se le pide a cada división de la
empresa que prepare un plan de negocio con escenarios alternativos para los
siguientes años”. (Dumrauf, 2003)

Ingresos operacionales
- “Comprende los valores recibidos y/o causados como resultado de las
actividades desarrolladas en cumplimiento de su objeto social mediante la
entrega de bienes o servicios, así como los dividendos, participaciones y
demás ingresos por concepto de intermediación financiera, siempre y cuando
se identifique con el objeto social principal del ente económico”. (Romero
Romero, 2008)

Innovación incremental ¿y/o? innovación radical


- “La innovación incremental se produce cuando se agrega (o quita, o
combina, o resta, o suplanta) una parte a un producto o servicio.
La innovación radical se produce cuando se incorpora al mercado un
producto o servicio que en sí mismo es capaz de generar una categoría.
Radical proviene del latín radix, raíz.
En una se comienza a trabajar sobre una base conceptual. En la otra sobre un
concepto absolutamente nuevo.
Veamos un ejemplo. La aparición en el mercado del teléfono celular fue
decididamente una innovación radical. La incorporación al móvil de las
cámaras de fotos es una innovación de tipo incremental. La creciente
tendencia de hibridaciones tecnológicas nos ubica en permanentes
incrementos en las prestaciones de los productos.
Las dos son absolutamente imprescindibles en una compañía o en un
emprendimiento.
Suele verse con frecuencia que las compañías consolidadas son más
renuentes a las acciones innovativas radicales porque hay “un prestigio” que
sostener, quedando en emprendedores la aparición de las innovaciones
radicales o disruptivas.
Este ciclo suele cerrarse en muchos casos con la aplicación de un proceso
“me too” de las grandes compañías (con mayor presupuesto y con un
resultado final eh algunos casos de calidad superior) o con un proceso de
adquisión e incorporación de compañías innovadoras.
No hace mucho un ejecutivo de una gran compañía multinacional me
confesaba que no están dispuestos a correr riesgos en función de la
protección de la marca. Lo lamento muchísimo, porque estoy seguro que la
próxima oportunidad de negocio no estará bajo el paraguas de su marca.
Así, a grandes empresas consolidadas se le “adelantaron” en la oportunidad
de negocios emprendedores o empresas que jugaban por fuera del negocio.
Amazón, con ese gran emprendedor que es Jeff Bezos, visionó el negocio de
venta virtual de libros a Barnes & Noble quien finalmente debió ingresar en
el negocio virtual.
Apple se le adelantó a Sony respecto del posicionamiento de reproductores
MP3 con su iPod y quien fuera inventor del walkman se encuentra realizando
esfuerzos permanentes por acortar la distancia del innovador iPod. Cuidando
el negocio actual….¡puedes perderte el negocio del futuro!. Léase:
concentrase solo en las innovaciones incrementales fortalecen el
negocio….siempre y cuando no aparezca una innovación radical que rompa
con todo lo anterior. Generalmente orientados con las innovaciones
incrementales devienen de esfuerzos

procesos creativos enfocados a determinados fines. La creatividad muy


enfocada solo puede ofrecer diminutas innovaciones. Brainstorming,
scampers, sinéctica, palabras al azar, mindmapping componen un abanico de
posibilidades para hallar posibilidades innovativas de este tipo. La creatividad
está delimitada en un tiempo y espacio.
Sin embargo las innovaciones radicales provienen de procesos de “insight”
en los cuales las oportunidades se hacen visibles en un instante, quizá como
un cúmulo de experiencias, deseos, condimentos y una buena dosis de
casualidad o serendipity. La creatividad vuela sin ataduras de tiempo ni
espacio. Un enfoque diversificado de la creatividad es un soporte
imprescindible para que las compañías puedan jugar a “sostener” algunos
mercados e “inventar” otros”. (Berenstein)

Innovación y tecnología: la curva “S”


- “La curva “S” nos permite reflexionar sobre los comportamientos
empresariales frente a las discontinuidades tecnológicas.
La curva “S”
Las etapas de la curva “S” son:
Etapa 1: Aparece una nueva tecnología que se encuentra todavía en fases de
desarrollo y mejora, por lo que no ofrece competencia directa a la anterior.
En este punto parece que su aplicación está muy limitada en el futuro y su
éxito es incierto. Esta fase se suele prolongar un largo periodo de tiempo,
durante el cual la nueva tecnología es perfeccionada. Etapa 2: Finalmente el
uso de la nueva tecnología se desarrolla da a gran velocidad, ofreciendo
grandes ventajas y superando a la anterior en varias, si no en todas, las
dimensiones de rendimiento. Las empresas que utilizan la antigua tecnología
reaccionan y se defienden intentando mejorar su producto/proceso, por lo que
pueden aparecer ciertas innovaciones incrementales, que no permiten superar
a la larga a la nueva tecnología. Las conclusiones que se pueden sacar de la
curva “S” son:
✓ Los defensores tiene que tomar decisiones difíciles. Abandonar una
tecnología establecida hace que las empresas se enfrenten a tres opciones. o
Abandonar la actividad que ya conocen.
o Seguir con lo que ya tienen y esforzarse mucho para mejorar o ganar
clientes.
o Seguir con su actividad y empezar a invertir en la nueva tecnología para
prepararse para el futuro.
✓ Los líderes de una generación de tecnología raramente son los de la
siguiente. Los líderes de una tecnología no suelen ver la utilidad de la
siguiente y pierde su posición estratégica.
✓ Los atacantes gozan de ventajas importantes, como focalización y
habilidad para atraer talento, no son prisioneras de sus clientes más
importantes, tienen poca burocracia y no necesitan proteger las inversiones
anteriores en activos o capacidades”. (Carrión Maroto, 2007)

Inversiones durante la operación

- “Además de las inversiones en capital de trabajo y previas a la puesta en


marcha, es importante proyectar las reinversiones en remplazo y las nuevas
inversiones por ampliación que se tengan en cuenta. Es preciso elaborar
calendarios de reinversiones de equipos durante operación, para maquinaria,
herramientas, vehículos, mobiliarios, etc.

Igualmente, será posible que ante cambios programados en los niveles de


actividad sea necesario incrementar o reducir el monto de la inversión en
capital de trabajo, de manera tal que permita cubrir los nuevos requerimientos
de la operación y también evitar los costos de oportunidad de tener una
inversión superior a las necesidades ralaes del proyecto”. (Sapag Chain &
Sapag Chain, 1998)

Inversiones previas a la puesta en marcha


- “Las inversiones efectuadas antes de la puesta en marcha del proyecto
pueden agruparse en tres tipos: activos fijos, activos intangibles y capital de
trabajo.

Las inversiones en activos fijos son todas aquellas que se realizan en los
bienes tangibles que se utilizarán en el proceso de transformación de los
insumos o que sirven de apoyo a la operación normal del proyecto.
Constituyen activos fijos, entre otros, los terrenos; las obras físicas (edificios
industriales, sala de ventas, oficinas administrativas, vías de acceso,
estacionamientos, bodegas, etc.); el equipamiento de la planta, oficinas y
salas de ventas (en maquinaria muebles, herramientas vehículos y
alhajamineto en general), y la infraestructura de servicios de apoyo (agua
potable, desagües, red eléctrica, comunicaciones, energía).
Las inversiones en activos intangibles son todas aquellas que se realizan
sobre activos constituidos por los servicios o derechos adquiridos necesarios
para la puesta en marcha del proyecto. Constituyen inversiones intangibles
susceptibles de amortizar y, al igual que la depreciación, afectaran al flujo de
caja indirectamente, por la vía de una disminución en la renta imponible y,
por tanto, de los impuestos pagados. Los principales ítems que configuran
esta inversión son los gastos de organización, las plantas y licencias, los
gastos de puesta en marcha, la capacitación, las bases de datos y los sistemas
de información peroperativos.
La inversión en capital de trabajo constituye el conjunto de recursos
necesarios, en forma de activos corrientes, para la operación normal del
proyecto durante un ciclo productivo”. (Sapag Chain & Sapag Chain, 1998)

Período de recuperación de la inversión

- “El periodo de recuperación de la inversión, PRI, es el tercer criterio más


usado para evaluar un proyecto y tiene por objeto medir en cuánto tiempo se
recupera la inversión, incluyendo el costo de capital involucrado”. (Sapag
Chaín, 2007)

Proyecto
- “Un proyecto es un esfuerzo complejo, no rutinario, limitado por el tiempo,
el presupuesto, los recursos y las especificaciones de desempeño y que se
diseña para cumplir las necesidades del cliente”. (Gary & Larson, 2009)

- “Es la unidad de inversión menor que se considera en la programación. Por


lo general constituye que se considera en la programación. Por lo general
constituye un esquema coherente, desde el punto de vista técnico cuya
ejecución se encomienda a un organismo público o privado y que puede
llevarse a cabo con independencia de otros proyectos. (Enciclopedia Contable
Universal. Europea Americana. Editorial Espasa, S. A. Madrid Barcelona).
Conjunto de datos, cálculos y dibujos articulados en forma metodológica, que
dan los parámetros de cómo ha de ser y cuánto ha de costar una obra o tarea.
Esta información se somete a evaluaciones para fundamentar una decisión de
aceptación o rechazo. (L.A. Ernestina Huerta y L. C. Carlos Siu Villanueva.
Análisis y Evaluación de Proyectos de inversión para Bienes de Capital. De
lo anterior concluimos que el proyecto es una serie de planteamientos
encaminados a la producción de un bien o la presentación de un servicio, con
el empleo de una cierta metodología y con miras a obtener determinado
resultado, desarrollo económico o beneficio social”. (Hernández Hernández,
Hernández Villalobos, & Hernández Suárez, 2005)
- “Un proyecto es un esfuerzo para lograr un objetivo específico por medio de
una serie particular de tareas interrelacionadas y la utilización eficaz de
recursos”. (Gido & Clements, 2007)

Razón beneficio costo


- “Antes de definir y planificar los niveles de calidad del proyecto, es
necesario realizar un análisis de la relación entre los beneficios de mejorar la
calidad y los costos en que se debe incurrir para implementar los controles de
calidad. Entre los costos de implementar acciones de control de calidad se
pueden mencionar:

✓ Inversiones de capital en procesos tecnológicos.


✓ Contrataciones de expertos.
✓ Diseño de procesos de calidad.
✓ Monitoreo de la calidad.

Por otra parte, entre los beneficios de manejar la calidad del proyecto se
pueden mencionar:
✓ Evitar daños irreparables para el proyecto.
✓ Ahorro de costos en reparación.
✓ Reducción de gastos futuros para enfrentar acciones legales. ✓ Ahorro de
costos operativos para atender reclamos.
✓ Aumento de la productividad.
✓ Disminución de la calidad de productos fallados.
✓ Mejoras en la imagen empresarial.
✓ Menores costos en cambios y devoluciones de productos con fallas.

Si bien los beneficios aumentan cuanto mayor es la calidad del proyecto, a


medida que se exija mayor calidad los costos asociados también serán
mayores. La optimización de la calidad del proyecto se logrará en aquel
punto donde el beneficio marginal del aumento de calidad iguale al costo
marginal. Esta calidad óptima será la que se tome en cuenta al momento de
realizar la planificación. El beneficio marginal mide el cambio en el beneficio
total cuando se incrementa la calidad. Por otra parte, el costo marginal mide
el cambio en el costo total al aumentar la calidad”. (LLedó & Rivarola, 2007)

- “La relación beneficio-costo compara el valor actual de los beneficios


proyectados con el valor actual de los costos, incluida la inversión. El método
lleva a la misma regla de decisión del VAN, ya que cuando este es cero, la
relación beneficio-costo será igual a uno. Si el VAN es mayor que cero, la
relación será mayor que uno, y si el VAN es negativo, esta será menor que
uno. Este método no aporta ninguna información importante que merezca ser
considerada”. (Sapag Chaín, 2007)

Tasa de interés bancaria


- “La tasa de interés a la que el Banco Central presta al sistema bancario. En
la práctica significa la tasa a la que el Banco Central redescuenta los
documentos elegibles presentados por los bancos comerciales”. (Brand,
1999)

TIO
- “Se expresa porcentualmente (%) para un determinado periodo de tiempo y
se usa para calcular la rentabilidad de un proyecto de inversión; refleja las
diferentes alternativas disponibles para un inversionista, la rentabilidad
generalmente se estima calculando los ingresos netos y descontándolos al día
de hoy”. (Toro López, 2009)

TIR
- “Tasa de descuento con la cual el VPN de los flujos de caja proyectados y
sustraída la inversión es igual a cero. Es la tasa que iguala la suma de los
flujos descontados a la inversión inicial”. (Rosillo, 2008)

- “Es el tipo de interés que, cuando se usa para disminuir los flujos de caja
asociados a un proyecto de inversión, reduce a cero le valor actual neto de
éste. Por tanto, proporciona una medida del “cambio completo” de la tasa de
retorno de una inversión, puesto que muestra el más alto tipo de interés al
cual el proyecto no producirá ni ganancias, ni pérdidas. Si la tasa interna de
retorno es mayor que el tipo de interés que habría que pagar, esto haría ver
que ese proyecto es lucrativo y procede llevarlo a cabo; lo contrario sería si la
tasa fuera más baja que el tipo de interés. No obstante, como medida de lo
lucrativo de una inversión tiene dos defectos: a) un proyecto determinado
puede tener más de un tipo de interés que reduzca a cero los egresos en
efectivo y en ese caso, el método puede no dar una respuesta clara y precisa.
Esto puede suceder cuando las ganancias durante el tiempo de vida de un
proyecto van seguidas por egresos en efectivo y b) el método puede dar
clasificaciones incorrectas de proyectos operativos ya que el rendimiento
actual de un proyecto puede ser mayor que el de otro, aun cuando su tasa de
retorno sea más baja. La tasa interna de retorno también es conocida como la
eficiencia marginal del capital, la ganancia del inversionista y la ganancia por
la disminución de los egresos en efectivo. Conceptualmente puede
considerase también como la tasa de descuento que anula la diferencia entre
valor actualizado de los beneficios y el valor actualizado de los costos”.
(Brand, 1999)

- “La tasa interna de retorno, conocida como TIR, que mide la rentabilidad de
un proyecto como un porcentaje y corresponde a la tasa que hace al valor
actual neto igual a 0”. (Sapag Chaín, 2007)

TIRM = TUR
- “TIR modificada, consiste en sumar aritméticamente los flujos de caja
positivos y situarlos en el último periodo de la vida útil. Los negativos se
suman también y se sitúan en el período cero de la misma forma en que se
hizo para el valor presente neto. Con lo anterior se tiene un flujo de caja en el
período cero y otro en el último período, con base en los cuales se calcula la
tasa de interés, que es la TIRM”. (Rosillo, 2008)

- “Con el fin de resolver los problemas inherentes en el uso de la TIR en la


selección de proyectos, se ha definido la TIR ajustada, la cual también ha
sido denominada tasa única de retorno, TUR. Concretamente, el ajuste de la
TIR busca resolver los problemas de inexistencia o existencia de múltiples de
TIR y reinversión de los flujos excedentes a la tasa de interés interna del
proyecto y no a la tasa de interés de oportunidad.

Con la TIR ajustada se garantizará la existencia de una sola tasa,


independiente de la estructura de los flujos. Además, se elimina el supuesto
de que todos los recursos excedentes se reinvierten a la misma TIR y se
introduce la reinversión a la tasa de interés de oportunidad”. (Mokate, 2004)

TVR
- “La tasa interna de retorno (TIR) y la tasa única de retorno (TUR) suponen
que algunos flujos de los proyectos se pueden reinvertir a la tasa que se
generan internamente en los proyectos que se están analizando. Este supuesto
es el que conduce a las inconsistencias con el concepto de tasa de interés de
oportunidad y el VPN, que plantean que se pueden reinvertir a la tasa
generada por las mejores inversiones alternativas.
La tasa verdadera de retorno, igual que la TUR, supone reinversión de los
flujos netos positivos del proyecto a la tasa de interés de oportunidad. No
obtente, hace además el ajuste del tratamiento de los excedentes del
inversionista que no resultan comprometidos dentro del proyecto, suponiendo
que también se invierten a la tasa de oportunidad. Gracias a este nuevo
supuesto, se logra que la TVR sea un criterio coherente con el VPN”.
(Mokate, 2004)

Valor de mercado
- “Los valores de mercado miden los valores actuales de los activos y los
pasivos”. (Brealey, C., & Marcus, 2007)

Valor de salvamento
- “El valor de salvamento se asocia con los activos adquiridos por el
proyecto. Busca reconocer el valor que existe al finalizar el periodo de
evaluación, gracias a la realización del proyecto, que no existiría si éste no se
hubiera realizado. Se registra independientemente de que al final del proyecto
al activo se venda o no.
El valor de salvamento hace referencia al valor producido por vender los
activos al terminar el proyecto o a la potencialidad de los activos para generar
productos e ingresos hacia el futuro. Las dos técnicas más conocidas para
registrar valores de salvamento son:

✓ El valor en libro de los activos


✓ El valor comercial de los activos” (Mokate, 2004)
Valor del dinero en el tiempo

- “El dinero en el tiempo tiene la capacidad de generar más dinero, es decir,


de generar más riqueza o más valor”. (García S., 1999)
- “El dinero tiene un valor en sí mismo, también tiene un valor dependiendo
del momento del tiempo en que se reciba o se entregue”. (Agudelo R. &
Fernández G, 2000)

Valor en libros
- “En el Balance General los activos fijos depreciables se muestran por su
costo de adquisición restándoles a continuación la depreciación que se les
haya imputado a través del tiempo y que se denomina “depreciación
acumulada”. El costo de un activo menos su depreciación acumulada se
denomina a su vez “valor en libros” o “valor contable””. (García S., 1999)

- “Los activos fijos se muestran en el balance general por sus valores en


libros (o valores contables). El “valor en libros” de un activo fijo es su costo
menos la depreciación acumulada relacionada. La depreciación acumulada es
una contracuenta del activo que representa esa porción del costo del activo
que ya ha sido asignada al gasto. Por lo tanto, el valor en libros representa la
porción del costo del activo que resta por ser asignada al gasto en periodos
futuros”. (Meigs, Meigs, Battner, & Whittington, 1998)

- “El valor en libros, o costo contable de un activo, se calcula como la


diferencia entre el valor de adquisición y la depreciación acumulad a la fecha
de la venta. Es decir, representa lo que falta por depreciar al activo en el
momento de su venta”. (Sapag Chaín, 2007)

Valor terminal
- “Valor que se calcula en el último año de la vida económica del proyecto
por cuanto se supone que este funcionará indefinidamente. Para su cálculo se
emplea el concepto de matemáticas financieras llamado perpetuidades”.
(Rosillo, 2008)

VPN
- “Valor monetario que resulta de restar la suma de los flujos descontados a la
inversión”. (Rosillo, 2008)
- “Es el valor actual de los flujos de fondos futuros descontados a una tasa de
descuento”. (Estupiñán Gaitan & Estupiñán Gaitan, 2006)

- El valor actual neto, conocido como VAN, que mide en valores monetarios,
los recursos que aporta el proyecto por sobre la rentabilidad exigida a la
inversión y después de recuperada toda ella”. (Sapag Chaín, 2007)

PROBLEMAS PROPUESTOS DE PROYECTOS


Ejercicio 1

Usted intenta determinar el rango de valores que puede tomar una variable
aleatoria sobre la cual tiene poca experiencia. Para subsanar su falta de
experiencia, ha decidido consultar a tres expertos en el tema.
El experto A estima que la variable puede tomar un valor mínimo de 45, un
valor más probable de 50 y un valor máximo de 70.
El experto B estima valores de 50, 65 y 90 para los mismos parámetros. El
experto C considera que los valores de esos parámetros deberían ser 50, 65 y
80. El experto D considera que los valores de esos parámetros son:
Valor 0 10 25 60 75 80 Probabilida1 6 7 8 10 7d Relativa

Sobre la base de la reputación de cada experto, usted asigna una ponderación


a cada opinión. En su ponderación le da un peso del 40% a la opinión del
experto A, y un 20% a cada uno de los otros expertos.
¿Cuál es la distribución que va a emplear para definir la aleatoriedad de esta
variable?

Ejercicio 2

Su empresa de equipamiento para industrias ha desarrollado un prototipo para


un nuevo modelo de motor eléctrico.
Los análisis de mercado preliminares han llevado a estimar un precio de
venta de 250 $/unidad. El presupuesto de gastos administrativos y de
publicidad para el primer año es de $400.000 y $600.000 respectivamente.
Los gastos de personal y de materiales, y la demanda del primer año, no se
pueden anticipar con exactitud, pero se estiman con base en las siguientes
distribuciones de probabilidad:
Costo materiales: Rango de valores entre 88 y 100 $/unidad
Demanda: Distribución normal, media 15.000 unidades/año, desviación
estándar 4.700 unidades/año.
Costo mano de obra

Probabilidad 30% 15% 40% 15% $ / Unidad 43 44 45 46 • Calcule el


resultado esperado proveniente de la incorporación de este motor eléctrico a
la línea de productos de la empresa.
• Sobre la base de un análisis de riesgo con 10.000 iteraciones, estime los
siguientes valores:
a) Resultado esperado
b) Desviación Estándar del resultado
c) Rango de dispersión de valores probable
d) Intervalo de confianza del resultado con un 95% de probabilidad
e) Probabilidad de lograr resultados mayores a $220,000, valor considerado
como Umbral Crítico de aceptación o rechazo del proyecto.
• ¿Cambiarían sus estimaciones si el análisis de riesgo se efectuara sobre la
base de 15.000 iteraciones?
• ¿Cambiarían sus estimaciones si el análisis de riesgo se efectuara sobre la
base de 20000 iteraciones?

Ejercicio 3

Usted está evaluando la posibilidad de invertir en un proyecto cuya duración


esperada es de 14 años.
El monto de la inversión inicial es de $1.600.000. Se estima que al cabo de
los 18 años los activos del proyecto tendrán un valor residual de $180.000.
Las ventas estimadas oscilan en un rango entre un valor pesimista de 70.000
unidades, un valor más probable de 100.000 unidades, y un valor optimista de
130.000 unidades por año (Distribución PERT). Para efectos prácticos, se
estima que este rango cubre un 85% de los valores que pueda tomar la
demanda.
El precio del producto puede oscilar en un rango entre 8 $/unidad como valor
pesimista, 9 $/unidad como valor más probable, y 10 $/unidad como valor
optimista. El gasto variable puede estar entre 5.85 $/unidad como valor
mínimo, 6.3 $/unidad como valor medio y 6.75 $/unidad como valor máximo.
Los gastos fijos se estima ascenderán a 160.000 $/año y se espera
incrementen en un 4% anual con una desviación de 0.5%.
El costo de oportunidad del capital es de mínimo 6% Efectivo Semestral y
máximo 13% Efectivo Anual.
• Estime el valor esperado y la variabilidad del VAN y la TIR del proyecto. •
¿Cuál es la probabilidad de que el proyecto supere el costo de oportunidad
del capital invertido?
• ¿Cambiarían sus estimaciones si las ventas del primer año cubrieran el 89%
del total de la demanda, y se fueran incrementando cada año en entre un 2.7%
y 3.5%?

Ejercicio 4

Se estima que en un proyecto las ventas estén entre 30.000 y 32.000


toneladas anuales de un producto a un precio de $1.000 la tonelada durante
los dos primeros años, entre $1.200 y $1.500 en el tercer año, y se espera un
incremento en los precios del cuarto año en adelante como mínimo del 3%,
máximo de 7% y en promedio del 5.3%, cuando el producto se haya
consolidado en el mercado. Las proyecciones de ventas muestran que a partir
del año sexto, éstas se incrementarán entre el 40% y el 48%.

El estudio técnico definió una tecnología óptima para el proyecto que


requeriría las siguientes inversiones para el volumen de 30.000 toneladas.

Terrenos: $20.000.000
Obras físicas: $50.000.000 Máquina: $30.000.000

Sin embargo, el crecimiento de la producción para satisfacer el incremento de


las ventas, requerirá comprar otra máquina de igual valor y efectuar obras
físicas por $40.000.000.

Los costos de fabricación para un volumen de hasta 40.000 toneladas anuales


son de:

Mano de obra: $150 Materiales: $200


Costos Indirectos: $80

Los costos de fabricación para un volumen después de 40.000 toneladas


anuales son de:

Mano de obra: $130 Materiales: $180


Costos Indirectos: $60

Los costos fijos de fabricación se estiman en $5.000.000. La ampliación de la


capacidad en un 40%, incrementaría estos costos $1.500.000. Los gastos de
venta variables corresponden a una comisión de 3% sobre las ventas,
mientras que los fijos ascienden a $1.500.000 anuales. El incremento de
ventas no hace que este monto varíe. Los gastos de administración serían de
$1.200.000 anuales los primeros cinco años y de $ 1.500.000 cuando se
incremente el nivel de operación.

La legislación vigente permite depreciar los activos de la siguiente forma:


Obras físicas: 10% anual Maquinaria: 20% anual
Horizonte de evaluación del proyecto: 10 Años
Inflación: Mínimo 3% y Máximo 5% efectiva anual.

Al cabo de 15 años se estima que la infraestructura física (con terrenos)


tendrá un valor comercial de $100.000.000. La maquinaria tendría un valor
de mercado de $28.000.000.

Se espera obtener un crédito para realizar las obras físicas, el cual se


amortizará a lo largo de la vida del proyecto a una tasa del 15.63% EA.
(Plantee 4 opciones de amortizar dicho crédito).

La tasa de impuesto a las utilidades es de un 33%.

• Se requiere conocer el flujo de caja del proyecto y del inversionista a


precios constantes y corrientes y decir si el proyecto es rentable o no, bajo el
criterio del VPN y la TIR (o TIRM, y otras según el caso). (Analice los
resultados).

• ¿A qué precio puede vender la tonelada del producto para que la compañía
tenga un VPN 15% mayor de lo esperado?
• Realice un análisis de sensibilidad para el VPN constante, suponiendo que
el precio por tonelada puede variar entre $1.000 y $1.800. ¿Qué se puede
decir al respecto?
• Analice todos los parámetros estudiado, para cada flujo de caja.
Ejercicio 5

Una compañía va a ingresar al mercado de los Minicomponentes y estima


que puede ofrecer máximo 10.500 unidades al año. Estudiando las
características del mercado al cual se enfrenta, encuentra que sólo puede
capturar una porción de la demanda así (siempre y cuando no entren nuevos
competidores): Para el año uno entre el 20% y el 23%, para el segundo y
tercero entre el 25% y 28%, para el cuarto entre el 32% y el 40%, y para el
quinto en delante se espera capturar entre el 50% y el 60% del total de la
demanda. Es probable que una nueva compañía entre al mercado, pero no
inmediatamente, sino posiblemente entre el año 4 y 7. Si no entra en esos
años ya no tendrá posibilidad de entrar, y si entra, no se retirará del mercado.
Si entra, el porcentaje de captura de mercado se reduce en un 12% sobre el
estimado.
La demanda en el primer año es de 22.000 minicomponentes y, según
estudios, ésta posiblemente se incremente mínimo el 2% y máximo el 5%,
con un valor más probable de 3,9%.

El precio de venta de cada unidad es de $790.000 en el primer año y se espera


que el precio tenga un incremento mínimo de 1% y máximo de 3.5% anual,
con un valor medio de 2.75%.

Los costos de fabricación de cada minicomponente son:

Mano de Obra: $290.000 con incrementos entre el 1% y 2,5% anual


Materiales: $200.000 con incrementos entre el 1,6% y 2,6% anual Costos
Indirectos: $50.000 con incrementos entre el 1% y 5% anual Otros costos
fijos de fabricación por unidad: $38.000.

Para poder fabricar los minicomponentes es necesario:

- Pagar alquiler de un local por valor de $12.000.000 anuales, valor que se


incrementa entre 1.5% y 2.3% anualmente.
- Comprar un local por valor de $200.000.000, el cual se financiará a una tasa
del 18% E.A, y se pagará en 10 cuotas iguales.
- Comprar maquinaria por valor de $1.600.000.000 en el año cero, la cual se
deprecia en 10 años, y necesita un mantenimiento anual por valor de
$49.000.000.
- Se realizan estudios por valor de $ 300.000.000.

Se espera que los gastos de administración estén entre $84.000.000 y


$96.000.000 anuales el primer año, y luego se espera que se incrementen
entre un 14.3% y un 16.4% cada año.

Tasa de impuesto a las utilidades: 33%.


El valor de salvamento del local es de $135.000.000, y el de la máquina es de
$336.000.000.
La depreciación de todos los activos se hace en línea recta a 10 años.
Realice los flujos de caja necesarios para el análisis de esta inversión. (del
proyecto y del inversionista)
Para realizar los flujos de caja suponga que el proyecto sólo dura 10 años.
• ¿Es rentable el proyecto? Justifique. ¿Cuál es la TIR esperada?
• ¿Cuál es el valor presente neto esperado si la tasa de interés de oportunidad
varía entre 18% y 22%?
• ¿A qué precio debo vender los minicomponentes cada año si deseo obtener
una TIR esperada del 68%?
• ¿Cuál es el período de recuperación de la inversión con los nuevos precios?
• Realice un análisis de inversión recuperada y valor agregado para cada
periodo.
• Realice una tabla de datos variando los precios y la TIO, ¿qué se puede
decir sobre los valores del VPN que hacen el proyecto viable?
• Analice la capacidad ociosa de la compañía, ¿qué puede usted recomendarle
a la empresa?
• Ahora suponga que existe información sobre una disminución del 75% en la
demanda de minicomponentes en el año 5 y siguientes. Como analista, usted
debe indicarle al inversionista si debe abandonar proyecto. ¿Cómo sustentaría
usted esta respuesta?

Ejercicio 6

La empresa Jugos S.A elabora anualmente entre 68.000 y 80.000 litros de


concentrado de frutas en su planta de procesamiento de pulpa de frutas, de los
cuales 20.000 son transferidos a la planta de jugos para la elaboración y venta
de 30.000 litros en caja de un litro de Tetra Brick de larga duración.

Cada planta tiene una administración propia y se lleva una contabilidad


separada para cada una.

La planta de jugos (según el contador) ha mostrado inestabilidad en su flujo


de caja, lo que ha hecho que algunos directores hayan planteado la
posibilidad de cerrar y vender sus instalaciones, máximo dentro de 9 años.
Para tomar la decisión le encargan a usted un estudio para el cual el gerente le
da los siguientes datos de la planta de procesamiento de pulpa.

Las ventas a otras empresas oscilan entre 55.000 y 60.000 Litros, a un precio
promedio de 120 el litro, teniendo en cuenta que este precio puede variar
dependiendo de la oferta y demanda del mercado; mínimo se vende a $116 y
máximo a $ 125. Para los 20.000 litros que se transfieren a la planta de jugos,
se usa un precio de transferencia interno de $ 90. Si se cierra la planta de
jugos, se estima posible vender a otras empresas entre el 45% y 50% de lo
que actualmente se transfiere, a un precio mínimo de $ 75 el litro y máximo
de $ 83. Sin embargo, deberá destinarse el 15% de este ingreso a pagar una
comisión a los vendedores.

Los costos directos, que varían proporcionalmente con la producción son


anualmente:

Mano de obra: $900.000 (Crece entre el 4% y el 7% anual), Materia Prima:


3.300.000 (Crece entre el 1% y el 1.7% anual) Suministros: 1.200.000 (Crece
entre el 1%, 1,6% y el 2.7% anual) Energía: 600.000. (Este costo se
incrementa entre el 1.5% y el 4% anual)

Otros costos indirectos de fabricación son la remuneración de supervisores


$1.200.000 anuales y la depreciación de los equipos $900.000 anuales;
además, las remuneraciones a los vendedores ascienden a $900.000 anuales.

Por otra parte, la planta de jugos presenta la siguiente información para un


año normal:
Las ventas están entre $18.000.000 y $22.000.000. Los costos directos de
esta planta alcanzan anualmente los siguientes valores:

Mano de obra: $ 6.600.000 (Crece entre el 4% y el 7% anual), Concentrado


de frutas $1.800.000 (Crece entre el 1% y el 1.7% anual), Otras materias
primas $2.700.000, Suministros: $1.200.000, Energía: $1.500.000 (Este costo
se incrementa entre el 1.5% y el 4% anual).

Otros costos indirectos son de $ 750.000 (Crece entre el 4% y el 7% anual),


$1.800.000 la depreciación. Los gastos de administración y ventas son de
$1.380.000. Los costos de administración general ascienden a $1.350.000
anuales y se distribuyen entre ambas plantas en función a los montos de los
ingresos por venta. Si se cerrase la planta de jugos, se estima que este costo
podría reducirse a $ 750.000.

La planta de jugos tuvo un valor de adquisición de $ 9.000.000. Su


depreciación acumulada asciende a $5.400.000. Al cerrarse se podría vender
en $ 1.800.000. Ambas plantas tienen una vida útil esperada de 15 años más
(a partir de este hoy, incluyendo los dos de depreciación que hacen falta), al
cabo de las cuales los valores de desecho son cero.
Si se vende la planta de jugos, la compañía tiene la opción de reinvertir ese
dinero conformando un portafolio con las 5 siguientes empresas y se supone
que el rendimiento permanecerá constante. (Se anexa matriz de rentabilidad
mensual).

Datos Mensuales Enero


Febrero
Marzo
Abril
Mayo
Junio
Julio
Agosto
Septiembre
Octubre
Noviembre
Diciembre

Empresa A Empresa B Empresa C Empresa D Empresa E


0.24% 0.04% 0.43% 0.66% 0.23%
0.10% 0.10% 0.70% 0.83% 0.35%
0.61% 0.29% 0.53% 0.26% 0.85%
0.96% 0.61% 0.83% 0.32% 0.26%
0.28% 0.57% 0.65% 0.96% 0.23%
0.86% 0.74% 0.91% 0.41% 0.42%
0.60% 0.51% 0.57% 0.83% 0.32%
0.89% 0.09% 0.81% 0.77% 0.68%
0.86% 0.82% 0.00% 0.57% 0.57%
0.99% 0.21% 0.86% 0.64% 0.51%
0.99% 1.00% 0.46% 0.65% 0.20%
0.76% 0.28% 0.43% 0.22% 0.69%

Con esta información se le pide que elabore un informe (aplicando todos los
conocimientos adquiridos en el texto) para ayudar al director a tomar la
decisión al respecto.
Ejercicio No 7

“Suponga que usted está considerando comprar una empresa. El flujo de caja
de de dicha compañía es muy incierto, y depende de parámetros como el
crecimiento de las ventas, el margen de utilidades, los gastos de
administración y ventas, las variaciones del capital de trabajo, las
obligaciones, y el valor terminal. Los dueños de la empresa solicitan 20
millones de dólares y le han facilitado la siguiente información para que tome
una decisión:

Ingresos anuales por ventas: $40 millones Costos de la mercancía vendida:


$28 millones. Gastos de administración y ventas: $10 millones Capital de
trabajo: $4 millones
Tasa de impuestos 34%
Utilizaremos una tasa de descuento del 12%.

¿Se debe o no comprar la empresa?


Se necesita proyectar 7 años y luego utilizar una tasa de crecimiento futuro de
ahí en adelante, el cual estima el valor terminal de la empresa.

A continuación se presentan otros datos requeridos para el análisis:

Crecimiento en Ventas:
• Durante los años 1 y 2 se tiene un 70% de probabilidad de que el
crecimiento esté entre un 3% y un 6%, y un 30% de probabilidad que esté
entre 0% y 3%. • Durante el año 3 se tiene un 40% de probabilidad de que el
crecimiento esté

entre el 3% y el 6%, y el 60% de que las ventas decrezcan un 3% o aumenten


un 3%.

• Durante los años 4 al 7 existe un 10% de probabilidad de crecimiento entre


un 6% y un 12%, un 40% de probabilidad de que esté entre un 3% y 6%, y un
50% que disminuya un 3% y crezca un 3%.

Margen de Utilidades:
• En caso en que las ventas disminuyan, se tiene un 60% de probabilidades de
que el margen de utilidades esté entre 29% y 32%, un 30% de probabilidades
de que esté entre un 32% y 34%, y un 10% que esté entre 34% y 36%

• En caso en que las ventas aumenten, se tiene un 15% de probabilidad de que


el margen esté entre un 29% y un 32%, un 50% que esté ente un 32% y un
34%, y un 35% que esté entre 34% y 36%.

Gastos de Administración y Ventas

• Existe un 30% de probabilidades de que la tasa de crecimiento de los gastos


de administración y ventas oscilen entre un 2% o se incrementen en un 1%.
• 50% de probabilidades de que el crecimiento esté entre 1% y 4%.
• 20% de que el crecimiento del gasto esté entre 4% y 7%.

Variaciones en el Capital de Trabajo

En el caso en que las ventas crezcan, el capital de trabajo será el 15% de lo


que se incrementen las ventas entre un año y otro.
En caso en que las ventas disminuyan, existe un 40% de posibilidades de que
el cambio en el capital de trabajo sea del 15%, y el restante 60% de
probabilidad de que esté entre 10% y 15% del cambio en las ventas.

Obligaciones
Durante el año 2 hay un 5% de probabilidad de incurrir en obligaciones entre
2 y 3 millones.
Si no hay obligaciones en el año 2, entonces en el año 3 hay un 5% de
probabilidades de que las obligaciones estén entre 2 y 3 millones. Si hay
obligaciones en el año 2, entonces no abran obligaciones en el año 3.

Valor Terminal
Luego del año 7, hay un 15% de probabilidad de que el crecimiento del Flujo
de Caja Libre oscile entre 0% y 3%, un 60% de opciones que esté entre un
3% y 6%, y un 25% de que caiga entre 6% y 9%
(NOTA El flujo de caja Terminal se calcula como una anualidad infinita, así:

” Tomado, traducido, y adaptado de “Financial Models using Simulation and


Optimazation” página 225 (Winston, 2008).
Ejercicio No 8

Un inversionista desea analizar la viabilidad de invertir en un proyecto y lo


contrata a usted como gerente de proyectos para tomar la decisión. Para ello
es necesario realizar una evaluación financiera del nuevo proyecto y decidir
si es conveniente financieramente o no.

Se cuenta con información del estado de resultados y el plan de negocios


proyectado para 5 años. A continuación se presentan los datos para la
proyección del estado de resultados.

Se esperan unos ingresos por ventas entre 15.000 y 18.000 millones de pesos
anuales siempre y cuando no entren competidores.

Los costos de producción se calculan entre 3.000 y 5.000 millones de pesos,


con un valor más probable de 4.660 millones sin competidores. Los gastos de
administración y gastos de ventas se estiman en 500 y 700 millones de pesos
respectivamente y se espera que crezcan entre 1% y 3.4% anual. Si entra
algún competidor, estos costos se reducen en 20%.

En el año inicial es necesario comprar una máquina por valor de 10.000


millones de pesos, la cual se deprecia a 10 años a línea recta y su valor
residual es 0. Al cabo de 5 años esta máquina se puede vender por un valor
entre el 8% y el 15% más de su valor en libros.

Como información adicional se sabe que: Los ingresos se deben a la venta de


un único producto, del cual se producen 300.000 unidades a un precio
variable y se supone que se trabaja a una capacidad instalada inicial sin
competidores del 100%.

Los estudios de mercadeo que se han realizado han arrojado como conclusión
que la empresa resultante del proyecto realizará solo el 80% de sus ventas de
contado y el 20% al año siguiente. Por otra parte, se sabe que los proveedores
le venden el 40% con un plazo de un año (Esta consideración tiene que ver
solamente con los costos de producción). La anterior información es válida
sin importar si entra algún competidor o no.

Es posible realizar un préstamo por valor de $5.000 millones de pesos a una


tasa del 1,76% mensual, pagadero en cuotas fijas anuales e iguales durante 5
años.

Para el caso de la entrada de competidores se tiene que hay tres compañías


que pueden competir en el mercado. Al inicio de cada año, cualquier
candidato que no haya entrado en el mercado tiene un 40% de probabilidad
de entrar. El año después de la entrada de uno o varios competidores, la
participación de XYZ se reduce en un 20% por cada competidor nuevo. Así,
si durante el Año 1 ingresan dos competidores nuevos, la participación de
XYZ se verá reducida por un 40%. (Para modelar la entrada de competidores
use la función distribución binomial. Esto se logra en @RISK usando la
función =RISKBinomial (n,p) que genera n muestras, cada una un éxito o
fracaso, teniendo una probabilidad p de éxito. El valor de esta función es
igual al número de éxitos).

Si consideramos como “éxito” el hecho que un competidor entre al mercado,


la Formula =RISKBinomial(2,.4) simulará el número de nuevos
competidores en un año, cuando aún quedan dos competidores por entrar. Si
los tres competidores ya han entrado, no ingresa ninguno más.

Usted es la persona encargada de evaluar dicha situación y definir si se


invierte o no el dinero, teniendo en cuenta si se realiza el préstamo o no y si
entra algún competidor o no entra ninguno.

La tasa impositiva es del 33% (si la utilidad es negativa no se paga


impuestos).
Construya el flujo de caja del proyecto y del inversionista.

Presente un informe donde soporte todas sus respuestas. El informe debe


contener análisis de indicadores tales como: VPN, TIR, RBC, VAUE, IRVA,
PRI, Coeficiente de Pearson, coeficiente de asimetría, coeficiente de curtosis,
árbol de tornado, análisis de curva S, probabilidad de pérdida, intervalo de
confianza al 90% y al 95%, entre otros.

Realice un análisis de sensibilidad a los indicadores más importantes del flujo


de caja.
¿Cuáles deben ser los precios anuales para que se cumplan las anteriores
condiciones? ¿Qué recomendaciones daría al inversionista?
Desarrolle los siguientes ejercicios de forma determinística y
luego proponga diferentes funciones distribución para cada
una de las variables. Analice las diferencias.

Ejercicio No 9

Un proyecto requiere de una inversión de $1.000.000, de los cuales los socios


aportaran el 60% y el resto con un crédito con un interés del 15.75% anual,
pagadero en cinco cuotas al final de cada período más interés de los saldos.

La demanda inicial se estima en 25.500 unidades, y se espera que esta crezca


en un 5%, 7.5%, 11%, 5.2% para los períodos 2 al 5 respectivamente. El
costo unitario es de $10.000 y se incrementará de acuerdo a la inflación
estimada en los períodos 2 al 5, así: 4.5%, 4.0%, 3.7%, y 3.0%.
Los gastos de administración para el período 1 son de $57.000.000, los gastos
de ventas sin incluir depreciaciones, amortizaciones y provisiones se estiman
en un 8% de las ventas.

La inversión inicial:
Terreno $200.000.000
Edificio $250.000.000
Maquinaria $350.000.000
Preoperativos $50.000.000 Capital de trabajo $150.000.000

Todo lo que se produce se vende de contado. Depreciaciones línea recta a 5


años
Los preoperativos se difieren a 5 años A qué precio se debe vender cada
unidad del producto de forma tal que el inversionista obtenga un VPN de
$185.000.000
Los activos se venden al final de la proyección por el 20% de su costo inicial
La tasa de interés de oportunidad es del 22% anual
Elabore el flujo de caja del inversionista y analice con todos los indicadores
de evaluación financiera. (VPN, TIR, RBC, CAUE, PRI, IRVA)

Ejercicio No 10

Un grupo de inversionistas está interesado en adelantar un proyecto en donde


se pretende instalar una pequeña planta procesadora de pulpa de mora, dada
la abundancia de la fruta en la región y la disponibilidad de mano de obra.

Un estudio preliminar arrojó los siguientes resultados:

Al ser una experiencia nueva, se ha decidido limitar el proyecto a 6 años: En


el primer año se elaborarán los estudios complementarios y se negociarán los
equipos. El proyecto funcionará durante cuatro años ya que en el siguiente se
liquidará. Se estima que el valor de salvamento de los equipos será del 30%
de su valor inicial.

La capacidad instalada total se ha calculado en 500 toneladas por año. El


precio de venta en el mercado es de $100.000 por tonelada.
El costo estimado para procesar una tonelada de fruta es de $80.000 de los
cuales un 85% es costo variable y el resto fijo.
Las inversiones requeridas son:
Equipo: $70.000.000
Estudios y gastos de organización y montaje: $ 4’000.000.
Capital de trabajo: $3’000.000.

Los inversionistas aportarán $50.000.000 y las necesidades adicionales de


capital se cubrirán con un crédito de $ 27.000.000, pagaderos en cuatro años,
(dentro de los cuales el primer año es de gracia), mediante cuotas de
amortización constante e intereses sobre saldos, la tasa de interés es del 35%
anual. El crédito se recibirá al final del primer año.

La tasa impositiva para esta industria es del 33% anual. Los planes de
producción y ventas están dados por la utilización de la capacidad instalada
en un 80% para el primer año de funcionamiento; 90% para el segundo y
100% de allí en adelante.

Los activos tangibles se depreciarán en cuatro años y los intangibles se


difieren a cinco años.
Se requiere conocer el flujo de caja del inversionista y decir si el proyecto es
rentable o no, bajo el criterio del VPN.
Ejercicio No 11

Existe una compañía que va a entrar al mercado de los computadores y


estima que puede ofrecer 10.000 al año. Estudiando las características del
mercado al cual se enfrenta, ve que sólo puede capturar una porción de la
demanda así: para el año uno 17%, el segundo y tercero 24%, el cuarto 32% y
el quinto y sexto ganan participación subiendo a 56% del total de la demanda.

La demanda en el primer año es de 18.000 computadores y se incrementa


anualmente en 2%
El precio de venta de cada unidad es de $1.850.000 en el primer año y se
reduce anualmente en 15 %
Para poder fabricar los computadores se necesita:
Pagar alquiler de un local por valor de $12.000.000 anuales, valor que se
incrementa 1.5% anual. (Este pago se hace vencido)
Comprar Local por valor de $200.000.000.
Comprar maquinaria por valor de $1.600.000.000 en el año cero, la cual se
deprecia en 5 años.
Los costos de fabricación de cada computador son:
Mano de obra: $190.000
Materiales: $1.800.000
Costos Indirectos: $50.000
Costos fijos de fabricación por unidad: $30.000.
Gastos de administración $7.000.000 mensuales durante los primeros 2 años,
y luego se incrementan el 14.3% cada año.
Tasa de impuesto a las utilidades: 33%
Tasa de inflación 5,3% anual
El horizonte de evaluación del proyecto es de 10 años.
¿Cuál es el valor presente neto si la tasa de interés del mercado es de 20%?
¿Cuál es la Tasa Interna de Retorno?
¿Es rentable el proyecto? Sí, ¿Por qué? No, ¿Por qué?
A qué precio se deben vender los computadores si se desea una TIR del 65%.

Ejercicio No 12

En un proyecto se estima posible vender 30.000 toneladas anuales de un


producto a $1.000 la tonelada durante los dos primeros años y a $1.200 a
partir del tercer año, cuando el producto se haya consolidado en el mercado.
Las proyecciones de ventas muestran que a partir del año sexto, estas se
incrementaran en 40%.
El estudio técnico definió una tecnología óptima para el proyecto que
requeriría las siguientes inversiones para el volumen de 30.000 toneladas.
Terrenos: $ 20.000.000
Obras físicas: $ 50.000.000
Maquinaria: $ 30.000.000
Sin embargo, el crecimiento de la producción para satisfacer el incremento de
las ventas, requeriría duplicar la inversión en maquinaria y efectuara obras
físicas por $40.000.000.
Los costos de fabricación para un volumen de hasta 40.000 toneladas anuales
son de:
Mano de obra: $ 150
Materiales: $ 200
Costos Indirectos: $ 80
Sobre este nivel, es posible lograr descuentos por volumen en la compra de
materiales equivalentes en 10%.
Los costos fijos de fabricación se estiman en $5.000.000 sin incluir
depreciación. La ampliación de la capacidad en un 40%, hará que estos
costos se incrementen en $ 1.500.000. Los gastos de venta variables
corresponden a una comisión de 3% sobre las ventas, mientras que los fijos
ascienden a $1.500.000 anuales. El incremento de ventas no variará este
monto.
Los gastos de administración alcanzarían a $1.200.000 anuales los primeros
cinco años y a $ 1.500.000 cuando se incremente el nivel de operación.

La legislación vigente permite depreciar los activos de la siguiente forma:


Obras físicas: 5% anual
Maquinaria: 10% anual
Al cabo de 10 años se estima que la infraestructura física (con terrenos)
tendrá un valor comercial de $120.000.000. La maquinaria tendría un valor
de mercado de $ 28.000.000.
La tasa de impuesto a las utilidades es de un 33%
Confeccione el flujo de caja y evalúe el proyecto.

Ejercicio No 13
En el estudio de la viabilidad económica de un proyecto se identificaron los
siguientes ítems de inversión:
Terrenos $1.700.000
Construcciones $3.500.000
Equipos $1.000.000
Capital de Trabajo $ 600.000

De las inversiones totales $3.500.000 deberán ser financiados por un banco


que exige se le cancele el préstamo en 4 pagos anuales e iguales de capital e
intereses sobre saldos con una tasa de interés del 18% E.A. El proyecto
producirá cierto artículo y su capacidad máxima de producción es de 19.000
unidades al año, pero el primer año sólo estará en capacidad de producir el
60%, el segundo el 70% y de allí en adelante aumentará un 10% hasta
completar la máxima capacidad en el último año (año 5).

El estudio de mercado determinó que cada artículo puede venderse en $700


durante los dos primeros años y los últimos 3 años en $900. Los costos de
producción se estiman en el equivalente al 70% de los ingresos totales de
cada año. La reglamentación vigente establece que las tasas de depreciación
son las siguientes: construcciones 5% anual y los equipos 25% anual. En el
último año los equipos pueden tener un valor de $700.000 y las
construcciones incluyendo los terrenos un valor de $2.000.000. Suponiendo
una tasa de impuestos del 33% anual:

Elaborar el flujo de caja a precios constantes para evaluar el proyecto, si la


tasa de inflación es del 3% anual.
Evalúe el proyecto por medio del criterio del VPN suponiendo una tasa de
interés de oportunidad del inversionista del 22% E.A. Analice el resultado.
Calcule la tasa interna de retorno (TIR) y analice.

Ejercicio No 14

Una empresa desea invertir en un equipo que tiene un costo inicial de $ 200
millones y una vida útil de 7 años, al cabo de los cuales su valor de desecho o
salvamento es de $65 millones. Los costos de operación y mantenimiento
anual ascienden a $25 millones al año y se espera que los ingresos por la
operación del equipo asciendan a $ 130 millones por año.
El equipo se depreciará mediante el método de suma de dígitos.
Bajo esta situación:
¿Qué le puede usted sugerir a esta empresa?
¿Qué se puede decir si en vez de suma de dígitos, la depreciación se hace por
línea recta?

Ejercicio No 15

Un proyecto requiere una inversión de $380 millones. De éstos son


necesarios $250 millones para la adquisición de un equipo, un vehículo y
muebles de oficina. El resto de la inversión se utiliza en gastos preoperativos
por un costo $20 millones y para la compra de un local pequeño por $110
millones, este valor incluye adecuaciones mínimas para su normal
funcionamiento.

El proyecto tiene una vida útil 6 años y todas las inversiones se realizan en el
año cero del proyecto.

Al final del año 6 el equipo puede ser vendido por $50 millones, su precio de
adquisición fue de $150; y el vehículo por $35 millones, su precio de
adquisición fue de $60 millones. Los muebles de oficina tienen un valor de
salvamento igual a su valor en libros. Se calcula que el local puede venderse
por $150 millones de pesos.

Acorde con el sistema tributario en Colombia, el equipo lo podemos


depreciar a través de método suma de dígitos de los años y, el vehículo, los
muebles y el local por el método lineal.
La inversión se financia en un 40% con capital propio y 60% con un
préstamo, el cual se amortiza de manera constante cada año a partir del
primer año. Los intereses se pagan sobre saldos a una tasa de interés del 23%
ATV.

Las ventas proyectadas para los tres primeros años son de $ 160 millones, y
se espera que para los demás años, se incrementen en un 18% cada año con
respecto al anterior.
Sin incluir gastos financieros ni depreciación, los costos variables, para el
primer año, representan un 15% de las ventas y aumentan, para los demás
años, en la misma proporción que éstas. Los costos fijos de producción son
de $20 millones y los gastos fijos de administración y ventas de $12 millones.

Con una tasa de oportunidad del inversionista del 30% y una tasa impositiva
del 33% calcular:
Flujo de caja del inversionista: VPN, TIR, TIRM, RBC, PRI.

Flujo de caja del proyecto: VPN, TIR, TIRM, RBC, PRI.

PROBLEMAS PROPUESTOS DE COSTOS


Ejercicio No16

Una compañía fabrica alimentos concentrados para animales y utiliza los


procesos de mezcla y empaque para su producción. Con la información de
Abril que aparece a continuación, responda las preguntas que aparecen más
adelante.

• La política de precio de venta es un 75% más que el costo de producción


unitario.
• Se vende todo lo que la empresa está en capacidad de producir en el turno
actual.
• El salario básico del vendedor es de $1.000.000
• Comisión de ventas es 1.5% del precio de venta
• El valor del transporte para entregar una unidad al cliente final es de $2.500
• La depreciación del edificio administrativo es $500.000 mensuales. • El
salario básico del gerente de ventas es de $3.000.000 mensuales.
• El salario del personal de calidad del proceso de mezcla es $1.500.000
mensuales
• En Abril del 2012 se utilizaron en el proceso de mezcla los siguientes
elementos:
- Mano de obra: Turno Nocturno.
- 2 operarios a quienes se les paga el salario mínimo con todas las
prestaciones de ley
- 1 operario a quien se le paga a destajo a un valor de $10.000 por unidad
fabricada más sus prestaciones sociales.

- El tiempo empleado por los 3 operarios para la fabricación de una unidad es


de 2.5 horas en promedio y se les paga una dotación al año de $240.000. Para
la fabricación de una unidad se emplean los 3 operarios al mismo tiempo.

- Días laborables 23, y 7 días de descanso remunerado


- El mantenimiento por unidad fabricada es de $6.000
- La capacidad normal está dada por la mano de obra
- El costo de la energía por unidad: $2.500
- Depreciación total de los equipos es con el método de la línea recta con una
vida útil de 5 años y un valor de los equipos de $30.000.000
- Cada empleado trabaja 15 horas extras diurnas durante el mes.

- Los materiales utilizados tienen un nivel de desperdicio del 12% y se


consumen 45 kilogramos por unidad cuando se le compra a un proveedor en
Santa Marta a un valor de $700 por kilo. En caso de comprarle a un
proveedor en Cartagena se consumen 44.5 kilogramos por unidad a un precio
de $850 por kilo con un nivel de desperdicio del 15%.

En Abril se utilizaron en el proceso de empaque los siguientes elementos:


El valor de la mano de obra directa fue el equivalente al valor del salario
mínimo de un trabajador con todas las prestaciones de ley.
- Costos primos por valor de $5.000.000
- Costos de conversión por valor de $4.300.000
Preguntas para la solución determinística: Recuerde que todo lo que la
empresa esté en capacidad de producir se vende.

1. ¿A cuál de los dos proveedores se le deben comprar los materiales?


Sustente con los cálculos respectivos
2. Identificar cuáles son los costos fijos, los gastos fijos, los costos variables
y los gastos variables.
3. Identificar y calcular los costos de producción y los gastos de operación
4. ¿Cuál es el costo de producción unitario?
5. Presentar y analizar el estado del costo del producto manufacturado y
vendido
6. Elaborar el estado de resultados de la compañía y analizar los resultados
obtenidos.
7. ¿Considera pertinente la política de precios establecida por la compañía?
8. Analizar el efecto sobre las utilidades operativas del negocio ante un
cambio en el nivel de desperdicio de las materias primas y el precio al que
sean compradas al proveedor seleccionado, de acuerdo con los valores
ofrecidos a continuación y determine la zona en la que se obtiene una mayor
utilidad operativa con respecto a la situación inicial .
a. Nivel de desperdicio: 5%, 10%, 15% y 20%
b. Precio de compra: $400, $500, $600, $700
9. ¿Valdría la pena invertir $10.000.000 en un equipo el cual reduciría los
tiempos por unidad entre un 10% y un 20%, el cual tendría una vida útil de 5
años, con lo cual se podrían aumentar los niveles de producción de la
empresa y vender estas unidades adicionales a un precio inferior en un 20%
de la política establecida?
10. ¿Cuál sería el mínimo precio de venta al que se podrían vender estas
unidades adicionales con el fin de que se justifique invertir en el equipo?

Para modelar el problema de forma probabilística se deben considerar el


comportamiento de las siguientes variables:

- El precio de venta se espera que oscile entre un 65% y un 85% del costo de
producción unitario.
- Las comisiones de ventas cambian con respecto al tipo de clientes y se
espera que fluctúen con un valor mínimo de 1%, un valor máximo del 3%,
con un valor más probable de 1,5%.
- El tiempo empleado por los tres operarios para la fabricación de una unidad
en el proceso de mezcla depende de la calidad de materia prima utilizada y
del ajuste de las máquinas, se tiene un valor optimista de 2,3 horas por
unidad, un valor medio de 2,8 y un valor pesimista de 3 horas.
- El mantenimiento requerido por cada unidad fabricada depende de los ciclos
productivos y se espera que en promedio sea de $6.000 por unidad con una
desviación estándar de $200 pesos por unidad.
- El costo de energía requerido por unidad depende del comportamiento de
los precios de las empresas que la suministran y del horario en que se utilicen
los equipos. Un estudio técnico ha arrojado que el costo mínimo por unidad
es de $2.300 y el máximo de $2.700
- Históricamente los empleados han trabajo entre 10 y 18 horas extras diurnas
durante el mes.
- Los desperdicios de los materiales utilizados con el proveedor de Santa
Marta oscilan entre un 9% y un 14%.

Pregunta:
Con las cifra anteriores de deben responder las preguntas 3, 4, 5,6,9 y 10
en términos probabilísticos.
Ejercicio No 17
Una empresa está analizando la posibilidad de tercerizar los servicios de
atención de llamadas telefónicas. Para ello dos proveedores ofrecen las
siguientes alternativas:
• Proveedor 1: ofrece una tarifa de $200 el minuto
• Proveedor 2: ofrece una tarifa de $240 el minuto con una promoción de
primer minuto de llamada gratis.

Actualmente la empresa tiene una infraestructura propia para atender sus


llamadas telefónicas. Tiene 10 personas dedicadas de manera exclusiva a esta
operación, a quienes se paga un salario de $600.000 mensuales a cada uno,
con las prestaciones sociales de ley y reciben una dotación de $360.000 al
año por persona. Adicionalmente se les paga una bonificación de $50 por
llamada telefónica atendida. El turno de trabajo comprende de 8 horas al día
durante los 22 días laborables del mes. En caso de que se requieran horas
extras serán diurnas. La depreciación mensual de los equipos es de
$1.000.000, el arriendo mensual es de $2.000.000, el valor de otros insumos
mensuales requeridos para la operación es de $300.000 y la energía mensual
consumida $250.000.

El servicio telefónico se paga a una tarifa de $60 por minuto. Mensualmente


se reciben 25.000 llamadas telefónicas con una duración promedio por
llamada de 5 minutos.
Preguntas

• ¿Cuál de las alternativas resulta atractiva para la compañía? Sustente con


los cálculos respectivos.
• ¿Valdría la pena en la alternativa de recursos propios contratar una persona
adicional con el fin de disminuir el número de horas extras requeridas?
• ¿Qué pasa si se contratan dos personas, cambia la decisión?
• ¿A partir de qué número de llamadas telefónicas sería conveniente contratar
solamente una persona adicional en la alternativa de recursos propios?
• En el caso de que se tengan solamente 10 personas en la operación, analice
el impacto que tendría una variación en los tiempos promedio por llamada
telefónica entre 4.5 minutos y 6 minutos.¿ Cuál de las alternativas le resulta
atractiva a la compañía?
• Aceptaría una tabla de precios (tarifa por minuto) propuesta por el
proveedor 1 para un número de llamadas entre 24.000 y 30.000, en donde sea
mejor contratar los servicios con este proveedor. Se ofrece un descuento de
$10 por minuto sobre el precio inicialmente propuesto por cada incremento
de 2.000 llamadas telefónicas a partir de 24.000.

Pregunta para resolver el problema de forma probabilística:

• ¿Qué implicaciones tiene para la empresa si el número de llamadas


mensuales que se reciben fluctúan entre 20.000 y 30.000 y si la duración de
ellas oscila entre 3 y 7 minutos?

Ejercicio No 18
Empresa de Montajes

Una empresa de montajes logísticos ofrece 3 tipos de servicios. El tipo A


tiene un precio de venta de $4.000.000 por montaje, el tipo B $6.000.000 y el
tipo C, dada su complejidad y tamaño un valor de $13.000.000.
En cada montaje se utilizan insumos, personal, energía, servicios
subcontratados y depreciación de los equipos, de acuerdo con el número de
montajes realizados, así:
Tipo A Tipo B Tipo C Unidad

Insumos
directos
Mano de obra
directa
300.000,00 400.000,00 600.000,00 $/montaje

20.000,00 25.000,00 40.000,00 $/hora


Energía

Servicios
subcontratados
Depreciación
equipos
20.000,00 18.000,00 22.000,00 $/montaje

30.000,00 35.000,00 32.000,00 $/montaje


10.000,00 10.000,00 10.000,00 $/montaje
En la realización de un montaje tipo A se emplean 60 horas, en uno tipo B
son 90 horas y en un montaje tipo C se utilizan 120 horas.
La empresa estima realizar al mes 5 montajes tipo A, 6 tipo B y 7 tipo C.
El valor mensual del arriendo de las oficinas administrativas es $6.000.000,
la nómina del personal administrativo $5.000.000 más las prestaciones
sociales, la depreciación de las oficinas administrativas $1.000.000 y a los
vendedores se les paga un salario básico de $800.000 más las prestaciones
sociales, con una comisión de ventas del 3% para los montajes tipo A, 4%
para los tipo B y 5% para los tipo C. El factor prestacional de la compañía es
del 80%.

Actualmente la empresa tiene 12 personas dedicadas exclusivamente a los


servicios de montaje, quienes laboran 22 días al mes con una disponibilidad
diaria de 7.5 horas.
Con la información anterior:

• Construya y analice el estado de resultados por costeo variable para los


montajes estimados.
• Para la mezcla de ventas estimada, determine el punto de equilibrio
operacional y construya el estado de resultados por costeo variable para ese
nivel de ventas.
• Calcule e interprete el margen de contribución unitario y el coeficiente de
contribución unitario de cada montaje, el margen de seguridad y el grado de
apalancamiento de la compañía.
• La empresa está analizando la posibilidad de invertir en unos nuevos
equipos, con lo cual las horas de montaje requeridas para los tipo C
disminuirían un 10%. Esta inversión incrementa las cifras fijas en
$10.000.000 al mes. Con esto se estima que las ventas de este tipo de
montajes sean el doble al mes. En caso de que se requieran horas extras se
pagarán a $60.000 hora ya incluidas todas las prestaciones de ley. Determine
si se justifica realizar la inversión en los equipos.
• En caso de invertir en el equipo analice los siguientes escenarios y
determine las recomendaciones:
Tipo C Escenario Nro. 1 2 3
Pvu ($/montaje) 15.000.000,00 16.000.000,00 10.000.000,00
Tiempos montaje (horas/montaje) 112,00 110,00 108,00 Comisión 3% 6% 3%
Número de montajes al mes (montajes) 12,00 11,00 18,00
Para modelar el problema de forma probabilística se deben considerar el
comportamiento de las siguientes variables:

• Los precios de los insumos directos pueden variar de acuerdo con las
condiciones del mercado. Para el tipo A podrían oscilar entre $280.000 y
$320.000, para el tipo B entre $370.000 y $410.000 y para el tipo C entre
$590.000 y $630.000.

• Los tiempos de cada montaje dependen de su nivel de complejidad y del


tipo de cliente a quien se preste el servicio. Se espera que un montaje tipo A
dure mínimo 55 horas, máximo 64, con un valor más probable de 60 horas. El
montaje tipo B se espera que dure entre 85 y 95 horas. El montaje tipo C se
espera que requiera mínimo 100 horas y máximo 130 horas.

• La proyección del número de montajes al mes es entre 4 y 7 para los tipo A,


5 y 8 tipo B y 6 y 10 tipo C.
• Se espera que la disponibilidad diaria de los trabajadores esté entre 6 y 9
horas.

Con la información anterior se deben responder probabilísticamente las tres


primeras preguntas
.

BIBLIOGRAFÍA
Agudelo R., D. A., & Fernández G, A. F. (2000). Elementos básicos de
matemáticas financieras . Medellín: CARGRAPHICS S. A.
Arango Lemoine, C. (2000). Reconfiguración de alimentadores para
balanceo de cargas. Manizales: Universidad Nacional de Colombia.
Baca Currea, G. (2005). Ingeniería Económica . Bogotá: Fondo Educativo
Panamericano.
Berenson, M. L., & Levine, D. M. (1996). Estadística básica en
Administración: Conceptos y Aplicaciones. México: Prentice Hall
Hispanoamericana.

Berenstein, M. (s.f.). EmorendedoresNews. Recuperado el 13 de Mayo de


2010, de http://www.emprendedoresnews.com/tips/creatividad/innovacion-
incremental%C2%BFyo-innovacion-radical.html

Brand, S. O. (1999). Diccionario de Economía . Bogotá: Plaza & Janés.


Brealey, R. A., C., M. S., & Marcus, A. J. (2007). Fundamentos de Finanzas
Corporativas. Madrid: McGraw-Hill.
Canavos, G. C. (1987 ). Probabilidad y Estadística; aplicaciones y métodos .
México: McgrawHill.
Carrión Maroto, J. (2007). Estrategia: De la visión a la acción . España:
ESIC .
Cerrolaza, M., & Annicchiarico, W. (1996). Algoritmos de optimización
estructural basados en simulación genetica. Caracas: Universidad Central de
Venezuela .
Chao, L. L. (1993). Estadística para las ciencias administrativas. Santafé de
Bogota: McgrawHill.
Chou, Y.-L. (1972). Análisis Estadístico . México : Interamericana.
Coss Bu, R. (1994). Simulacion: un enfoque practico. México: Limusa.
Dumrauf, G. L. (2003). Finanzas corporativas . Grupo Guía : Buenos Aires .
Estupiñán Gaitan, R., & Estupiñán Gaitan, O. (2006). Análisis Financiero y
de Gestión. Bogotá: Ecoe Ediciones .
Evans, J. R., & Olson, D. L. (2002). Introduction to Simulation and Risk
Analysis . Upper Saddle River : Prentice Hall.
García S., O. L. (1999). Administración financiera, Fundamentos y
aplicaciones . Cali: Prensa Moderna Impresores S.A. .
Gary, C. F., & Larson, E. W. (2009). Administración de Proyectos. México
D.F.: McGraw-Hill. Gido, J., & Clements, J. P. (2007). Administración
exitosa de proyectos . México: Thomson Editores .
Gujarati, D. (1997). Econometría Básica. Santafé De Bogotá : Mcgraw-Hill .
Hernández Hernández, A., Hernández Villalobos, A., & Hernández Suárez,
A. (2005). Formulación y Evaluación de proyectos de inversión. México:
Thomson Editores.
Levin, R. I., & Rubin, D. S. (2004 ). Estadística para Administración y
Economía . México: Pearson Educacion .
LLedó, P., & Rivarola, G. (2007). Gestión de Proyectos. Buenos Aires:
Pearson Education.
Meigs, R. F., Meigs, M. A., Battner, M., & Whittington. (1998).
Contabilidad Las bases para decisiones gerenciales. Santa fé de Bogotá:
McGraw-Hill.
Mendenhall, W. (1990). Estadística para Administradores . México : Grupo
Editorial Iberoamerica .
Mills, R. L. (1980). Estadística para Economía y Administración. Bogotá:
Mcgraw-Hill Latinoamericana.
Milton, J. S., & Arnold, J. C. (2004). Probabilidad Y Estadística . México:
Mcgraw Hill .
Mokate, K. M. (2004). Evaluación financiera de proyectos de inversión .
Bogotá D.C.: Alfaomega Colombiana .
Newbold, P., Carlson, W. L., & Thorne, B. (2008). Estadística para
Administración y Economía . Madrid: Pearson Educacion .
Romero Romero, E. (2008). Plan Único de Cuentas. Bogotá: Ecoe Ediciones.
Rosillo, J. (2008). Formulación y Evaluación de Proyectos de Inversión.
Bogota, D.C. : Cengage Learning .
Sapag Chaín, N. (2007). Proyectos de inversión Formulación y evaluación .
México : Pearson.
Sapag Chain, N., & Sapag Chain, R. (1998). Preparación y Evaluación de
Proyectos . Santafé de Bogotá D.C. : McGraw-Hill .
Toro López, F. J. (2009). Proyectos planeación y control Project-Excel .
Bogotá: Ecoe Ediciones.
Vélez Pareja, I. (2002). Herraminetas para el análisis de la rentabilidad.
Bogotá: ALFAOMEGA.
Webster, A. L. (2000). Estadística aplicada a los negocios y la economía.
Santafé De Bogotá : Mcgraw-Hill .
Winston, W. L. (2008). Financial Models using Simulation and
Optimazation. New York: Palisade Corporation.

Вам также может понравиться