Minimización del Valor en Riesgo VaR como estrategia de inversión

La presente memoria tiene por objetivo principal, implementar un algoritmo y desarrollar un software, que sirva de complemento a las metodologías usadas hoy en día para la toma de decisiones de inversión, basándose en la minimización del Value at Risk (VaR) por medio de programación lineal, lo cual es factible al usar el Conditional Value at Risk (CVaR) como unidad de medida de riesgo a optimizar.

Para el desarrollo de esto, se propuso como objetivos específicos, la obtención y manejo de información financiera relevante para la toma de decisiones, lo que incluye análisis de retornos, riesgos y correlaciones de las acciones seleccionadas, como también el estudio de un criterio e implementación de un criterio de modelamiento de precios accionarios.

Con respecto a los pronóstico de precios, se utilizaron técnicas como el proceso de Wiener, más conocido como movimiento browniano, simulaciones de Monte Carlo y procedimientos matriciales como la factorización de Cholesky para obtener retornos correlacionados de la misma manera en que se han correlacionado en el pasado, generando resultados más acordes a la realidad, dentro de las restricciones y dificultades que existen con respecto a la modelación de fluctuaciones bursátiles.

Finalmente, en este trabajo se implementó un algoritmo de optimización desarrollado por Uryasev y Rockafellar [9, 19, 22] cuya metodología, aún no se masifica su uso en el mercado nacional. Este algoritmo entrega como resultado un portafolio óptimo de inversión en base a la minimización del VaR, el cual cuantifica cual es la máxima pérdida esperada para un portafolio con un cierto nivel de confianza y un horizonte de tiempo preestablecido.

CAPITULO I INTRODUCCION

1.1 Aspectos Generales del Riesgo en Portafolios

Durante los últimos años, las instituciones financieras han realizado numerosas investigaciones en el área de administración de riesgos, con el objeto de obtener medidas que gestionen eficientemente los riesgos a las que se ven sometidas.

Los riesgos financieros que afectan a las entidades son los mismos que han afectado en años anteriores, sin embargo, han sido las técnicas de medición de estos riesgos las que han ido evolucionando con el paso de tiempo, situándonos en la actualidad en el concepto del VaR (Valor del Riesgo o Value at Risk), el cual estima el riesgo de los portafolios de inversión con bases probabilísticas.

Responde esta encuesta sobre consumo de redes sociales. Nos ayudará a brindarte mejor información.

¿Usas sitios de redes sociales para encontrar información académica o laboral?*

¿Usas sitios de redes sociales para encontrar información académica o laboral?*

¿Qué sitios de redes sociales utilizas para investigación académica o laboral*

¿Qué sitios de redes sociales utilizas para investigación académica o laboral*

Puedes seleccionar las opciones que quieras.

Que tipo de dispositivo usas al utilizar redes sociales*

Que tipo de dispositivo usas al utilizar redes sociales*

¿Cuántas cuentas de redes sociales tienes?*

¿Cuántas cuentas de redes sociales tienes?*

¿Cuántas horas a la semana le dedicas a las redes sociales?*

¿Cuántas horas a la semana le dedicas a las redes sociales?*

Se entiende por riesgo a la existencia de alguna probabilidad de caer en pérdidas, donde las pérdidas serían la obtención de una rentabilidad menor a la que se esperaba. De esta manera el riesgo financiero se ve reflejado en la pérdida de valor económico de los activos esperados, producto de la variabilidad que experimentan los retornos, así el valor económico de una cartera de inversión se ve influenciado por distintos factores de riesgo como son: tasas de interés, tipos de cambio, precios de acciones, entre otros.

De esta manera, resulta imprescindible la identificación, medición y la gestión de los riesgos financieros que se enfrenta. A continuación se muestra algunos de los riesgos financieros más comunes:
a) Riesgo de tipo de interés. Este a su vez esta compuesto por diferentes riesgos (para más detalle se recomienda ver [1]).

a.1) Riesgo de Mercado: Es aquel que origina pérdidas de capital en el valor de mercado de los activos producto de variaciones en la tasa de interés. La mayor o menor variación en los precios de los activos ante variaciones de tasas dependerá de las características propias de los activos.
a.2) Riesgo de Reinversión: Éste se produce cuando la reinversión del propio activo o de sus flujos de caja debe realizarse a unas tipos inferiores a los previstos.
a.3) Riesgo de Volatilidad: Se refiere a aquellos activos que llevan incorporadas determinadas opciones y cuyo precio depende, además del nivel de los tipos de interés, de factores que puedan influir en el valor de las opciones incorporadas, como puede ser la volatilidad en los tipos de interés. El riesgo de volatilidad o “volatility risk” es el derivado de que un cambio en la volatilidad afecte negativamente al precio del bono.
b) Riesgo de Crédito o también conocido como Riesgo de Insolvencia, se genera ante la incapacidad de cumplimiento de las obligaciones por parte del emisor de ésta. Dentro de este tipo encontramos el riesgo soberano el cual hace referencia a la cesación de pago de las obligaciones de un país.
c) Riesgo de Iliquidez: Señala la incapacidad de poseer flujo de caja necesario para hacer frente a las obligaciones de corto plazo, o dicho de otra manera, la falta de capital de trabajo suficiente. Además se entiende como la incapacidad de vender un activo a su precio original.
d) Riesgo Legal: Hace referencia a todos los aspectos normativos que puedan influir directa o indirectamente en los resultados de una compañía. Dentro de estos encontramos el riesgo impositivo el cual se generaría ente la posibilidad de que desaparezcan determinadas ventajas fiscales producto de estos riesgos legales.
En un inicio, los modelos de riesgo se orientaron a medir el riesgo de los portafolios de inversiones de las instituciones financieras. Dichas instituciones, motivadas por el incentivo de reducir los requerimientos de capitalización que les impusieron las autoridades regulatorias, han sido las principales promotoras del marco metodológico de la administración de riesgo.
La capacidad de contar con un sistema que evalúe el riesgo de mercado de la cartera de inversión, ha sido una necesidad constante para los inversionistas institucionales. Es por esto que han florecido a través del tiempo herramientas para evaluar y administrar la volatilidad que enfrentan los portafolios de inversión.
De esta forma en los 70’s se empleaba el análisis Gap para medir la exposición al riesgo de tasa de interés, determinado por la diferencia entre activos y pasivos para distintos tramos de madurez.
En los años 80’s se comenzó a emplear la duración (renta fija) como herramienta para medir la exposición al riesgo de tasa de interés. La cual mide la sensibilidad o elasticidad precio de un instrumento producto de un cambio en la tasa de interés, es decir, cuánto se podría perder si las tasas suben un tanto por ciento. Esta medida es un poco mejor a la anterior ya que toma en cuenta la madurez y cupón específicos de cada activo. Por otra parte, los Betas (renta variable) miden la sensibilidad de un instrumento financiero ante variaciones del mercado en su conjunto, representado por un índice.

1.2 Value at Risk (VaR)

En un marco innovador, el banco estadounidense J.P. Morgan en la década de los 90’s difunde una metodología compuesta por modelos de Value at Risk o “Valor del Riesgo” (VaR) los cuales estiman el riesgo de los portafolios de inversión con bases probabilísticas.

Esta metodología “RiskMetrics”1 fue divulgada en el año 1995, lo cual generó una revolución en la administración de riesgos, dando paso al conocido Value at Risk (VaR) y en los últimos años, el Conditional Value at Risk o “Valor del Riesgo Condicional”(CVaR).

Desde que el Comité de Basilea anunció en 1995 que el establecimiento de las reservas de capital de las instituciones financieras tienen que basarse en las metodologías de VaR. En la actualidad han surgido diversos estudios y análisis de la amplia variedad de metodologías que cabe aplicar en las instituciones financieras, [2].

En términos simples, VaR es la necesidad de cuantificar con un determinado nivel de confianza el monto o porcentaje de pérdida que un portafolio enfrentará en un período determinado de tiempo. En otras palabras, es la medición de la máxima pérdida esperada dado un horizonte de tiempo bajo condiciones normales de mercado y con un nivel de riesgo dado. Y más específicamente el VaR representa un quantil de la distribución de pérdidas y ganancias, el que comúnmente se selecciona como el 95% o 99% de la distribución.
La filosofía del VaR es medir la relación entre rentabilidad y riesgo para formar la cartera eficiente, introducidos por Markowitz y Sharpe, [4].
Según Garman y Blanco [5], el VaR de un portafolio es la mínima pérdida esperada para un horizonte de tiempo y un nivel de confianza determinado, medido en una moneda de referencia específica.
En general, el supuesto más utilizado es el de normalidad, lo cual permite representar todas las observaciones mediante la conocida campana de Gauss y aplicar sus propiedades estadísticas.
Por lo tanto si queremos determinar el VaR de un portafolio, para un horizonte de tiempo de un día y exigiendo un nivel de significación del 5%, esto significa que solamente el 5% de las veces, o 1 de 20 veces (es decir una vez al mes con datos diarios, o cada 5 meses con datos semanales) el retorno del portafolio caerá más de lo que señala el VaR.
Se Debe multiplicar 1.645 veces (usando una confianza de un 95%) por la desviación estándar respecto al retorno de la cartera.
(Ec. 1.1)
Donde:
Vector de ponderadores no negativos que suman uno.
Matriz de varianzas y covarianzas para los retornos de los n activos.
Vector de ponderadores no negativos que suman uno transpuesto.

Figura 1.1 Representación gráfica del Value at Risk
Fuente: [3]

Dado lo anterior, utilizando la metodología del VaR, el Banco J.P Morgan, comenzó a calcular todos los días, la máxima pérdida probable en que incurrirían en las próximas 24 horas, [7].

Producto de la popularidad del VaR, en Chile la Superintendencia de Valores y Seguros (SVS), dejó este indicador como medida de riesgo para regulación bancaria, por lo que fue incorporada por las Compañías de Seguros y las Administradoras de Fondos de Inversión (AFPs) como parte de la normativa institucional .

Por ejemplo, si el VaR de un portafolio está calculado en $ 3.518.033,25 pesos en un día, con un intervalo de confianza del 95%, no quiere decir que obligatoriamente se pierdan los $ 3.518.033,25 pesos, sino que, en el caso de haber pérdidas, lo máximo que se puede perder de hoy a mañana y con una probabilidad de 0.95, es $ 3.518.033,25 pesos. De esta forma se puede ajustar el capital necesario.
1.3 Metodologías de Estimación del VaR.
Básicamente el VaR se puede calcular mediante dos metodologías:
a) Metodología paramétrica. La cual estima el VaR a través de la utilización de parámetros tales como la volatilidad, la correlación, etc, de los vértices de riesgo, asumiendo que los retornos se distribuyen en forma normal, [8].
b) Metodología no paramétrica o de simulación, que se subdivide en:
b.1) Simulación histórica. En función de los rendimientos históricos de los precios de los activos.
En términos generales este método intenta cuantificar las rentabilidades hipotéticas que se hubiesen obtenido en el pasado al haber mantenido el portafolio de inversión actual. Es decir, consiste en aplicar el vector de ponderaciones de inversión actual a una serie representativa de retornos históricos, de manera de generar una secuencia de valores históricos del portafolio que puedan ser representados por un histograma, y así poder definir una cierta distribución de probabilidades.

Dentro de las ventajas de este método es que no hace ningún supuesto acerca de las correlaciones de los instrumentos. Tampoco asume explícitamente la forma de la distribución de probabilidades de los precios de los instrumentos. Por otro lado, al basarse en información histórica para estimar las pérdidas futuras puede incorporar “colas anchas”, “asimetrías”, si es que la muestra histórica tuviese tales características (para mayor detalle, consultar: [8].
Entre las desventajas encontramos la necesidad de disponer de una gran cantidad de información histórica en las series de los instrumentos, por que de lo contrario podríamos obtener cálculos poco fiables.
b.2) Simulación de MonteCarlo. En función de la simulación de rendimientos mediante números aleatorios, [3].
Esta técnica consiste en la generación de escenarios futuros en base a la función de distribución de las variables. Por lo tanto, nos permite simular todos los escenarios posibles de los valores que tomen los retornos de los distintos vértices de riesgo, en base a su función de distribución. Para esto es necesario asumir que los escenarios seguirán alguna distribución particular, ya sea normal, t-student, entre otros, y de esta manera poder generar los retornos mediante algún algoritmo generador de variables o algún proceso estocástico.
Por ejemplo podemos asumir que las series se distribuyen siguiendo un proceso estocástico de Wiener. (Ver en el índice 2.5 se da más detalle del proceso)
(Ec. 1.2)
Donde:
: corresponde al retorno de la acción (P es el pecio de la acción) en el intervalo de tiempo .
: Es el valor esperado de los retornos.
: Es la componente estocástica de los retornos y representa la desviación estándar.
: Es una variable aleatoria con distribución Normal (0,1).

Dentro de las ventajas de este método es lejos el método más poderoso para calcular el VaR. Puede contar para un amplio rango de exposiciones a riesgo, incluyendo riesgo de precio no lineal, riesgo de volatilidad, e incluso el riesgo modelo (model risk). Es suficientemente flexible para incorporar variación de tiempo en volatilidad, o colas gordas y escenarios extremos. Estas simulaciones pueden ser usadas para examinar, por ejemplo la pérdida esperada detrás de una VaR particular.

Como inconveniente encontramos la necesidad de contar con un gran soporte computacional. Por ejemplo si 1000 trayectorias de muestras son generadas por un portafolio de 1000 activos, el número total de valuaciones va a ser 1.000.000, [3].
Dado lo anterior, tiene la dificultad de valoración en tiempo real y la necesidad de preestablecer modelos de comportamiento de los precios de los activos. Además, aunque este método debiese ser más exacto al tratar de generar la distribución entera de probabilidades de los valores que toma la cartera, sigue basándose en los retornos históricos para determinar la volatilidad y las correlaciones.
1.4 Conditional Value at Risk (CVaR)
El VaR, como medida de riesgo, es inestable y difícil de trabajar numéricamente cuando las pérdidas no están “normalmente distribuidas”, lo cual en la práctica es el caso más frecuente, ya que las distribuciones tienden a presentar “colas anchas” [9]. Por lo que ha mostrado ser coherente sólo cuando está basado en la desviación estándar de distribuciones normales de los retornos de los activos, ya que bajo una distribución normal el VaR es proporcional a la desviación estándar de los retornos de los instrumentos.
Por otro lado, el VaR posee características matemáticas indeseables tales como falta de subaditividad y convexidad, para más detalle ver [10].
De esta manera, cuando los retornos no se distribuyan normales, la falta de subaditividad produce que el VaR asociado a un portafolio que combina dos instrumentos sea mayor que la suma de los riesgos VaR de los portafolios individuales.
La función VaR, la cual denotaremos por , se define como el percentil de la función de distribución de pérdidas mediante la fórmula:

(Ec. 1.3)

Donde es la función de distribución resultante de la función de pérdida y x es la posición o pesos en el portafolio de inversión.

Para entender el concepto de subaditividad, veamos el caso siguiente: Sea la medida de VaR asociado con el portafolio , entonces diremos que es subaditiva si dados los portafolios y , se tiene que:
(Ec. 1.4)
Es decir, la combinación de dos portafolios debería tener asociado un riesgo menor producto de la diversificación “no poner todos los huevos en la misma canasta”.
Sin embargo, esto no se satisface por el VaR y producto de su mal comportamiento como medida de riesgo, nos conduciría a subdividir las inversiones o portafolio para reducir el riesgo. Contradiciendo rotundamente la teoría de la diversificación, [8].
Por otro lado, al no cumplir la convexidad, la minimización del VaR no nos asegura haber obtenido el portafolio óptimo que minimice la función objetivo (pérdidas), ya que podría tener extremos locales múltiples.
Finalmente, una deficiencia muy importante del VaR es que éste no proporciona una indicación sobre la magnitud de las pérdidas que podrían experimentarse más allá del monto indicado por su medida, ya que simplemente proporciona un límite menor para las pérdidas en la cola de la distribución de retornos, [10].
En este contexto ha surgido una medida alternativa que cuantifica las pérdidas que podrían ser halladas en la cola de la distribución de pérdidas, llamada Conditional Value at Risk (CVaR), el cual puede ser empleado como una herramienta dentro de modelos de optimización de portafolios de inversión, la cual tiene propiedades superiores al VaR en muchos aspectos.
El CVaR mantiene la consistencia con VaR en el limitado escenario donde el cálculo de éste último es tratable (cuando las pérdidas se distribuyen normalmente), donde trabajar con CVaR, VaR o mínima varianza de Markowitz producen los mismos resultados [9], es decir conducen al mismo portafolio óptimo. Además en la práctica la minimización del VaR produce un portafolio óptimo cercano a la minimización del CVaR, ya que por definición la pérdida calculada en función del CVaR es menor o igual a la pérdida obtenida con el VaR.
Esta medida, para distribuciones continuas es también conocida por Mean Excess Loss, Expected Shortfall o Tail VaR. Sin embargo, para distribuciones discretas, el CVaR puede ser distinto. Por definición, para distribuciones continuas, el α-CVaR es la pérdida esperada que excede al α-VaR, en otras palabras, es el valor medio de las pérdidas peores a . Para un α=0.99, el CVaR será al el promedio sobre el 1% de las peores pérdidas. En general para funciones de distribuciones de pérdidas (incluyendo distribuciones discretas) el CVaR se define como el promedio ponderado del VaR condicionado a las pérdidas que exceden a ésta medida.

El CVaR a diferencia del VaR posee muy buenas propiedades matemáticas, las cuales se pueden ver con mayor profundidad en [9].

Nuestro objetivo, es encontrar el portafolio óptimo, donde el riesgo asociado (VaR) sea mínimo, para ello utilizaremos la notable formulación matemática desarrollada por Rockafellar y Uryasev [9], implementando el algoritmo que optimiza el CVaR, para lo cual se utilizará los datos del “Bloomberg”, proporcionados por AGF. Estos datos serán tratados estadísticamente, de modo de obtener las series de tiempo de las rentabilidades de las diferentes acciones que compondrán el portafolio de inversión y a través de de un algoritmo de MonteCarlo, generaremos los escenarios que se utilizarán en el problema general de optimización del CVaR, con el que se obtendrá el vector de pesos a invertir en cada acción del portafolio y cuyo riesgo asociado (VaR), será mínimo.

1.5 Análisis de los Datos Históricos de un Portafolio de Inversión.

Los datos históricos de las acciones serán obtenidos por “Bloomberg” , donde se dispondrá de datos diarios de las acciones para un T definido por nosotros. Para una “buena” estimación es conveniente contar con un horizonte de T = 10 años al menos, para los activos que compondrá el portafolio. Es importante dejar en claro que el Bloomberg da la opción de descargar los precios con sus respectivos reajustes, de modo que la información sea lo más “real” posible.
Primero que todo es bueno separar las acciones por sector:
Tabla 1.1 Ejemplo de Acciones Chilenas agrupadas por Sector
Fuente: Elaboración propia

Las acciones que finalmente compondrán el portafolio tienen que tener un cierto grado de diversificación con respecto a distintos mercados, como por ejemplo: retail (ventas al detalles), minería, transporte, eléctrica, entre otras. En palabras simples, la diversificación es, como ya mencionamos anteriormente, “No poner todos los huevos en la misma canasta” y su objetivo principal es el de alcanzar la máxima rentabilidad con el menor riesgo posible, trayendo los siguientes beneficios.

• Reduce la vulnerabilidad del portafolio ante variaciones severas del mercado.
• Reduce la volatilidad (riesgo) del portafolio.

Por ejemplo, si se tiene un portafolio con 2 activos:

Figura 1.2 Ejemplo de diversificar acciones (activos) en un portafolio
Fuente: [14]

En la figura 1.2, se aprecia claramente que con una apropiada diversificación de la cartera se reduce el riesgo, esto es cuando se combinan activos que no están relacionadas y se logra un menor riesgo.

El riesgo que eventualmente se puede eliminar por medio de la diversificación es el riesgo propio . El riesgo propio resulta del hecho de que mucho de los peligros que acechan a una determinada empresa son específicamente suyos y tal vez de sus competidores inmediatos.

Pero también hay un riesgo que no se puede evitar y aunque uno diversifique no se puede eliminar, esto se conoce como riesgo de mercado [13]. En conclusión, si bien existen beneficios de la diversificación, el riesgo de un portafolio no se puede eliminar totalmente sino minimizar.

El riesgo de mercado deriva del hecho de que hay otros peligros que acechan a la economía que amenazan a todos los negocios, ésta es la razón por la que los inversionistas están expuestos a la incertidumbre del mercado, como por ejemplo la inflación , independiente del número de acciones de empresas diferentes que posea el portafolio.

Gráfico 1.1 Ejemplo de diversificar aumentando el numero de acciones del portafolio
Fuente: Elaboración propia

En el Gráfico 1.1, se puede apreciar claramente el efecto de la diversificación de una cartera, en donde el riesgo representado por la desviación estándar, va disminuyendo a medida que se van agregando activos al portafolio.

Además de la diversificación de las acciones del portafolio, se deben analizar los siguientes puntos; trascendencia en el tiempo, gran presencia bursátil, liquidez y alta capitalización bursátil, todo lo cual nos entrega gran información y un nivel bajo de ruido al momento de analizarlas.

Con respecto a la liquidez de una empresa, ésta se refiere a la relación que, en un momento determinado, existe entre sus recursos líquidos y las obligaciones que le son exigibles en ese momento.

Asimismo capitalización bursátil significa el valor de la empresa en el mercado y está definido por la multiplicación del precio de la acción con la cantidad de acciones de la empresa.

1.6 Situación Actual de AGF Cruz del Sur

En la actualidad, la administradora general de fondos Cruz del Sur, utiliza diversos mecanismos para tratar de lograr lo “ideal”, una buena rentabilidad con el menor riesgo posible.

A modo de ejemplo se explicará la forma en que opera AGF en la actualidad, ya que ésta es la empresa que está entregando todo el know how financiero y la información necesaria.

El portfolio managment o Trader financiero de renta variable, junto con el gerente de inversiones, usan el “viejo” modelo de Markowitz (ésta teoría esta ampliamente explicada en varios libros de economía, por ejemplo [12]), el cual se basa en el análisis de la “Frontera Eficiente”;curva que se obtiene de graficar el riesgo versus la rentabilidad, para esto se diversifica el portafolio tomando activos que rentan bastante pero con un elevado riesgo y se combinan con otros activos que rentan menos, pero que son más “seguros”, es decir, menos volátiles. Si bien esta estrategia no es “mala”, por algo se viene usando desde la década de los 50´s, tiene el defecto de dejar fijo el porcentaje a invertir en cada acción, que en nuestra memoria es lo que buscaremos de manera óptima y que llamamos como: “vector pesos de inversión”.
Figura 1.3 Ejemplo de la Frontera Eficiente
Fuente: Elaboración propia
En la Figura 1.3 se representa la frontera eficiente que contiene los portafolios compuestos por activos riesgosos que dominan a otros cuyos riesgos es el mismo, pero tiene rentabilidad menor.

Una vez formada la frontera eficiente con los distintos porcentajes de inversión para cada activo (la suma de ellos debe ser uno y ahí se tiene el 100%), se construye la gráfica de rentabilidad versus riesgo, para los distintos porcentajes de inversión y la elección del portafolio final depende netamente del tipo de inversionista que sea el administrador, en AGF por ejemplo, tienen un estilo más conservador y por tanto, el portafolio que se escoge no es tan volátil. (En la figura 1.5 el administrador ve que a medida que aumenta el riesgo aumenta rentabilidad del portafolio)

El principal uso que le dan a la frontera eficiente es la determinación del portafolio a recomendar a un cliente, es decir, los distintos tipos de portafolio que periódicamente se le recomiendan a los clientes, en su carácter conservador, moderado y agresivo.

La problemática a abordar, es que AGF cambie el “viejo” modelo y utilice esta novedosa estrategia de inversión, que encuentra el óptimo “vector de pesos” a invertir en cada activo que conforma el portafolio, con un VaR mínimo (mínimo riesgo) y una rentabilidad esperada establecida.

Hay que dejar en claro que este método es una herramienta de apoyo, como complemento al tomador de decisiones, ya que él es el que tiene el know how financiero.

CAPITULO II MARCO TEÓRICO

2.1 Value at Risk, marco teórico

El VaR es una de medida de riesgo uniforme que cuantifica el monto o porcentaje de la potencial pérdida en valor de un portafolio producto de los cambios en los factores de mercado dentro de un intervalo de tiempo especificado. Esta pérdida es valorada con un determinado nivel de incertidumbre ().

Sea una función de pérdida, la cual depende del “vector de pesos x”, perteneciente al conjunto de factibilidad definido por y de un “vector aleatorio” . Se supone que el vector aleatorio y está regido por una medida de probabilidad P, que es independiente de . Para cada , se denota por Ψ(x, ·) en como la función de distribución resultante de la función de pérdida, es decir:
(Ec. 2.1)

Por consiguiente, si se asume que el vector aleatorio tiene una función de densidad de probabilidad , es decir, un vector aleatorio continuo, entonces para un fijo, la función de distribución acumulada de la pérdida asociada al vector viene dada por:
(Ec. 2.2)

Se tiene que las fórmulas (2.1) y (2.2) representan la probabilidad de que la función de pérdida no exceda el umbral ζ. En ambos casos, la función VaR, la cual denotaremos por ζα(x), se define como el percentil de la función de distribución de pérdidas mediante la fórmula:

(Ec. 2.3)

El problema de optimización que se estudiará en esta memoria, asociado al VaR es:
(Ec. 2.4)

Donde el conjunto X representa las condiciones impuestas sobre los pesos o políticas de inversión asociadas al portafolio. Por ejemplo, si no se le pide nada en especial al portafolio, entonces el conjunto X viene dado por:
(Ec. 2.5)

Sin embargo, si se le agrega un cierto nivel de diversificación al portafolio (para más detalle se recomienda ver [16]), entonces el conjunto X queda definido por:
(Ec. 2.6)

Donde representa el máximo peso de inversión para cada uno de los activos del portafolio, por ejemplo para todo , lo que se interpreta como la prohibición de tener más de un 30% de toda la inversión en un sólo activo del portafolio. Si además, le exigimos un retorno mínimo al portafolio, entonces X viene dado por:
(Ec. 2.7)

En el cual R corresponde al retorno mínimo requerido y son los retornos pronosticados para cada activo , en el periodo de tiempo predefinido.

Por último, es importante destacar que el objetivo de la memoria, no es calcular el riesgo asociado a un portafolio de inversión, con los pesos en cada activo predefinido, sino encontrar la política de inversión o pesos de la cartera que hacen que el riesgo de ésta sea mínimo, dicho de otro modo, brindar una herramienta que ayude a la toma de decisión de cuanto invertir en cada uno de los activos de un portafolio de inversión dado.

2.2 Conditional Value at Risk, marco teórico

En el caso que se considere una distribución continua, el CVaR se define como el valor esperado de las pérdidas bajo la condición de que ellas excedan al VaR, (el cual se denotará por ). Se define la función del CVaR, y se denotará por , como:
(Ec. 2.8)

Donde es la función densidad asociada a la medida de probabilidad P. En general, para funciones de distribución de cualquier índole, incluyendo las distribuciones discretas, el CVaR se define como el promedio ponderado del VaR y las pérdidas que exceden a éste, el cual denotaremos por , es decir, la esperanza de las pérdidas condicionales que estrictamente exceden al VaR. De esta manera, el CVaR queda definido de la siguiente forma:
(Ec. 2.9)
Tal que:
(Ec. 2.1.0)

En el caso de considerar una distribución continua para la función de pérdida, y por lo tanto, .

El CVaR es una medida coherente de riesgo, en el sentido definido en [17], determinado por medio un percentil y que a diferencia del VaR posee buenas propiedades matemáticas, las cuales se pueden ver con mayor profundidad en los documentos, [9] [18], [19]. En particular, el CVaR definido por (2.8) es una cota superior del VaR ya que:
(Ec. 2.1.1)

En general la minimización del CVaR y del VaR no son equivalentes. Puesto que la definición del CVaR involucra explícitamente a la función VaR, es decir, a la función , por consiguiente, se torna muy engorroso de trabajar y optimizar el CVaR, sin embargo, si se considera la siguiente función auxiliar:

(Ec. 2.1.2)

De forma alternativa, se puede escribir de la siguiente manera:
(Ec. 2.1.3)

Donde . Para fijo, es bueno considerar, la siguiente función de :
(Ec. 2.1.4)

Esta última función de , tiene las siguientes propiedades que son muy útiles a la hora de calcular el VaR y el CVaR:

a) es una función convexa en .
b) El en , es un mínimo de , es decir, .
c) El valor mínimo de la función es el en ,es decir, .

Como una consecuencia inmediata de estas propiedades, se puede inferir que el CVaR se puede optimizar mediante la optimización de la función auxiliar con respecto a y a de forma simultánea:
(Ec. 2.1.5)

De tal forma, se puede optimizar el CVaR directamente, sin la necesidad de calcular primero el VaR. Además, es una función convexa en la variable del portafolio cuando la función de pérdida es también convexa con respecto a . En este caso, si el conjunto de posiciones factibles del portafolio es también convexo, por lo que el problema de optimización en la ecuación (2.1.5) es un problema convexo, el cual se puede resolver mediante técnicas bien conocidas para este tipo de problemas.

Usualmente no es posible calcular o determinar la función de densidad de los eventos aleatorios en la formulación propuesta, sin embargo, es posible tener un número de escenarios, por ejemplo; con , los cuales representan algunos valores históricos de los eventos aleatorios, por consiguiente; la serie de tiempo histórica de la rentabilidad o de los precios de las activos del portafolio, o puede ser valores obtenidos vía simulación computacional, en nuestra memoria el proceso estocástico de Wiener. En todo caso, una parte importante de esta investigación es estudiar las diferentes alternativas para la obtención de los escenarios.

Posteriormente, se obtiene una aproximación de la función usando una distribución empírica de los eventos aleatorios basados en los escenarios disponibles:

(Ec. 2.1.6)

De esta manera, el problema se aproxima reemplazando a por en la ecuación (2.1.5):
(Ec. 2.1.7)

Ahora bien, si se introduce las variables auxiliares para reemplazar asignando las restricciones , se tiene el siguiente problema de optimización:
(Ec. 2.1.8)
S.a:

Finalmente, se puede observar que si la función de pérdidas es lineal con respecto a , entonces el problema de optimización en la ecuación (2.1.8), se puede reducir a un problema de programación lineal, eso si, se debe dejar en claro, el tamaño de éste depende de la cantidad de escenarios generados y por lo tanto, se debe emplear técnicas de programación lineal de gran escala. En [9] se propone un algoritmo heurístico, para la resolución de este problema. Una parte importante de esta memoria es la de implementar el algoritmo antes mencionado y obtener una comparación entre la rentabilidad versus el VaR (De tal manera como lo hace Markowitz con la frontera eficiente [12]).

2.3 Análisis de Retornos

Lo primero que se debe hacer es analizar las rentabilidades de acciones que componen el portafolio de inversión, de manera de observar el comportamiento de éstas a través de un horizonte de tiempo de al menos T=10 años .

Esta información es de vital importancia, ya que de ella se obtienen las bases tanto para el desarrollo de los modelos predictivos como de minimización del VaR que será el punto de partida en nuestra investigación.

Una vez definido el portafolio, el siguiente paso corresponde a la obtención de las series de precios para cada una de estas empresas (ver capítulo1.5).

Con estas series de precios históricos se calculará la rentabilidad de la siguiente manera:
(Ec. 2.1.9)

El objetivo será obtener sus retornos tanto en forma anual, mensual y diaria, así como sus riesgos asociados, los cuales se muestran por medio de la varianza y la desviación estándar. Por último, como forma de ver el nivel de diversificación del portafolio también se obtendrá la matriz de correlaciones, la cual nos dará una idea del nivel de diversificación del portafolio elegido.

Con respecto a las formas de cálculo de los retornos, se puede decir que existen diversas alternativas para realizarlos, encontrando algunas de mayor complejidad que otras, pero siempre teniendo algo en común: una proyección del precio del instrumento para un horizonte de inversión deseado. Con esto se puede decir que tanto los retornos calculados por medios simples como un promedio histórico, como también cálculos por medio de series de tiempo, cumplen el fin de mostrar el comportamiento de los retornos para un horizonte de tiempo definido.

Una proyección tradicional que usan muchas empresas financieras, ha sido el retorno promedio histórico, el cual se define de la siguiente manera:
(Ec. 2.2.0)

Considerando el fenómeno de reversión a la media existente en los retornos, parece ser una buena aproximación, sin embargo es poco realista al ser un resultado estadístico que no incorpora el hecho de que el horizonte de inversión no es T [6].

Una segunda metodología que considera la trayectoria de los retornos, es la estimación de modelos de series de tiempo de tipo ARIMA (Modelos Autorregresivos Integrados de Medias Móviles), que en la presente memoria no se utilizará, ya que se asumirá el retorno promedio histórico para todo el periodo T.

Una vez obtenido el promedio histórico de los retornos, en un horizonte T, es necesario complementar esta medida, dado que por si sola no es autosuficiente para poder tomar una decisión, es por esto que se analizará de complemento los riesgos del portafolio.

De forma habitual, las instituciones financieras, como bancos o mesas de dinero, usan la varianza para medir la volatilidad de una acción, la cual se calcula de la siguiente manera:
(Ec. 2.2.1)
Si se asume que las rentabilidades posibles de un activo se distribuyen según una distribución normal (curva de Gauss), se puede decir con un 95% de confianza, la rentabilidad futura de este activo pertenecerá al siguiente intervalo:

(Ec. 2.2.2)

Bajo este supuesto se puede cuantificar el ancho del intervalo en el que caerá la rentabilidad futura o también cuál será la probabilidad de obtener una rentabilidad determinada.

Una vez definido y calculado los parámetros correspondientes a las rentabilidades y volatilidades de cada activo, el paso siguiente es ver la relación entre cada una de las acciones, con lo cual se deben introducir la Covarianza y el Coeficiente de Correlación.

La covarianza indicará cuál será el comportamiento de un activo al producirse una variación en el valor de otro activo y se define de la siguiente manera:

(Ec. 2.2.3)

Donde y son los posibles valores de rentabilidad para los activos y b respectivamente.

La covarianza indica en qué medida varía una acción respecto a la otra. De esta forma, si la covarianza es positiva, quiere decir que cuando una acción sube la otra también tiende a subir; si la covarianza es negativa, quiere decir que cuando “a” sube “b” tiende a bajar. Si la covarianza es próxima a cero, quiere decir que las dos acciones no están relacionadas.

Un parámetro estadístico que también indica la relación entre dos acciones, y que es más fácil de interpretar, es el coeficiente de correlación . Este coeficiente se define por medio de la siguiente ecuación:

(Ec. 2.2.4)
Se tiene que:
(Ec. 2.2.5)
Al igual que la interpretación de la covarianza, el factor de correlación será positivo si ambas acciones se mueven en el mismo sentido y será negativo si las acciones se mueven en sentidos opuestos. Por otro lado, si las acciones no tienen ninguna relación entre sí, estará en torno a cero.
La ventaja de este coeficiente es que además de poder interpretar el sentido en el cual se mueven ambas acciones nos entrega información acerca de la magnitud de esta relación, la cual se expresa de la siguiente manera:

Cercano a 0 “relación entre las acciones débil”
Cercano a |0,5| “relación entre las acciones moderada”
Cercano a |1| “relación entre las acciones fuerte”

Una vez obtenida la rentabilidad promedio histórica para el horizonte establecido, junto con la varianza, la matriz de covarianzas y las correlaciones de las acciones, se procede a hacer una predicción de precios futuros.

Con el objeto de predecir los precios futuros de las acciones que componen el portafolio se decide generar escenarios de pronóstico de precios mediante los procesos de Wiener usando procedimientos matriciales para obtener activos correlacionados y técnicas de simulación de MonteCarlo.
2.4 Selección de las acciones que forman el portafolio de la memoria

Primero que todo por medio del Bloomberg, obtenemos los precios diarios de cierre para todas las acciones del IPSA desde el 13 de enero de 1994 hasta el 10 de agosto del 2007. Posteriormente se ordenan las acciones por fecha de inicio de forma ascendente.

El criterio de selección del portafolio es el siguiente:

Más de diez años de datos históricos en los precios de cierre.
Presencia bursátil igual a un 100%.

Al tener una gran presencia bursátil, esto asegura que las acciones son bien líquidas en el mercado accionario.

Por consiguiente las acciones que cumplen estos requisitos y que se utilizarán en esta memoria se verán en la Tabla 1.2, las que están destacadas de color verde, son las seleccionadas. De esta manera, las acciones con las que se trabajará en esta memoria corresponden a la mitad del IPSA, ósea un total de 20 acciones, con datos históricos desde el 22-05-1997 al 10-08-2007, con lo cual se llega a tener más de 10 años de información con 2667 muestras por cada empresa.

Tabla 1.2 Ejemplo de Acciones Chilenas Seleccionadas para la Memoria
Fuente: Elaboración propia

Con estas series de precios el objetivo será obtener sus retornos tanto en forma anual como semanal y diaria, así como sus riesgos asociados, los cuales se muestran por medio de la varianza y la desviación estándar. Por último, como forma de ver el nivel de diversificación del portafolio también se obtendrá la matriz de correlaciones, la cual nos dará una idea del nivel de diversificación del portafolio escogido.

Los datos históricos de las acciones entregados por Bloomberg se encuentran de lunes a domingo, repitiendo el precio de cierre del día viernes para el fin de semana, lo que genera un error si no se limpia la base de datos. Por consiguiente se realiza una limpieza de éstos usando el software SPSS (Statistical package of the social sciense, versión estándar, 11.5). Creamos una variable “dys” que será la variable fin de semana, y posteriormente se filtra con la opción de eliminar esa variable, en otras palabras, eliminar el fin de semana. La sintaxis es la siguiente:
COMPUTE syd = XDATE.WKDAY(date) .
VARIABLE LABELS syd ‘sabado y domingo’ .
EXECUTE .
USE ALL.
SELECT IF(syd ~= 1 & syd ~= 7).
EXECUTE .

Siguiendo con el análisis de las series de precios el siguiente paso es la obtención de los retornos para cada una de las acciones, para lo cual primero se analizará el comportamiento de las series de precios de forma gráfica. Este análisis se hará por medio del software Microsoft Excel 2003.
Los resultados gráficos de las series de precios se muestran a continuación:

En el eje Y se encuentran los precios de la serie y el eje X corresponde al tiempo. En el eje de las abscisas se puede apreciar el número de la muestra, que está asociado a la fecha. Las series contienen alrededor de 2667 datos los que representan alrededor de 10 años de información, excluyendo los días no hábiles (sábado y domingo).

Comportamiento de las Series de Precios de Forma Gráfica

Gráfico 1.2 Evolución de precios para las acciones seleccionadas (1997 al 2007)
Fuente: Elaboración propia

En el gráfico 1.2 se aprecia que el precio de las acciones a medida que avanzan los años, en su gran mayoría, muestran un comportamiento exponencial, sin embargo, en el caso particular de la acción Madeco, ocurre un fenómeno contrario, es decir, inversamente proporcional al resto de las acciones. Esto es por lo siguiente:

A partir de 1999, la empresa enfrentó una serie de dificultades en sus mercados que generaron un desfavorable impacto en sus resultados. La crisis asiática, que comenzó en 1998, generó una importante baja del nivel de la actividad industrial en los mercados atendidos por Madeco, especialmente en las industrias de telecomunicaciones y construcción. En 1999, la devaluación de la moneda brasileña afectó la posición competitiva de Ficap, disminuyendo su aporte a los resultados consolidados. En estos últimos años, como consecuencia del deterioro de las principales economías regionales en Sudamérica, se ha producido una reducción de los niveles de inversión en las industrias que abastece la compañía, especialmente en el área telecomunicaciones. Esta adversa situación se intensificó en los años 2001 y 2002, a causa de la crisis económica que se presentó en Argentina (generando el cierre de plantas y reconocimiento de provisiones por parte de Madeco). En el año 2003, la compañía inició un proceso de reestructuración de sus operaciones, destinado principalmente a incrementar la eficiencia de sus procesos productivos en conjunto con una reducción de su estructura de gastos y un fortalecimiento de su estrategia comercial. Si bien el nivel de ventas disminuyó un 8% respecto al 2002, el resultado operacional aumentó un 84%, reflejando los ajustes operacionales realizados. A septiembre de 2004, el fortalecimiento de su estrategia comercial en conjunto con la mayor actividad económica registrada en sus principales mercados (Brasil y Chile) se tradujeron en un significativo incremento en su nivel de ventas y capacidad de generación de flujos.

Lo anterior, se reflejó en la tendencia positiva del margen operacional, que alcanzó el 8,2%, similar al obtenido antes de 1999. Para el 2005, la compañía espera que la consolidación de su estructura operacional se refleje en la estabilización de sus márgenes.

Luego el paso siguiente fue calcular los retornos históricos, los cuales se obtuvieron por medio de la fórmula del retorno promedio histórico (Ec. 2.2.0). Los resultados de éstos se presentan en la Figuras 1.8 y 1.9 en base a datos diarios:

En base a la rentabilidad del período comprendido entre los años 97-07, se pueden obtener las rentabilidades esperadas para los distintos períodos requeridos, como por ejemplo las rentabilidades esperadas anuales, semanales o diarias.

De esta manera se convirtió los precios diarios a rentabilidad diaria mediante la fórmula (Ec. 2.1.9), para luego hacer la transformación de rentabilidades diarias, semanales y anuales por medio de la siguiente ecuación:
(Ec. 2.2.6).

En donde f corresponde a la frecuencia entre los retornos, es el retorno que se tiene como dato y es el retorno estandarizado a la frecuencia requerida.

Ejemplo: Si tuviéramos un retorno anual y quisiéramos descomponerlo a una base mensual, entonces f = 1/12, ya que un año tiene 12 meses. En caso contrario, si se tuviera el retorno promedio diario y se quisiera pasar a una base mensual, entonces f = 21, ya que un mes promedio tiene 21 días hábiles con transacciones.
Tabla de Rentabilidades de las acciones que conforman el portafolio
Tabla 1.3 Rentabilidad histórica período (1997 al 2007)
Fuente: Elaboración propia
Tabla 1.4 Detalle rentabilidades período (1997 al 2007)
Fuente: Elaboración propia
En la Tabla 1.3, se aprecia que tanto las rentabilidades diarias como las rentabilidades semanales de la acción Madeco, muestran cifras negativas, es decir, si el inversionista invierte en esta acción perdería dinero. Esta afirmación no es real ya que si uno observa la Tabla 1.4 el detalle de las rentabilidades anuales de esta acción, en promedio renta por año un 45.8 %. Cabe destacar que en nuestra investigación se usarán datos semanales (t= semanas) para introducirlas en el proceso de Wiener, que se verá a continuación.

CAPITULO III GENERACIÓN DE LOS ESCENARIOS MEDIANTE EL PROCESO DE WIENER Y LA TÉCNICA DE SIMULACIÓN DE MONTECARLO.

La finalidad de un generador de escenarios es producir un conjunto de valores de las variables de decisión involucradas, bajo un determinado horizonte de planeación, cuya salida es un escenario o el conjunto de ellos y que contiene el comportamiento histórico de las variables.

Una alternativa para la generación de los escenarios de rentabilidades futuras es el uso de los procesos de Wiener usando procedimientos matriciales y técnicas de simulación de MonteCarlo.

3.1 Introducción a una Metodología Estocástica

De cualquier variable cuyos valores vayan cambiando de forma incierta a través del tiempo, se puede decir que sigue un proceso estocástico. Estos tipos de procesos pueden ser clasificados como de tiempo discreto o continuo.

Un proceso estocástico de tiempo discreto es donde el valor de la variable puede cambiar sólo en algunos puntos definidos del tiempo. Por otro lado, un proceso estocástico de tiempo continuo, es aquel en donde los cambios pueden tener lugar en cualquier instante de tiempo.

Los procesos estocásticos también pueden ser clasificados como de variables continuas o discretas. En procesos de variables continuas los valores que pueden tomar las variables están definidos por un rango, mientras que en procesos de variables discretas se definen una gama de valores posibles, los cuales quedan fijos durante todo el proceso.

Durante este trabajo, el cual en esta parte está orientado a pronósticos de precios accionarios, se desarrollarán procesos de variables continuas y de tiempo continuo. El conocimiento de este tipo de procesos es fundamental para la comprensión de la administración de otros derivados tales como opciones.
Se debe decir que en la práctica no se observan precios accionarios que sigan procesos de variable continua o de tiempo continuo, ya que estos precios están sujetos a ciertos valores discretos, por ejemplo: valores enteros o múltiplos de pesos centavos o pesos y por otro lado, las variaciones de precio están sujetas a los días en los cuales las bolsas están transando. Sin embargo, procesos de variable y tiempo continuo han probado ser una herramienta muy útil para este tipo de propósitos.

3.2 Proceso de Markov

Los procesos de Markov, están definidos como un tipo particular de proceso estocástico, en donde sólo el valor presente de la variable es relevante para la predicción del futuro. De forma más general, se puede decir que tanto la historia de la variable y el ruido generado en el presente por esta variable serán irrelevantes en la predicción del valor futuro. Con respecto a precios accionarios, cabe mencionar que usualmente se asume que las predicciones pueden ser hechas por medio de procesos de Markov, con lo cual la predicción del futuro precio de la acción no estará afectada por los precios de ayer, la semana pasada o el mes pasado .

Esta teoría es consistente con todo lo propuesto por teorías como la de eficiencias de mercado, en donde se postula que el precio presente de la acción incorpora toda la información pasada.

Debido a que las predicciones futuras son inciertas, estas deben ser expresadas en términos de distribuciones de probabilidad. Con respecto a esto, la propiedad de Markov implica que la distribución de probabilidades del precio de la acción en el futuro, no dependerá de algún patrón seguido por la misma acción en el pasado, sino que sólo de su estado presente.

3.3 Proceso de Wiener

Este proceso es un tipo de proceso estocástico de Markov también conocido como Movimiento Browniano, en donde su media es 0 y su varianza es igual a 1. Este proceso es bastante usado en física para describir el movimiento de partículas que están sujetas a grandes cantidades de variaciones.

Formalmente, una variable sigue un proceso de Wiener si cumple con las siguientes propiedades:

Propiedad 1: La variación durante un pequeño período de tiempo es:
(Ec. 2.2.7).
Donde es una variable aleatoria con distribución normal estándar .

Propiedad 2: Los valores de para dos intervalos pequeños de tiempo son independientes.

Siguiendo con lo expuesto en la propiedad 1, en donde por sí misma tiene una distribución normal con:

y

La segunda propiedad implica que z sigue un proceso de Markov.

Considerando un incremento del valor de z durante aproximadamente un período largo de tiempo T, podemos denotar este incremento por medio de . Por otro lado, esto también podría ser mirado como la suma de pequeños incrementos de z en N (pequeños) intervalos de tiempo , en donde:

Así,
(Ec. 2.2.8).

Donde son variables aleatorias con distribución . Por otro lado de la segunda propiedad del proceso de Wiener, se deduce que las variables son independientes entre sí. Entonces, siguiendo con lo expuesto anteriormente en (Ec. 2.2.8), se deduce que esta normalmente distribuida con:

y

Lo cual es consistente con lo discutido al principio de este capítulo.

Con respecto a los cálculos, es recurrente notar que pequeños cambios se denotan por medio del límite, haciendo estas variaciones cercanas a cero. Así se puede expresar como . Cuando se tienen procesos estocásticos, se puede proceder de la misma manera, con lo cual el proceso de Wiener queda expresado como límite, en donde para el proceso descrito arriba para z.

3.4 Proceso de Wiener Generalizado

El proceso de Wiener básico , tiene una tasa de cambio cero y una varianza 1 [20]. La tasa de cambio igual a cero, significa que el valor esperado de z en cualquier instante futuro será igual a su valor actual. Por otro lado, que la varianza sea igual a 1 significa que la varianza de los cambios en z en un intervalo de tiempo T será igual a T.

Generalizando el proceso de Wiener para una variable x en términos de z tenemos que:
(Ec. 2.2.9).

Donde a y b son constantes.

Para entender la ecuación anterior, es útil considerar una suma de dos componentes independientes, donde el término implica que x tiene una tasa de cambio de a por unidad de tiempo. Sin considerar el término representado por b, la ecuación podría representarse de la siguiente manera:

Lo cual por medio de la resolución de la ecuación diferencial nos da que:

donde es el valor de x en el tiempo 0. Esto implica que por cada período de tiempo t el valor de x se irá incrementando a una tasa de .

El término de la ecuación puede ser considerado como un ruido o una variación al patrón seguido por x. De esta forma la cantidad de ruido o variabilidad de la ecuación va a estar definido como b veces el proceso de Wiener.

Como el proceso de Wiener tiene una desviación estándar de 1, siguiendo con la línea que hemos estado desarrollando, obtendremos entonces que b veces un proceso de Wiener nos dará una desviación estándar de b. Con esto, si tomamos pequeños intervalos de tiempo, los cambios en el valor de x estarán dados por las ecuaciones (2.2.7 y 2.2.8), como:

Donde, como se explicó con anterioridad, corresponde a una variable aleatoria con distribución normal estándar. De aquí se deduce que tiene una distribución normal con:

Por medio de los mismos argumentos que fueron presentados para el proceso de Wiener, se demuestra que para cualquier cambio en el valor de x en un intervalo de tiempo t, x estará distribuida normalmente con:

Media del cambio en x =
Varianza del cambio en x =

Así, el proceso de Wiener generalizado dado por la ecuación 2.2.9, tiene una tasa de cambio esperada por unidad de tiempo igual a a y una varianza por unidad de tiempo de .

Existen alternativas similares al proceso de Wiener, en donde las variables a y b en vez de ser constantes pueden ser funciones variables con respecto a las variables x y t, generando una ecuación diferencial estocástica más compleja.

3.5 Pronóstico de Precios Accionarios

A partir de ahora nos centraremos en los procesos estocásticos utilizados para la determinación de precios accionarios, sin tomar en cuenta las políticas de dividendos de las empresas.
Sería tentador sugerir que los precios de una acción siguen un proceso de Wiener generalizado, es decir, que su tasa de cambio es constante y que su varianza también lo es. Sin embargo, este método sería obsoleto al momento de capturar la característica más importante del precio de las acciones, esto es, que el porcentaje de retorno esperado requerido por los inversores en una acción es independiente del precio de la misma. Claramente, el supuesto de que la tasa de cambio es constante sería inapropiado y debe ser reemplazado por el supuesto de que el retorno esperado (el cambio esperado sobre el precio de la acción) es constante.
De esta forma si S se define como el precio de la acción en el instante t, la tasa de cambio con respecto al precio se denotaría como , siendo un parámetro constante. De la misma forma, para pequeños intervalos de tiempo, el incremento esperado de S estará dado por

Con respecto a , éste parámetro corresponde a la rentabilidad esperada de la acción, expresada de forma decimal.

Así, si supusiéramos que la volatilidad de los precios accionarios fuera siempre igual a cero, el modelo estaría representado por:

Suponiendo

Integrando la ecuación entre el intervalo , obtenemos:

(Ec. 2.3.0).

Donde y son los precios de la acción en los tiempos cero y T respectivamente. La ecuación (2.3.0) muestra que cuando la varianza es igual a cero, el precio de la acción cambiará de forma continua en función de una tasa por unidad de tiempo.

Suponer que la variación de precios accionarios no muestra volatilidad, es bastante lejano a la realidad. Dado esto, es razonable asumir que la variabilidad de una acción estará representada por medio de un porcentaje del precio de ésta y al igual que los retornos, este valor será independiente del precio de la acción.

Finalmente el modelo predictivo estará definido por:

(Ec. 2.3.1).

La ecuación anterior, es una de las más usadas para la modelación del comportamiento de precios accionarios, en donde corresponde a la volatilidad de la acción o desviación estándar, es la rentabilidad esperada y corresponde a la matriz aleatoria de Cholesky (matriz de correlaciones traspuesta por , que es una variable aleatoria proveniente de una distribución normal estándar (con media cero y desviación estándar 1)).

3.6 Generalización de Pronóstico de Precios

El modelo de comportamiento de precios accionarios desarrollado anteriormente, es conocido como Movimiento Browniano Geométrico y en su forma discreta se representa por medio de:

(Ec. 2.3.2).

(Ec. 2.3.3).

La variable representa el cambio en el precio de la acción, en un pequeño intervalo de tiempo y es una variable aleatoria proveniente de una distribución normal estándar (con media cero y desviación estándar 1).

La parte izquierda de la ecuación (2.3.2) corresponde al retorno de la acción en el intervalo de tiempo . El término corresponde al valor esperado de los retornos y representa la componente estocástica de los retornos.

La ecuación (2.3.2) muestra que está normalmente distribuido con media y desviación estándar , en otras palabras:

3.7 Modelo Predictivo

Se usarán los procesos de movimiento browniano como modelo para la generación de rentabilidades futuras. Para ello se generarán números aleatorios normales a los cuales se les incorporan las rentabilidades esperadas, desviaciones estándares y las correlaciones aleatorias de los activos, en base a los datos históricos, generando así un pronóstico de las rentabilidades futuras.

Según lo expuesto anteriormente, la forma en la cual se pronosticarán las rentabilidades diarias futuras será de la forma propuesta en (2.3.1), con la salvedad de que al trabajar con información diaria y querer pronosticar un día, el diferencial del tiempo será igual a 1. De esta forma, para este caso particular, la ecuación quedará definida por :

(Ec. 2.3.4).

Para cada valor de la variable aleatoria , con distribución normal, se genera un escenario de rentabilidad futura para la siguiente unidad de tiempo. Esto se repite un número grande veces y se usan todos esos escenarios para obtener medidas como la rentabilidad promedio y la varianza de las acciones. Esto es lo que se conoce como simulación de Monte Carlo.

3.7.1 Simulaciones de Monte Carlo

Tomar decisiones bajo condiciones de incertidumbre implica realizar esfuerzos para proyectar el futuro con el fin de prever situaciones de riesgo, prepararse para enfrentar condiciones indeseables, evitar opciones erróneas y aprovechar situaciones favorables.

Para esto, las simulaciones de Monte Carlo son una muy buena herramienta con base científica, con la cual se puede llegar a predecir una serie de situaciones o posibles escenarios para un evento.
De esta manera en el año 1998 Nassir Sapag, define los procesos de Monte Carlo como una técnica de simulación de escenarios inciertos que permite obtener valores esperados para variables no controlables, a través de una selección aleatoria, donde la probabilidad de escoger un resultado corresponde a la dada por su distribución.

3.7.2 Correlación de los retornos

En el análisis de retornos es muy importante evaluar la correlación de estos, ya que este indicador nos da una idea del comportamiento de un activo al producirse una variación en el valor de otro activo. En otras palabras el coeficiente de correlación nos indica en que medida dos acciones se mueven en un mismo sentido.

Al generar números aleatorios y obtener los distintos escenarios de rentabilidades esperadas por medio de la ecuación (2.3.1), tanto los retornos como las volatilidades corresponderán aproximadamente a los obtenidos a través de los datos históricos (en teoría son iguales), pero el comportamiento de las acciones entre sí no estará modelado. Esto quiere decir que al no tomar en cuenta en la modelación de los retornos las correlaciones, éstas serán totalmente independientes unas de otras (coeficientes de correlaciones cercanos a cero), lo cual al momento de construir portafolios significa obtener pronósticos bastante alejados de la realidad. Una alternativa para modelar esto utiliza la descomposición de Cholesky, que se analiza en la siguiente sección.

Una de las formas en que se pueden generar pronósticos de retornos correlacionados de la misma forma en que se han correlacionado en el pasado, es por medio de la descomposición o factorización de Cholesky.

En álgebra lineal, la descomposición de Cholesky corresponde a una descomposición matricial, en la cual una matriz simétrica definida positiva se descompone en el producto de dos matrices.
Teorema 1: Toda matriz A simétrica es definida positiva si y sólo si existe una matriz S triangular superior con diagonal estrictamente positiva tal que:

Esta descomposición de la matriz A, se conoce como su factorización de Cholesky.

Una de las aplicaciones más importantes de las factorizaciones triangulares presentadas es que permiten resolver un sistema como dos sistemas triangulares, es decir mediante dos procedimientos de sustitución: uno hacia adelante y otro en reversa.

A continuación se demostrará cómo por medio de la descomposición de Cholesky se pueden obtener series de datos correlacionadas a partir de datos que no estaban correlacionados.

Sean:
: La media de los datos históricos
: Su matriz de varianzas y covarianzas.
R: La matriz de correlación de los datos históricos.

Entonces:
(Ec. 2.3.5).
Donde D es una matriz diagonal con el elemento
(Ec. 2.3.6).
O sea, D es la matriz que tiene en la diagonal las inversas de las desviaciones estándares.
Sea S la descomposición de Cholesky de la matriz :

Sustituyendo esta expresión en (2.3.5), se obtiene:

Lo cual significa que la matriz de la factorización de Cholesky de R es:

A continuación se demostrará que a partir de un vector , o sea independientes y premultiplicándolo por la matriz de la descomposición de Cholesky de R, se obtiene un vector normal correlacionado de la misma forma que los datos históricos; es decir que:

Se sabe que,

y que,

Sustituyendo esta ecuación en la anterior, tenemos que:

De la ecuación (2.3.6) se tiene que es una matriz diagonal cuyos elementos son los inversos de los elementos diagonales de la matriz R, los cuales al ser R una matriz de correlación, estos valores serán iguales a 1. Por lo tanto es igual a la matriz identidad, por lo tanto queda demostrado que:

3.7.3 Generación de los escenarios

Una vez obtenidos los números aleatorios correlacionados, se usa la ecuación (2.3.3) para restituir la media y la desviación estándar histórica de los datos. Matricialmente esto se puede expresar como:

De esta manera, se genera un vector aleatorio con media y desviación estándar igual a los valores históricos, lo cual se demuestra por:

Donde, por lo tanto:

Para el caso de la varianza:

Pero como,

Y como, entonces:

Premultiplicando y postmultiplicando (a) por, vemos que:

Por lo tanto:

Con esto se ha demostrado que por medio de la ecuación (2.3.2) y la descomposición de Cholesky se pueden generar escenarios con media y matriz de varianzas y covarianzas iguales a las históricas.

3.7.4 Implementación del modelo predictivo

El método de Monte Carlo es un algoritmo que se utiliza para estimar el valor esperado de una variable aleatoria, mediante la generación de escenarios, con los cuales se obtiene una visión acerca del comportamiento de las variables.

De esta forma, con ayuda de Matlab 7.4 y TomLab/ CPlex (compilador para optimizar), el algoritmo se “correrá” en un equipo Intel(R) Xeon (TM), 2 procesadores de 3.4 GHz y 2Gb de RAM con sistema operativo Microsoft Windows Server 2003, en el se generarán una serie de números aleatorios para cada una de las acciones del portafolio, simulando un conjunto de escenarios diarios y semanales. Así se obtendrán una gran cantidad de escenarios (Entre 2000 a 5000, en base a la recomendación de Johnson en [6]), distribuidos según una normal estándar con media y desviación estándar igual a los datos y además con la misma correlación (según lo explicado en el capítulo anterior). De esta forma se obtendrá una matriz con una cantidad de filas igual al número de acciones que se manejen y a una cantidad de columnas igual al número de escenarios definidos en la simulación.

Como se dijo, la generación de los números aleatorios será dependiente de la cantidad de activos que se manejen en el portafolio, lo cual el sistema reconocerá por medio de la dimensión del vector de retornos esperados. Por otro lado, la cantidad de escenarios a modelar semanalmente, se ingresan de forma manual, por medio de un parámetro llamado “muestra”.

Una vez generados los números aleatorios, la descomposición de Cholesky permite obtener series correlacionadas de la misma forma en la cual se correlacionan los datos en el pasado, pero manteniendo las medias y las desviaciones estándares de los números aleatorios, es decir y . La dimensión de esta nueva matriz es la misma que la generada por los números aleatorios.

Una vez correlacionados los datos, el siguiente paso corresponde a obtener series con medias y desviaciones estándares iguales a las históricas, ya que como se ha visto las acciones tienen retornos distintos a cero y volatilidades diferentes a 1.

La incorporación de los retornos, las volatilidades y las correlaciones históricas de las series es por medio de la ecuación (2.3.4), la cual proviene del desarrollo del proceso de Wiener. Así se obtiene una matriz que representa una serie de escenarios posibles en términos de retornos para cada una de las acciones del portafolio para un horizonte de tiempo correspondiente a una semana.

De esta manera la generación de números aleatorios, como los procedimientos para obtener correlaciones, rentabilidades y desviaciones estándares iguales a las históricas se repetirán para cada semana que se requiera modelar, generando un arreglo de 3 dimensiones (número de acciones, número de escenarios semanales a simular y horizontes semanales a pronosticar).

El programa entregará dos alternativas de generación de escenarios, una como ya vimos, utilizando la media histórica que se obtiene por la Ec. 2.2.0. y la otra por medio de datos del juicio experto, en nuestro caso por el software “Bloomberg” el cual otorgará los datos de la ecuación 2.3.6, conocida como “Modelo de Valoración de Activos de Capital” o “Capital Asset Pricing Model”(Capm), este es un modelo frecuentemente utilizado en la economía financiera. Sugiere que, cuanto mayor es el riesgo de invertir en un activo, tanto mayor debe ser el retorno de dicho activo para compensar este aumento en el riesgo. Por tanto se tiene:
Ec. (2.3.6).
Donde:
: Tasa libre de riesgo o en Chile bonos reajustables del Banco Central a 5 años
: Tasa de mercado, en nuestro caso sería el IPSA anual.
(Rm − Rf): Representa el exceso de rentabilidad de la cartera de mercado.
: El coeficiente beta, se emplea para medir el riesgo no diversificable. Se trata aquí de un índice del grado de respuesta de un activo ante un cambio en el rendimiento de mercado. El coeficiente beta que caracteriza al mercado es 1; todos los demás coeficientes se juzgan en relación con este valor. Las betas de los activos pueden adoptar valores ya sean positivos o negativos, si bien aquellos (positivos) constituyen la norma. La mayor parte de los coeficientes beta se hallan entre 0,5 y 2 (Juicio experto).

Posteriormente transformamos el a la , por medio de la siguiente ecuación:
Ec. (2.3.7).
Aplicando la ecuación. 2.3.7 y utilizando el de cada activo, queda lo siguiente:

Tabla 1.5 Ejemplo de la obtención de la media semanal por medio del CAPM y la media obtenida por medio de los datos históricos
Fuente: Elaboración propia

En la Tabla 1.5 se tiene las medias semanales (u_semanal) por medio del Capm para los 20 activos que se reemplazarán en la ecuación 2.3.4, la cual proviene del desarrollo del proceso de Wiener. Así se obtiene una matriz que representa una serie de escenarios posibles en términos de retornos para cada una de las acciones del portafolio para un horizonte de tiempo correspondiente a una semana. Se aprecia claramente la diferencia entre las medias obtenidas por Capm y por los datos históricos, esto se debe a que en los últimos 10 años la Bolsa de Comercio de Santiago ha experimentado un alza considerable en el precio de las acciones, por lo que al usar la media histórica se estaría en presencia de mucho “ruido”. Dado lo anterior conviene usar la media semanal obtenida por el Capm ya que es mucho más conservadora.

CAPITULO IV ALGORITMO DE OPTIMIZACIÓN PARA EL CÁLCULO DEL VaR
En esta parte, se presentará un algoritmo de minimización del VaR, para el cual se considera que todos los supuestos que fueron indicados en las ecuaciones (Ec. 2.4 – 2.9).

4.1 Descripción informal del algoritmo

Por definición, el -VaR es el valor más pequeño, tal que la probabilidad de que la pérdida será menor o igual a este valor es más grande o igual a . Basados en la simulación de los escenarios, el portafolio -VaR; portafolio cuya probabilidad de que la pérdida sea menor o igual al VaR es mayor o igual a , se estima como la pérdida en un escenario k, donde la probabilidad total de todos los escenarios con pérdidas menores o iguales a es al menos .

La línea general de pensamiento detrás del algoritmo heurístico que se considerará en este trabajo es bastante simple. Ésta comienza con un portafolio óptimo que se obtiene al aplicar una aproximación al mínimo CVaR, luego se reduce sistemáticamente el VaR del portafolio solucionando una serie de problemas de CVaR usando técnicas de programación lineal. Estos problemas de CVaR son obtenidos restringiendo y «desechando» los escenarios que van mostrando grandes pérdidas.

El objetivo del algoritmo es ir construyendo límites superiores para el VaR, para luego minimizar estos límites. El primer límite superior para el -VaR es el -CVaR, el cual se minimiza. Luego se dividen los escenarios en los cuales las pérdidas exceden -VaR y se «descarta» la porción superior de estos escenarios (véase figura 2.2). El número de escenarios que se desechan es determinado por el parámetro (e.g., si es igual a 0.5 entonces se desecha la mitad superior). La Figura 1.4 muestra el primer paso del acercamiento, cuando se desechan los escenarios con grandes pérdidas y se excluyen (haciéndolos «inactivos»). Luego se calcula un nuevo de tal forma que el CVaR con este nuevo sea un límite superior para el VaR del problema original. Este -CVaR es la pérdida esperada de los escenarios activos con pérdidas que exceden al -VaR, es decir, los escenarios entre el -VaR y la línea punteada de la figura. De esta forma se va reduciendo al mínimo el límite superior. Resumiendo, el procedimiento consta de la construcción de una serie de límites superiores que se van reduciendo al mínimo hasta no poder seguir descartando escenarios activos. Al final de este procedimiento se procede a usar la heurística considerada en [17] el cual minimiza la perdida , mientras se asegura que las pérdidas en los escenarios que exceden a están guardadas en . Este acercamiento requiere solucionar una serie de problemas de programación lineal.

Figura 1.4 Ejemplo Gráfico del Algoritmo Implementado.
Fuente: [22]

En la Figura 1.4, se observa que en el Segundo paso del algoritmo se restringen y se descartan los escenarios que muestren las mayores pérdidas (haciéndolos inactivos). Así un nuevo CVaR es generado, de tal manera que este CVaR sea un límite superior del VaR.

En la siguiente sección, el algoritmo será explicado con mayor nivel de detalle.

4.1.1 Algoritmo

En esta sección se da una descripción formal del algoritmo antes introducido.

Notar que la solución de este problema de optimización está dada por

ii) Con respecto al valor de la función de pérdidas , ordenar los escenarios, , en orden ascendente, denotando los escenarios ordenados por , .

Paso 2: Estimación del VaR.

Calcular la estimación del VaR, , donde
.
Paso 3: Criterio de parada del algoritmo

Si , detener el algoritmo. Donde será la estimación óptima del portafolio y el VaR será igual a .

Paso 4: Reinicialización

i) .
ii) y
iii) .
iv) Ir al paso 1.

En Otras palabras:

Paso 1: Sub-Problema de Optimización

Con respecto al valor de la función de pérdidas , ordenar los escenarios, , en orden ascendente, denotando los escenarios ordenados por , .
f(xi*, yln)<= f(xi*, yl2)<= ……..<= f(xi*, yl5000)

Paso 2: Estimación del VaR.

l(0.95)= l=0,95*5000=4750
α=0.95 ; i=0 ; H0={1… 5000}

Paso 3: Criterio de parada del algoritmo

Si , detener el algoritmo. Donde será la estimación óptima del portafolio y el VaR será igual a .

Por lo tanto en la posición 4486 corresponde el mínimo riesgo (VaR) con la rentabilidad esperada esperada.

Una vez definido el problema formalmente, se explica con más detalle cada uno de los pasos anteriores.

El paso 0 inicializa el algoritmo definiendo como el nivel de confianza , y fijando la el contador de las iteraciones en cero.

Los escenarios incluidos en el sub-problema de optimización del CVaR (ecuación 2.3.8), se definen como activos. Inicialmente todos los escenarios son activos y se denota por el conjunto H0 (este conjunto lo que realmente denota, es el conjunto de índices de los escenarios activos). En los pasos siguientes, a medida que se va solucionando el sub-problema de optimización definido por el CVaR, solamente se irán considerando el conjunto de escenarios activos, definido por Hi (recalquemos que Hi es el conjunto de índices de los escenarios activos en el Paso i). Los escenarios llamados inactivos corresponden a los que han sido excluidos en las iteraciones anteriores. El parámetro define la proporción de escenarios de la cola que será excluida en cada iteración. Por ejemplo, si = 0,5, la mitad de la cola se excluye en cada iteración. Más adelante se le darán diferentes valores a esta variable para ver cómo influyen estas variaciones en el algoritmo.

El paso 1 soluciona el sub-problema de optimización de reducir el -CVaR, el cual es un límite superior del -VaR. La variable es una variable libre que asegura que las pérdidas en los escenarios inactivos excedan a aquellas que corresponden a los escenarios activos.

En el paso 2, el VaR se estima como la pérdida en el escenario tal que la probabilidad acumulada de los escenarios con pérdidas menores o iguales a la de este escenario es mayor o igual a .

En el paso 3, el algoritmo se detiene cuando la optimización del sub-problema se ha realizado sobre solo uno de los escenarios activos, es decir, cuando se han reducido al mínimo las pérdidas en el escenario que corresponde a la estimación del -VaR. De esta forma, la cantidad de iteraciones a realizar, antes de obtener una solución óptima, dependerá de la magnitud de los siguientes parámetros:

J: Cantidad de muestras o escenarios a modelar.
Alfa ( ): Nivel de confianza. ( -VaR)
Chi ( ): Proporción de escenarios de la cola que será excluida en cada iteración.

En el paso 4, se define de tal forma de que -CVaR, el cual es calculado solamente en función de los escenarios activos sea un límite superior del -VaR original. Minimizando el -CVaR sobre los escenarios activos, da lugar a una minimización del valor medio de la cola activa que excede al -VaR. En la figura 2.2 se ejemplifica esta situación.

Además, en este paso se excluyen del sistema de escenarios activos Hi la parte superior de los escenarios activos que exceden al -VaR. Por ejemplo, según lo ilustrado en Figura 1.4, en la primera iteración la cola está dividida en dos partes, la parte superior de la cola se hace inactiva y la parte inferior corresponde al conjunto H1 de escenarios activos.

4.2 Resultados del Algoritmo de Optimización

En esta parte del capítulo, se mostrarán los resultados obtenidos por medio del algoritmo de optimización.

Como primer paso, sólo se considerarán las variables relacionadas con la cantidad de escenarios a modelar (J), el nivel de confianza (α), que define el α -VaR y la proporción de escenarios de la cola que serán excluidos en cada iteración (ξ), obteniendo el comportamiento del VaR en el portafolio seleccionado bajo restricciones de diversificación de un 30% y la no exigencia sobre los retornos, este cálculo se realizará de forma análoga para los dos casos de generación de escenarios; media histórica y la calculada mediante Capm (ver capítulo 3.7.4).

Para los casos antes descritos, se toman los siguientes valores:

J = 5000 α =0.95 ξ = 0.5

Tabla 1.6 Resultados de los Datos del Algoritmo Implementado utilizando media semanal histórica y media por medio del Capm.
Fuente: Elaboración propia

En la Tabla 1.6 se aprecia que bajo las mismas condiciones, la generación de escenarios, el retorno es más optimista cuando se usa la media histórica es vez de la media Capm, este fenómeno era de esperarse ya que la muestra de los activos que se tomó para el análisis, contempla sólo los 10 últimos años (1997-2007), que es justamente fue el período en donde el mercado bursátil subió más de lo esperado, por lo que deberíamos tomar en cuenta los resultados del algoritmo usando la media obtenida por el Capm, ya que son datos más conservadores.

Cabe destacar que, el algoritmo por si solo ha optado por activos con retornos positivos en desmedro de activos con retornos negativos, lo cual da una idea de la forma en como está trabajando.

Se observa además que en ambos casos, al aumentar el tiempo de 4 a 36 semanas el retorno se va incrementando, acrecentándose con ello el riesgo.

Gráfico 1.3 Gráfico comparando las dos alternativas de simulación de escenarios
Fuente: Elaboración propia

Analizando el Gráfico 1.3, observamos la conservación del principio básico de finanzas, el que dice que a mayor retorno mayor riesgo (VaR), el cual se aplica para los dos casos de las medias.

Como se mencionó en el párrafo anterior, se aprecia que al usar la media histórica, el pronóstico de retorno v/s riesgo es más optimista que el de la media Capm, ya que la segunda es más conservadora.

Siguiendo con nuestro estudio, ahora fijamos un horizonte a pronosticar de 24 semanas (6 meses), 5000 escenarios (J=5000), intervalo de confianza de un 90% (α =0.9) y ξ = 0.5 (parámetro fijo del algoritmo, índica que la mitad de la cola se excluye en cada iteración) y cambiando la diversificación (div) y exigiéndole retorno, los resultados son los siguientes:

Tabla 1.7 Datos que entrega el software (Tesis)
Fuente: Elaboración propia

En la Tabla 1.7 se vislumbra, que bajo un mismo escenario (div=0.3), si dejo que el algoritmo “trabaje sólo”, es decir, sin exigirle cierto retorno, éste obtiene un riesgo (VaR) menor que cuando se le exige un retorno del 5.5%.

Ahora exigiéndole al algoritmo que el portafolio de inversión al menos rente un 6% con la misma diversificación de un 30%, éste no encuentra el portafolio óptimo con la rentabilidad pedida, ya que en ese período no hay acciones más rentables, por consiguiente el programa entrega un mensaje de “Error”, “pruebe una rentabilidad menor”.

De esta manera, si dejamos la diversificación igual a 1, es decir, que el algoritmo escoja las acciones más rentables y invierta de forma libre sin restricción de cuando invertir en cada acción y le exigimos al algoritmo que al menos rente un 6%, el riesgo sube de forma categórica al exigirle un mayor retorno, esto claramente debe cumplirse ya que es uno de los principios básicos de finanzas, que a mayor riesgo del portafolio mayor es el retorno esperado .

Ahora analizando otros casos:
Escenarios: 5000 y usando media semanal Capm

Tabla 1.8 Variación del Intervalo de Confianza para tres Períodos de Tiempo
Fuente: Elaboración propia

En la Tabla 1.8 se analizó la variación del nivel de confianza (90%, 95% y 99%) para tres períodos de tiempo 4, 12 y 20 semanas respectivamente, con un mismo nivel de diversificación 20% y sin exigirle retorno. Para los tres períodos de tiempo se aprecia, que a menor intervalo de confianza del VaR, menor es el riesgo asociado al portafolio y a medida que se vaya aumentando el nivel de confianza, el riesgo asociado aumentará considerablemente.

Tabla 1.9 Variación del Nivel de Diversificación para un Horizonte de Tiempo de 8 Semanas y un Intervalo de Confianza de un 95%.
Fuente: Elaboración propia

En la Tabla 1.9 se aprecia que al ir aumentando el nivel de diversificación del algoritmo, el retorno esperado del portafolio y el riesgo asociado a éste son bastante similares, esto ocurre ya que lo que hace ésta restricción es ver cuando es lo máximo que se puede invertir en cada activo. Por lo general, esta restricción es usada por las Administradoras Generales de Fondos ya que la SVS se los impone bajo la norma Nº 148.

Finalmente, para un horizonte de tiempo de 12 semanas (3 meses) y con un nivel de confianza de un 95% y además un nivel de diversificación del portafolio de un 30% se obtienen los siguientes resultados:

Tabla 2.0 Variación del ζ en el Algoritmo
Fuente: Elaboración propia

En la Tabla 2.0 se observa que, al aumentar el parámetro chi (ξ) en el algoritmo, el retorno esperado del portafolio y el riesgo asociado a éste se mantienen constantes, éstos resultados son los esperados ya que este parámetro está al asociado tiempo que toma al algoritmo en converger en la solución, en otras palabras, la cantidad de iteraciones que tiene que realizar para llegar al óptimo.

4.3 Validación del Algoritmo de Optimización

Para comprobar que efectivamente nuestro algoritmo entrega el vector óptimo de pesos a invertir en cada acción con un riesgo VaR mínimo, se hizo lo siguiente:
Se tomo el ejemplo anterior (J=5000, α =0.9, div =0.3, horizonte= 24 semanas y el retorno se dejo libre). Se ejecutó el software y el vector óptimo obtenido por el algoritmo X* se perturbó de la siguiente manera:

X1 = X* + e1  VaR1, E(r)1
X2 = X* + e2  VaR2, E(r)2
X3 = X* + e3  VaR3, E(r)3

Xn = X* + e4  VaRn, E(r)n
en donde y .

Es decir, en el vector , se perturbó la 1era componente en un 1%, al resto de las componentes se les restó , donde n es el número de componentes que son mayores a 0.01 (para que no sean inferiores a 0 y que la suma de Xi sea igual a 1). Posteriormente, al nuevo punto X se le calculó el retorno esperado y el VaR.

Para que se demuestre que, efectivamente estamos en presencia del óptimo, la gráfica resultante debe quedar así:

Figura 1.5 Validando el Óptimo que entrega el Algoritmo
Fuente: Elaboración propia

Esto significa (ver figura 1.5), se tiene que en el segundo cuadrante no puede haber ningún punto, ya que si hay un punto en él, quiere decir que bajo un mismo riesgo (Var) o menor a este obtengo un mayor retorno, lo cual contradice la teoría financiera.

Cuando ejecutamos la validación con las perturbación del 1%, se obtuvieron los siguientes resultados:

Figura 1.6 Resultados de la validación del algoritmo
Fuente: Elaboración propia

Figura 1.7 Zoom de las perturbaciones de la figura 2.7
Fuente: Elaboración propia

En la Figura 1.6 se observa que efectivamente, el algoritmo arroja el vector óptimo de pesos a invertir con un riesgo asociado mínimo, ya que al perturbar el vector X, los valores resultantes, efectivamente tienen un mayor retorno esperado, también un mayor VaR.

La Figura 1.7 es una ampliación de la Figura anterior, y nos muestra que las perturbaciones forman una curva y no una recta como parecía vislumbrarse en la Figura 1.6.

CAPITULO V CONCLUSIONES Y RECOMENDACIONES

En esta memoria, se ha logrado cumplir con el objetivo propuesto de implementar computacionalmente un algoritmo de optimización, inexistente en el mercado nacional, que calcula el VaR por medio de la minimización del CVaR.

Aunque este tipo de algoritmo puede ser usado para todo tipo de transacciones financieras, durante este trabajo la implementación se realizó para portafolios de inversiones accionarías, en base a activos transados en el mercado nacional, pero bajo una metodología extrapolable a casi cualquier mercado mundial.

Es importante resaltar que el uso del VaR como medida de riesgo se ha masificado a través del mundo. En Chile actualmente es un requisito de la Superintendencia de Valores y Seguros (SVS) como cuantificador de riesgo para algunos tipos de transacciones. Con respecto a esto, se debe decir que a nivel nacional, las estimaciones del VaR sólo se resuelven por medio de metodologías estadísticas, las cuales están bastante lejos del algoritmo de optimización desarrollado en esta memoria.

En general las evaluaciones del VaR de tipo estadísticas se utilizan para cuantificar los riesgos ex-post, tomando en consideración portafolios definidos. Por lo tanto, sólo se utilizan para tener una idea del nivel de riesgo tomado, en vez de usarlo como una herramienta de decisión a futuro. Por otra parte, el algoritmo implementado da como resultado un portafolio óptimo en términos del VaR, es decir calcula los pesos a invertir en cada activo, obteniendo simultáneamente el CVaR, medida de riesgo más deseable (debido a sus propiedades) y más conservadora.

Con respecto a la obtención y generación de información financiera para el funcionamiento del algoritmo, se debe decir que aunque las proyecciones de precios accionarios corresponden a materias de gran dificultad a la hora de modelarlas, debido a su gran aleatoriedad, volatilidad, expectativas y movimientos bruscos del mercado, las técnicas usadas como las simulaciones de Monte Carlo, factorización de Cholesky y procesos de Wiener, fueron de gran ayuda para obtener pronósticos de las rentabilidades, volatilidades y correlaciones similares a los históricos exhibidos por las series originales.

En relación a los resultados obtenidos con respecto al algoritmo de optimización, se puede apreciar que están en línea con la teoría financiera en lo que respecta a la relación entre el riesgo del portafolio (VaR) y la diversificación, y el retorno exigido al portafolio óptimo que determina el algoritmo.

En el capítulo III, para la generación de los escenarios se trato de simular el comportamiento de las acciones de la forma más real posible, cambiando la media histórica de los retornos por el CAPM, ya que los de cada acción y las tasas libre de riesgo y de mercado son obtenidas por el juicio experto de personas a nivel mundial por lo que la visión de éstas suele ser más real que una media histórica sesgada.

En el capítulo IV, con respecto al retorno requerido del algoritmo, se observó que a partir de determinado valor, el VaR crece sustancialmente. Un comportamiento similar se puede apreciar en el análisis del nivel de diversificación libre versus diversificación estática.

Desde el punto de vista estadístico, se podría agregar a esta memoria otras distribuciones además de la normal, en la modelación por procesos de Wiener, en particular, es deseable tener en cuenta distribuciones asimétricas que corresponden de manera más realista al comportamiento de los precios accionarios, por ejemplo t- student o distribución logística.

Finalmente, otra perspectiva de desarrollo de esta memoria podría ser la consideración de carteras de inversión con otros tipos de activos como bonos y opciones, así como aplicaciones en las áreas de seguros o créditos bancarios.

REFERENCIAS BIBLIOGRÁFICAS

[1]: Portillo P., M.P., Sarto, J.L. (2001): Dirección financiera del riesgo de interés, Ed. Pirámide, Madrid.
[2]: http://www.bde.es/informes/be/estfin/completo/estfin03_06.pdf
[3]: Jorion Phillippe (2000): Value at Risk: the new benchmark for managing financial risk, 2da edición, McGraw-Hill.
[4]: Sharpe, W (1964): «Capital Assets Prices: A Theory of Market Equilibrium Under Conditions of Risk», Journal of Finance, nº 19, pp. 425-442.
[5]: Garman, M. y Blanco, C.(1998): «Nuevos Avances en la Metodología de Valor en Riesgo: Conceptos de VeRdelta y VeRbeta», Revista Análisis Financiero, nº 75, pp. 6-8.
[6]: Johnson Christian A. (2000): “Métodos de evaluación del riesgo para portafolios de inversión”, Documentos de trabajo, Banco Central de Chile, Nº67.
[7]: https://emportal.jpmorgan.com/JPMorganMexico/doc_jun2006/24.pdf
[8]: Romero, R., Laengle, S. (2005): “Implementación del Value at Risk Condicional para la Toma de Decisiones”, mimeo Universidad de Chile, Facultad de Ciencias Económicas y Administrativas.
[9]: Rockafellar, R.T., Uryasev, S. (2002): “Conditional Value-at-Risk for general loss distributions”, Journal of Banking & Finance 26, pp.1443-1471.
[10]: Artzner, P., Delbaen, F., Eber, J.M., Health, D. (1999): “Coherent Measures of Risk”, Mathematical Finance 9, pp.203-228.
[11]: Antonio Parisi F. (2006): “Diversificación y Manejo del Riesgo”, Revista Economía y Administración, Universidad de Chile, pp. 70-71.
[12]: Markowitz, H. (1952): «Portfolio Selection”, journal of finance, pp. 77-91.
[13]: Brealey, Myers, Allen. (2006): “Principios de Finanzas Corporativas”,8ª ed., McGraw-Hill, pp. 161-187.
[14]: http://www.gacetafinanciera.com/PORTAF1.ppt
[15]: http://www.innovanet.com.ar/gis/TELEDETE/TELEDETE/bmatyest.htm
[16]: Palmquist J., Uryasev S. y Krokhmal P. (1999): “Portfolio optimization with Conditional Value at Risk Objective and contraints” Universidad de Florida, Departamento de Ingeniería Industrial y se Sistemas.
[17]: Mausser, H. y D. Rosen. (1998) “Efficient Risk/ Return Frontiers from Credit Risk”, Algo Research Quarterly, Vol 2, N°2, pp. 5-20.
[18]: Rockafellar, R.T. y S. Uryasev S. (2001): “Conditional Value at Risk for General Loss Distributions”, Research Report 2001-5. ISE Dept., Universidad de Florida.
[19]: Uryasev, S. (2000): “Conditional Value at Risk: Optimization Algorithms and applications” Financial Engineering New, 14, pp. 1-6.
[20]: Hull, John C. (1999): “Options, Futures and other derivatives”. Prentice Hall, Cuarta Edición. New Jersey.
[21]: Duffie, D & Pan, J. (1997): “An Overwiew of Value at Risk”, Journal of Derivates, 4, 7-49.
[22]: Larsen N., Mausser H., Uryasev S. (2001): “Algorithms for Optimization of Value at Risk”, Research Report 2001-9. ISE Dept., Universidad de Florida.

Cita esta página

Zanberk Walter Felipe. (2008, mayo 30). Minimización del Valor en Riesgo VaR como estrategia de inversión. Recuperado de https://www.gestiopolis.com/minimizacion-del-valor-en-riesgo-var-como-estrategia-de-inversion/
Zanberk Walter Felipe. "Minimización del Valor en Riesgo VaR como estrategia de inversión". gestiopolis. 30 mayo 2008. Web. <https://www.gestiopolis.com/minimizacion-del-valor-en-riesgo-var-como-estrategia-de-inversion/>.
Zanberk Walter Felipe. "Minimización del Valor en Riesgo VaR como estrategia de inversión". gestiopolis. mayo 30, 2008. Consultado el . https://www.gestiopolis.com/minimizacion-del-valor-en-riesgo-var-como-estrategia-de-inversion/.
Zanberk Walter Felipe. Minimización del Valor en Riesgo VaR como estrategia de inversión [en línea]. <https://www.gestiopolis.com/minimizacion-del-valor-en-riesgo-var-como-estrategia-de-inversion/> [Citado el ].
Copiar

Escrito por:

Imagen del encabezado cortesía de olanjaa en Flickr