DOCUMENTO DE TRABAJO

E C O N O M Í A TESIS de MAGÍSTER IInstituto N S T I de T Economía U T O D E DOCUMENTO DE TRABAJO  #    "  I     
Author:  Pilar Espejo Rico

2 downloads 71 Views 868KB Size

Recommend Stories


DOCUMENTO DE TRABAJO
DOCUMENTO DE TRABAJO CICLO ECONOMICO-FINANCIERO Y EL COMPORTAMIENTO DE LA MOROSIDAD BANCARIA EN EL CORTO PLAZO: UN ANALISIS EXPLORATORIO PARA COSTA RI

Documento de trabajo
Facultad de Ciencias Sociales de Cuenca Documento de trabajo SEMINARIO PERMANENTE DE CIENCIAS SOCIALES LIDERAZGO RELACIONAL EN EL ÁMBITO DE LA © de l

DOCUMENTO DE TRABAJO
DOCUMENTO DE TRABAJO El pensamiento ilustrado en Latinoamérica y España: nuevas ideas en torno al progreso, la educación, las bellas artes y el dibuj

Story Transcript

E C O N O M Í A

TESIS de MAGÍSTER

IInstituto N S T I de T Economía U T O D E

DOCUMENTO DE TRABAJO



#    "  I          ; 1

www.economia.puc.cl

PONTIFICIA UNIVERSIDAD CATOLICA DE CHILE INSTITUTO DE ECONOMÍA

EFICIENCIA REAL DEL LSM Y CORRECCIÓN POR INSTRUMENTOS

FELIPE EDUARDO SAFFIE KATTAN

Tesis para optar al grado de Magíster en Economía Financiera

Comisión: AUGUSTO CASTILLO GONZALO EDWARDS Santiago de Chile, Diciembre, 2007 © 2007, Felipe Eduardo Saffie Kattan

Índice General

Índice de Tablas

iii

Índice de Figuras

v

Índice de Gráficos

vi

Agradecimientos

vii

Resumen

viii

Abstract

ix

1.- Introducción

1

2.- Revisión de la literatura

2

2.1.- Opciones Financieras

2

2.2.- Modelación Binomial

3

2.3.- Modelo de Black & Scholes

12

2.4.- Resolución por diferencias finitas

15

2.5.- El paso a la simulación

18

2.6.- Barraquand y Martineau

19

3.- El LSM de Longstaff y Schwartz (2001)

23

4.- Estudios acerca del LSM

36

5.- El uso práctico del LSM

39

6.- Eficiencia del uso de parámetros estimados

45

7.- Uso de un activo ficticio como “ancla”

53

8.- Experimentos y eficiencia

66

9.- Conclusiones y extensiones

76

10.- Bibliografía

79

11.- Anexo I: Oportunidades de arbitraje

82

12.- Anexo II: Matriz de varianza y covarianza no estocástica

92

13.- Anexo III: Efecto de la varianza del activo correlacionado

97

ii

Índice de Tablas

Tabla 3-2: Flujo de Caja de la Opción si se Espera hasta el Último Período

27

Tabla 3-3: Primera Regresión

28

Tabla 3-4: Decisión Óptima en el Segundo Período

28

Tabla 3-5: Matriz de Pagos del Segundo Período

29

Tabla 3-6: Segunda Regresión

29

Tabla 3-7: Regla de Ejercicio Óptimo de la Opción

30

Tabla 3-8: Valor Presente Asociado a las Distintas Trayectorias

30

Tabla 6-1: Características de la Familia de Polinomios de Laguerre

48

Tabla 6-2: Resultados de Stentoft (2004)

49

Tabla 6-3: Aumento de la RECM cuando se Utiliza una Estimación de la Desviación Estándar

51

Tabla 7-1: Resultados del LSM tradicional de Stentoft (2004)

59

Tabla 7-2: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Conocida (1)

60

Tabla 7-3: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Conocida (2)

60

Tabla 7-4: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Conocida (1)

61

Tabla 7-5: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Conocida (2)

61

Tabla 8-1: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Desconocida (1)

68

Tabla 8-2: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Desconocida (2)

68

Tabla 8-3: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Desconocida (1)

69

Tabla 8-4: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Desconocida (2)

69 iii

Tabla 8-5: LSM Tradicional con Varianza Desconocida

70

Tabla 12-1: LSM con el Activo Ficticio como Regresor con ρ = 0.5 , Utilizando σ pero Simulando con ∑ para distintos σ 2 (1)

94

Tabla 12-2: con el Activo Ficticio como Regresor con ρ = 0.5 , Utilizando σ pero Simulando con ∑ para distintos σ 2 (2)

94

Tabla 12-3: LSM con el Activo Ficticio como Instrumento, para Distintos ρ Utilizando ∑ para Simular (1)

95

Tabla 12-4: LSM con el Activo Ficticio como Instrumento, para Distintos ρ Utilizando ∑ para Simular (2)

95

Tabla 12-5: LSM con el Activo Ficticio como Instrumento, para Distintos ρ Utilizando ∑ para Simular (3)

96

Tabla 13-1: LSM con el Activo Ficticio como Regresor Utilizando

ρ = 0.5 para Distintos Valores de σ 2 (1)

98

Tabla 13-2: LSM con el Activo Ficticio como Regresor Utilizando

ρ = 0.5 para Distintos Valores de σ 2 (2)

98

Tabla 13-3: LSM con el Activo Ficticio como Instrumento Utilizando

ρ = 0.5 para Distintos Valores de σ 2 (1)

99

Tabla 13-4: LSM con el Activo Ficticio como Instrumento Utilizando

ρ = 0.5 para Distintos Valores de σ 2 (2)

99

iv

Índice de Figuras

Figura 2-1: Árbol de Precios de S

8

Figura 2-2: Pagos de la Opción Americana

9

Figura 2-3: Determinación de la Trayectoria de Ejercicio Óptima

10

Figura 2-4: Espacio de Diferencias Finitas

16

Figura 2-5: Esquema de Barraquand y Martineau (1995)

20

Figura 3-1: Esquema General del LSM

24

Figura 11-1: Nomenclatura de los estados de la Naturaleza

82

Figura 11-2: Precios Contingentes de los Activos de esta Economía

83

Figura 11-3: Patrón de Pagos de la Opción Europea

84

v

Índice de Gráficos

Gráfico 6-1: Comparación de las RECM

51

Gráfico 7-1: RECM del LSM Tradicional y de la Variación al Modo “Regresor”

62

Gráfico 7-2: RECM del LSM Tradicional y de la Variación al Modo “Instrumento”

63

Gráfico 7-3: Comparación de las RECM

64

Tabla 8-5: LSM Tradicional con Varianza Desconocida

70

Gráfico 8-1: Desviación Estándar de los Distintos Métodos

72

Gráfico 8-2: Valor Absoluto del Sesgo de los Distintos Métodos

72

Gráfico 8-3: Desviación Estándar Promedio de los Distintos Métodos

73

Gráfico 8-4: Valor Absoluto del Sesgo Promedio de los Distintos Métodos

74

Gráfico 8-5: Promedio del Valor Absoluto del Sesgo de los Distintos Métodos

74

Gráfico 13-1: Desviación estándar Promedio de los Distintos Métodos

100

Gráfico 13-2: Valor Absoluto del Sesgo Promedio de los Distintos Métodos

100

Gráfico13-3 Promedio del Valor Absoluto del Sesgo de los Distintos Métodos

101

vi

Agradecimientos En primer lugar dedico este trabajo a mis padres: Eduardo y Fernanda, sin su apoyo nunca estaría optando al grado de Magíster. También quiero agradecer a mis hermanos, en particular a Gonzalo. A su vez, la compañía de Daniela fue fundamental en este largo proceso. La ayuda de mi profesor y amigo Rodrigo Troncoso fue determinante a la hora de programar, sin él esta empresa habría sido imposible. Así mismo, el apoyo y la paciencia de la comisión me permitieron dedicarme sin temor a este proyecto. Quiero agradecer especialmente la confianza de los profesores Augusto Castillo, Rodrigo Cerda, Gonzalo Cortázar, Raimundo Soto y Felipe Zurita, que aún sin conocer el proyecto en detalle siempre me exhortaron a continuar. Agradezco a su vez el apoyo de mis amigos Felipe Labbé y Nicolás Birkner además no puedo dejar de mencionar a Carmen Garcés por su inagotable atención y cariño. Finalmente quiero dar las gracias a Fernando Luco y a mi primo Juan Carlos Saffie por ayudarme con infinita paciencia a revisar y editar este trabajo. Cabe destacar que ninguna de las personas anteriores es responsable de los resultados que expongo en este trabajo.

vii

Resumen El objetivo de esta tesis es estudiar los efectos en la eficiencia del LSM cuando se toma en cuenta que el investigador trabaja con aproximaciones de los parámetros verdaderos que rigen el movimiento del subyacente. Para comenzar, este trabajo elabora una reseña de los distintos métodos que existen para valorar opciones americanas. Luego se centra en el estudio del algoritmo LSM (Least Squares Montecarlo) propuesto por Longstaff y Schwartz (2001). Los experimentos muestran que la varianza del LSM es cien veces mayor que la sugerida por sus autores. A continuación se evalúa el uso de algoritmos alternativos cuando se conocen con exactitud los parámetros que rigen el movimiento del subyacente. Estos algoritmos se comportan incluso mejor que la versión original. Finalmente se evalúa el uso de estos nuevos algoritmos cuando se toma en cuenta el problema práctico que surge al no conocer realmente los parámetros. Aunque el resultado de estos últimos experimentos refleja alguna mejoría, sobre todo en materia de sesgo, se concluye que los cambios no logran dar cuenta de la totalidad del problema en cuestión. Por lo tanto, este trabajo llama a explorar otras posibles soluciones para la ineficiencia práctica expuesta.

viii

Abstract This work studies the effects in LSM efficiency when considering the fact that investigators work with estimations of real parameters which rule the behavior of the underlying asset. To begin with, it resumes the different existing methods for evaluating american options. It then moves onto the study of the LSM algorithm (Least Squares Montecarlo) proposed by Longstaff & Schwartz (2001). Experiments show that LSM volatility is a hundred times greater than the one suggested by its authors. The use of alternative algorithms is then considered, when knowing precisely the parameters that rule the movement of the underlying asset. These algorithms behave even better than the original version. Finally the use of these new algorithms is evaluated when taking account of the practical problem that emerges when the parameters are unknown. Although the result of these last experiments reflect some advance, specially in terms of bias, it is concluded that changes done the original LSM algorithm cannot solve the whole problem. Hence, this work calls for alternative solutions for the practical inefficiency found.

ix

1.- Introducción: El problema de la valoración de opciones y otros derivados ha cobrado protagonismo en materia de economía financiera ganando adeptos incluso más allá de las fronteras de su propio rubro. En efecto, la contribución de los métodos de valoración ha trascendido el mundo de las finanzas, constituyendo actualmente la punta de lanza en materia de valoración de recursos naturales. Más allá incluso, podría decirse que la valoración financiera se ha hecho cargo de uno de los problemas centrales de la economía: la pregunta por el valor económico de un activo riesgoso. La primera parte de este trabajo se hace cargo de dicha pregunta exponiendo los principales métodos existentes para valorar opciones americanas. El último gran avance en materia de valoración de opciones es sin lugar a dudas el estudio seminal de Longstaff y Schwartz (2001). Sin embargo, el presente trabajo busca encontrar fundamentos empíricos de corte econométrico para perfeccionar este algoritmo que ya ha revolucionado el mundo de la valoración de opciones. El primer resultado de este trabajo consiste en estudiar los efectos en la eficiencia del algoritmo cuando se toma en cuenta que los parámetros que éste utiliza son estimaciones empíricas de los verdaderos. En esta materia se observa que la varianza del algoritmo puede aumentar hasta cien veces. Un segundo objetivo consiste en evaluar y proponer aumentos en la eficiencia de las estimaciones si se reemplaza el método de Mínimos Cuadrados Ordinarios (MICO) por métodos de regresión más complejos. Luego de presentar la intuición que fundamenta dicho cambio, se realizan algunos estudios numéricos que permiten comparar con el original el nuevo algoritmo propuesto para evaluar si es conveniente invertir un poco más en la econometría del algoritmo.

1

2.-

Revisión de la Literatura

Esta sección está dedicada al lector menos familiarizado con los métodos de valoración de opciones financieras. Si usted conoce tanto las metodologías tradicionales como los últimos avances en valoración de opciones por simulación, puede obviar esta sección. Sin embargo, si éste no fuese el caso, se le recomienda comenzar revisando esta sección. 2.1.- Opciones Financieras: Una opción es un activo financiero que otorga a quien lo posee un derecho a transar el subyacente en algún momento futuro a un cierto precio pactado de antemano. Básicamente existen dos tipos de derechos: los derechos de compra y los derechos de venta. Una Call otorga al poseedor el derecho a comprar el activo subyacente y una Put el derecho a venderlo a un precio prefijado. Si el derecho puede ser ejercido solamente al momento del vencimiento del contrato, hablamos de una opción europea; en cambio, si el poseedor del derecho puede ejercerlo además en cualquier momento anterior a dicha fecha, la opción es llamada americana. A modo de ejemplo, una Put al cobre como subyacente con precio de ejercicio P y fecha de maduración T será europea, si sólo puede ser ejercida en T . En esa fecha, el dueño del derecho puede vender una unidad de cobre al precio P obteniendo una ganancia de P − S , es decir, la diferencia entre el precio al que la opción le permite vender el cobre y el precio del metal en el mercado spot en T . Si en cambio, el dueño del derecho puede ejercerla en cualquier momento t anterior a T entonces la opción será americana. Queda de manifiesto que la opción americana otorga al poseedor un derecho más amplio que la opción europea, por lo tanto, el valor de una opción americana nunca puede ser inferior al de una opción europea de iguales características.

2

2.2.-

Modelación Binomial:

Para entender la diferencia fundamental en la valoración de opciones americanas y europeas es conveniente simplificar la realidad y detenerse en un ejemplo sencillo, donde la incertidumbre puede modelarse a través de un proceso binomial. Esta modelación fue desarrollada por Cox et al. (1979). Sea S el precio hoy del activo subyacente, supongamos que dicho precio puede subir en un

(1 − d ) ×100% con

( u − 1) ×100%

probabilidad

(1 − q ) .

con probabilidad q y caer en un

El retorno esperado de dicho activo

puede expresarse como:

1 + rs =

S ∗ u ∗ q + S ∗ d ∗ (1 − q ) S

(1)

Sin embargo, dicho retorno incluye lo que usualmente llamamos un premio por riesgo, por ejemplo, el cobre es un activo riesgoso y su retorno no está asegurado. Por lo tanto, es muy difícil, sin una correcta teoría que modele dicho premio por riesgo, basarse en rs para valorar los derivados del cobre. En efecto, el valor de dicho premio por riesgo está anclado en las preferencias de los individuos, en particular, en el nivel de su aversión al riesgo, por lo tanto, la teoría financiera se ha alejado de los modelos de equilibrio que necesitan supuestos acerca de las preferencias de los individuos hacia modelos que utilizan argumentos de arbitraje. Los modelos de arbitraje, al suponer completitud en el mercado financiero, pueden replicar cualquier perfil de pagos en función de un conjunto de activos, de esta forma, el valor del portafolio equivalente debe ser el mismo que el del activo a valorar para evitar cualquier oportunidad de arbitraje. Estos modelos se basan en los precios vigentes de los activos para encontrar los precios de los derivados que eliminen las oportunidades de arbitrar.

3

Para entender la profundidad de este argumento consideremos una generalización presentada por Hull 1 (2003). Imaginemos un activo con un precio hoy de S0 y una opción cuyo precio es hoy f . Manteniendo el esquema binomial antes descrito, si postulamos un horizonte de tiempo T en el que existen dos estados de la naturaleza posibles, en uno de ellos el precio del activo sube y resulta ser S0u con u > 1 . En ese escenario la opción entrega un monto fu . En el otro escenario el precio del activo es S0 d con d < 1 y el flujo de la opción resulta ser f d . Postulamos también la existencia

de un activo libre de riesgo con retorno r compuesto continuamente que entrega el mismo retorno en T sin importar el estado de naturaleza resultante. Claramente en este ejemplo existen mercados completos, es decir, como mínimo, existe el mismo número de instrumentos no redundantes que de posibles estados de la naturaleza y no hemos impuesto ninguna restricción a la venta corta de activos financieros. Por lo tanto será posible estructurar un argumento de arbitraje. Imaginemos un portafolio constituido por Δ posiciones largas de S y una posición corta en la opción. Buscaremos encontrar el valor de Δ que hace que el portafolio anterior sea libre de riesgo, es decir, que hace que éste rinda exactamente lo mismo en cualquiera de los dos estados de la naturaleza. Formalmente buscamos que:

S 0u Δ − f u = S 0 d Δ − f d

1

(2)

Remitirse al capítulo décimo de dicho texto.

4

De donde obtenemos:

Δ=

fu − f d S 0u − S 0 d

(3)

El portafolio formado replica exactamente al activo libre de riesgo. Es así como, en esta economía hemos construido dos caminos para asegurar un flujo de S0u Δ − f u en el próximo período sin importar el estado de naturaleza. Una forma es invertir ( S0u Δ − fu ) e − rT en el activo libre de riesgo y la otra es invertir S0 Δ − f en el portafolio libre de riesgo que acabamos de estructurar. Por lo tanto, para evitar cualquier oportunidad de arbitraje el costo de ambos caminos ha de ser el mismo:

( S0uΔ − fu ) e− rT

= S0 Δ − f

(4)

f = S0 Δ (1 − ue − rT ) + f u e − rT

(5)

Lo que puede expresarse como:

Reemplazando por el valor de Δ con un poco de álgebra podemos postular:

f = e− rT ⎡⎣ pf u + (1 − p ) f d ⎤⎦

(6)

Donde:

p=

erT − d u−d

5

La fórmula anterior no involucra en sentido alguno las probabilidades de que se dé uno u otro estado de la naturaleza, sorprendentemente puede valorarse la opción sin nunca hacer uso ni de q ni del retorno rs . Más aún, en la fórmula final p se presenta claramente como una medida de la probabilidad de que se dé el estado de naturaleza u . A estas “pseudos” probabilidades se les conoce como “probabilidades neutrales al riesgo”. Utilicemos p para calcular la esperanza del precio del subyacente en T . E ( ST ) = pS0u + (1 − p ) S0 d

(7)

Al reemplazar por la fórmula de p y reordenando obtenemos: E ( ST ) = S0 e rT

(8)

Por lo tanto, en esperanza bajo el régimen de probabilidad p , el activo S rinde exactamente la tasa libre de riesgo. En un mundo con agentes

neutrales al riesgo, los individuos sólo se preocupan por el pago esperado de los activos sin exigir un premio por el riesgo que corren. En esas condiciones todo activo debe rendir la tasa libre de riesgo. Por lo tanto, al fijar p como la probabilidad que rige los estados de la naturaleza estamos valorando los activos como si estuviésemos en un mundo donde todos los agentes son neutrales al riesgo. El ejemplo anterior pone de manifiesto un principio fundamental en la valoración de activos financieros: se puede asumir un mundo neutral al riesgo al momento de valorar activos financieros y estar completamente seguro de que, bajo mercados completos, los precios encontrados son válidos en cualquier otro mundo. Recapitulando, si imaginamos una economía con agentes neutrales al riesgo en la que se observan los mismos precios de equilibrio que en la

6

economía real, no existe razón para exigir a los activos un premio por riesgo, todo activo debe rendir, en esperanza con probabilidades neutrales, la tasa libre de riesgo. De esta forma, al estructurar una teoría de valoración de activos podemos construir nuevas probabilidades p y (1 − p ) que hagan que el activo en cuestión rinda en esperanza la tasa libre de riesgo, y al trabajar con dichas probabilidades podemos estar seguros que eliminamos las oportunidades de arbitraje. Derivemos dichas probabilidades neutrales al riesgo por el camino inverso y en tiempo discreto. Sean p y (1 − p ) las probabilidades que hacen que el retorno esperado del activo sea libre de riesgo:

( S * u ) p + ( S * d ) * (1 − p ) = 1 + r S

f



(9)

De aquí es posible obtener que:

p=

ρ −d u−d

y que

1− p =

u−ρ u−d

Bajo el régimen de probabilidad ajustado por riesgo todo activo debe rendir la tasa libre de riesgo, y en base a dicho rendimiento podemos valorar cualquier derivado de S . En particular detengámonos en el siguiente ejemplo acerca de una opción Put americana con precio de ejercicio de 110 y fecha de maduración T = 2 .

7

El proceso del subyacente ajustado por riesgo puede esquematizarse como 2 : Figura 2-1: Árbol de Precios de S S × u 2 = 169

S × u = 130

S × u × d = 104

S = 100 S × d = 80

S × d 2 = 64

Donde: S 0 = 100 u = 1.3 d = 0.8 r = 1.1 p=

1.1 − 0.8 = 0.6 1.3 − 0.8

El flujo de la opción en cada nodo, por ser un derecho y no una obligación, debe entenderse como Vnodo = Máx ( P − St ;0 ) , donde P es el precio de ejercicio de la opción. Por lo tanto, los flujos asociados al ejercicio de la opción pueden presentarse como:

2

Tanto u como d están constantes, por lo tanto, la probabilidad neutral al riesgo entre dos escenarios adyacentes sigue siendo la misma.

8

Figura 2-2: Pagos de la Opción Americana 0

0

6

10 30

46

Si la opción fuese una Put europea, el poseedor no tiene más alternativa que evaluar su ejercicio en la fecha final 3 , de este modo, existen tres trayectorias en las cuales ejercería su derecho y una en la que dejaría que la opción venciese. Si ponderamos por las probabilidades neutrales al riesgo y descontamos por la tasa libre de riesgo obtenemos el valor de la opción que impide oportunidades de arbitraje. En este caso, el valor de la opción europea es:

VE =

2 × 0.4 × 0.6 × 6 + 0.42 × 46 = 8.46 4 2 1.1

Sin embargo, si la opción es americana el poseedor debe decidir en cada oportunidad de ejercicio previa al vencimiento si ejercerá su derecho o esperará hasta el período siguiente 5 . Para decidir si le conviene aguardar Por construcción, incluso si vende el derecho en T = 1 , obtiene en esperanza neutral al riesgo el valor de la opción. 4 En el primer anexo de este trabajo se demuestra que este precio no permite oportunidades de arbitraje. 5 Cabe destacar que si el poseedor ejerce hoy una opción americana obtiene una ganancia de 10 , por lo tanto, ese monto es ya un piso para dicho derivado. 3

9

hasta la fecha siguiente el poseedor compara el valor esperado de conservar la opción con el flujo de caja que obtendría si la ejerce en ese momento. Para esto se debe comenzar de la fecha T − 1 y comparar el valor de ejercer en dicha fecha, en cada trayectoria, con el valor esperado de esperar hasta

T . Una vez que se tiene la trayectoria óptima de ejercicio el proceso de valoración es análogo al caso anterior. Primero calculamos los valores esperados de aguardar para cada nodo comenzando con el penúltimo:

Vt esperar = 2;nodo =1 =

0.6*0 + 0.4*6 = 2.18 1.1

Vt esperar = 2;nodo = 2 =

0.6*6 + 0.4* 46 = 20 1.1

Vt esperar =1; nodo =1 =

0.6* 2..18 + 0.4*30 = 12.1 1.1

Luego comparamos el valor de esperar con el valor de ejercer: Figura2-3: Determinación de la Trayectoria de Ejercicio Óptima 0

0 < 2.2

6

10 < 12.1 30 > 20

46

10

Si el subyacente sube su precio en el primer período la opción sólo será ejercida si en el segundo período el subyacente bajó. En cambio, si el cobre baja inicialmente, la opción americana será ejercida inmediatamente. De esta forma, el valor de la opción americana es de 12.1 , claramente superior al valor de la Put europea. El gran desafío en la valoración de opciones americanas es determinar el momento óptimo de ejercicio del derecho en cuestión, problema que en el caso de una opción europea no se enfrenta. Aunque este método simplifica bastante la realidad, ha sido ocupado ampliamente para la valoración de opciones americanas. Otros modelos de esta familia comprenden la lógica extensión hacia árboles trinomiales. Por lo demás este método es bastante realista si el número de períodos es alto y el intervalo entre cada fecha es pequeño.

11

2.3.-

Modelo de Black y Scholes (1973):

Si bien es cierto que el modelo binomial simplifica en extremo la realidad, es un muy buen punto de partida para entender los desarrollos más importantes en el área de valoración de opciones. Para acercarnos más a la realidad debemos complejizar el movimiento del subyacente. Un supuesto aceptado es que el activo subyacente sigue un proceso browniano geométrico. Consideremos primero el proceso real del subyacente:

ds = S μ s dt + Sσ s dw Donde

dw = ε dt

ε ∼ N ( 0,1) Con independencia en los dw para pequeños lapsos de tiempo dt En esta ecuación, μ s representa el retorno esperado del activo riesgoso S y σ s 2 la varianza de dicho retorno. Nuevamente, para poder esgrimir

correctamente argumentos de no arbitraje escribimos el proceso bajo el régimen de probabilidades neutrales al riesgo. Cabe destacar, que si bien el retorno del subyacente debe coincidir con la tasa libre de riesgo, su varianza se mantiene inalterada. El proceso neutral al riesgo puede representarse como:

ds = Srdt + Sσ s dw

(10)

Siguiendo con esta lógica, una opción financiera C , sin importar sus características, puede ser vista como una función del proceso de su subyacente y del tiempo que resta para su vencimiento. Por lo tanto,

12

aplicando el lema de Îto podemos encontrar fácilmente el proceso estocástico de la opción en cuestión:

1 dC ( S ; T ) = Cs ds + CT dT + Css ds 2 2

(11)

1 dC = Cs ( Srdt + Sσ s dw ) − CT dt + S 2σ s2 dt 2

(12)

1 ⎛ ⎞ dC = ⎜ Cs Sr − CT + S 2σ s2 ⎟ dt + ( Cs Sσ s ) dw 2 ⎝ ⎠

(13)

Cabe destacar que la opción C debe someterse a su vez al principio de no arbitraje, es decir, su retorno ajustado por riesgo, el término que acompaña a dt , debe corresponder a la tasa libre de riesgo. En base a esto podemos plantear la siguiente ecuación diferencial:

1 2 2⎞ ⎛ ⎜ Cs Sr − CT + S σ s ⎟ dt = Crdt 2 ⎝ ⎠

(14)

1 Cs Sr − CT + S 2σ s2 − Cr = 0 2

(15)

La solución de la ecuación diferencial anterior en función de las condiciones de borde propias de la naturaleza del derivado financiero que se esté analizando, proporciona el valor del instrumento. En el caso de una opción Call europea con precio de ejercicio K y madurez T , las condiciones de borde son las siguientes: C ( 0; t ) = 0

(16)

C ( S ; T ) = Máx ( S − K ;0 )

(17)

Es decir, si en algún momento el subyacente llega a valer cero la opción pierde la totalidad de su valor. En este sentido, cuando el precio del activo

13

subyacente toca el suelo es imposible que llegue a recuperarse, de hecho, si existiese una posibilidad de que esto sucediera, su retorno esperado sería positivo y por ende el valor del subyacente hoy no podría ser nulo. La segunda condición expresa claramente la naturaleza de la opción, al momento de su madurez el derivado tiene, por definición, un valor de Máx ( S − K ;0 ) si es una opción de compra.

Esta ecuación diferencial fue hallada y resuelta por Black y Scholes (1973). Dicho trabajo es sin lugar a dudas la piedra angular de toda la teoría de valoración de activos financieros. Resumiendo la resolución de los autores, podemos decir que si suponemos que el logaritmo del retorno del subyacente sigue un proceso normal podemos aplicar fácilmente las resoluciones clásicas de la física a la ecuación anterior. En concreto, para el caso de una Call Europea: ⎛S ln ⎜ T ⎝ S0

⎞ ⎛⎛ 1 2⎞ 2 ⎞ ⎟ ~ N ⎜ ⎜ r − σ s ⎟ T ;σ s T ⎟ 2 ⎠ ⎝⎝ ⎠ ⎠

(

C = SN ( h ) − Ke − rT N h − σ s T

)

(18) (19)

Con ⎛S⎞ ln ⎜ ⎟ + rT 1 K + σs T h= ⎝ ⎠ 2 σs T La fórmula anterior, que lleva el nombre de sus autores, es el procedimiento generalizado para la valoración de opciones de compra europeas 6 . Sin embargo, aunque la ecuación diferencial antes expuesta es de validez general para cualquier instrumento financiero, su resolución analítica en el caso de opciones americanas de plazo finito 7 resulta imposible. El fondo de esa imposibilidad es la movilidad de las condiciones 6

Existe una variante muy similar de dicha fórmula para opciones de venta. Con excepción de una Call americana sin dividendos, en cuyo caso el valor coincide con el de la opción Call europea, pues jamás es óptimo ejercer anticipadamente.

7

14

de borde, en suma, el problema ya mencionado de la determinación de la trayectoria óptima de ejercicio. 2.4.-

Resolución por diferencias finitas:

Como vimos en la sección anterior, las condiciones de borde de la ecuación diferencial dificultan enormemente su solución en el caso de una opción americana. Sin embargo, gran parte del problema radica en el carácter continuo del tiempo. En efecto, al discretizar la ecuación en cuestión puede elaborarse una malla de valores que permita encontrar, para un valor dado del subyacente, el correspondiente valor del derivado. En este sentido, Brennan y Schwartz (1977) aplican a la ecuación diferencial anterior la técnica de las diferencias finitas. En esta sección expondremos esquemáticamente el procedimiento en su versión explícita, siguiendo la exposición del texto de Hull 8 (2003). Para comenzar, es necesario definir el dominio del valor de la opción en función de los parámetros que lo determinan, es decir, el precio del subyacente y el plazo. Para fines expositivos definiremos de la manera más simple dicho espacio, dándole una forma rectangular. Para comenzar dividimos el espacio en pequeñas variaciones de ambos ejes, como muestra el siguiente recuadro:

8

Remitirse al capítulo décimo octavo de dicho texto.

15

Figura 2-4: Espacio de Diferencias Finitas

Cambio subyacente (j)

Espacio rectangular de diferencias finitas

j ΔS

i Δt

Oportunidades de ejercicio (i)

A continuación se busca expresar de manera discreta la ecuación diferencial ya mencionada. Imaginemos que se requiere valorar una opción Put americana con precio de ejercicio P y madurez T que notaremos C . Por lo tanto la ecuación diferencial es:

1 2 2 σ s S Css + rSCs + Ct − rC = 0 2

(20)

El siguiente paso es encontrar una expresión discreta para las derivadas de C . Usando las aproximaciones finitas explícitas obtenemos:

⎡Ci +1, j +1 − Ci +1, j −1 ⎤⎦ Cs ≈ ⎣ 2ΔS

(21)

⎡Ci +1, j +1 − 2Ci +1, j + Ci +1, j −1 ⎤⎦ Css ≈ ⎣ ΔS 2

(22)

⎡Ct +1, j − Ci , j ⎤⎦ Ct ≈ ⎣ Δt

(23)

16

Ahora, al reemplazar en la ecuación diferencial, podemos obtener una aproximación robusta del valor de esperar en cada punto del espacio. De esta forma se puede comparar, en todo punto, el flujo que se obtiene al ejercer inmediatamente la opción con el valor esperado de aguardar, al que llamamos valor de transición y definimos como:

Vi ,transición = a jVi +1, j −1 + b jVt +1, j + c jVi +1, j +1 j

(24)

con : 1 2 2 ⎞ ⎛ 1 ⎜ − rj Δt + σ s j Δt ⎟ 2 2 ⎠ aj = ⎝ 1 + r Δt

bj

(1 − σ =

2 s

j 2 Δt )

1 + r Δt

1 2 2 ⎞ ⎛1 ⎜ rj Δt + σ s j Δt ⎟ 2 2 ⎠ cj = ⎝ 1 + r Δt Por lo tanto, al definir el valor estado como: Vi ,estado = fi , j = máx ( P − j ΔS ;0 ) j

(25)

Podemos encontrar el valor de la opción en cada nodo definido como:

(

Vi , j = Máx Vi ,estado ;Vi ,transición ) j j

(26)

17

La resolución de la ecuación diferencial comienza en el último período, es decir en el borde derecho del espacio, y retrocede calculando primero el valor de transición para el período inmediatamente anterior. Al comparar dicho valor con el valor de estado, se obtiene el valor de la opción en el nodo en cuestión. Repitiendo este proceso se calcula el valor de la opción en cada punto del espacio. En particular, cuando Δt es 0 , el valor corresponde al de la opción hoy para distintos valores iniciales del subyacente posibles. Cabe destacar que si bien se ha demostrado la robustez y consistencia de este método, cuando los factores de riesgo aumentan, es decir, cuando el valor del subyacente no es la única fuente de variabilidad en el valor de la opción, la definición del espacio se hace cada vez más difícil y engorrosa. En efecto, con más de dos factores de riesgo la resolución por esta vía pasa de complicada a imposible. A esta falencia se le conoce con el nombre de la maldición de la dimensionalidad. 2.5.-

El paso a la simulación:

La evaluación de opciones americanas presenta un importante desafío para la profesión. Desde el ya mencionado trabajo de Black y Scholes (1973) surgieron diversos intentos para lograr una estrategia analítica que diera con el valor de dichos instrumentos. Algunos de estos intentos se basan en métodos de aproximación como Geske y Johnson (1984), a través de distintos polinomios, o Barone-Adesi y Whaley (1987) con funciones cuadráticas. Otros intentan basarse en la valoración de opciones europeas y agregar un premio como Kim (1990) y Carr et al. (1992), pero esta familia de soluciones requieren simplificar bastante el tipo de opciones por lo que tienen un radio de acción muy limitado y son de muy poco uso en la realidad.

18

Paralelamente, surgen los primeros intentos para valorar opciones europeas por simulación, en particular, Boyle (1977) plantea que esta nueva estrategia de valoración permite escapar a la ya mencionada maldición de la dimensionalidad en este tipo de opciones. Sin embargo, la necesidad de encontrar la trayectoria óptima de ejercicio en el caso de opciones americanas, es decir, la necesidad de recorrer las trayectorias desde la última fecha hasta la primera, parecía hacer imposible la utilización de simulaciones, que se mueven en la dirección contraria, para la valoración de esta clase de instrumentos. Si bien es cierto que una estrategia pura de simulación parece estar destinada al fracaso, los avances teóricos y computacionales permitieron la aparición de algoritmos más completos que incluyen en las simulaciones elementos de programación dinámica, es decir, que logren incorporar el movimiento recursivo necesario para encontrar la trayectoria óptima de ejercicio. Para clarificar esta nueva vía nos detendremos en el revolucionario trabajo de Barraquand y Martineau (1995) para luego exponer en detalle, en la sección siguiente, el algoritmo de Longstaff y Schwartz (2001). 2.6.-

Barraquand y Martineau (1995)

La intuición del método de Barraquand y Martineau (1995) es sin duda alguna el modelo de árboles de Cox et al. (1979), con el que comenzamos. En efecto, los autores simulan distintas trayectorias para el subyacente del instrumento y a partir de esas simulaciones arman una estructura muy similar a los ya mencionados árboles. Si recordamos el modelo binomial, el corazón de la resolución consistía en comparar el valor esperado de continuar con el valor puntual de ejercer la opción, y de esta forma construir la trayectoria óptima de ejercicio. En particular, para obtener el valor esperado de continuar se necesitan, además de los flujos de caja del siguiente período, las probabilidades neutrales al riesgo de pasar del estado

19

actual a cualquiera que lo siga. Para encontrar dichas probabilidades neutrales al riesgo los autores dividen el espacio en celdas, y, como las simulaciones fueron hechas de acuerdo a un proceso neutral al riesgo, puede calcularse una probabilidad de transición entre una celda y cualquier otra para el siguiente período de manera simple. Luego, con dichas probabilidades es fácil recorrer el sistema comparando los valores de continuar con los de ejercer, de manera de obtener la trayectoria óptima y finalmente valorar la opción. Formalmente, los autores dividen el espacio del pago de la opción en K celdas, donde k = 1,..., K . Además en el modelo existen d oportunidades de ejercicio de la opción igualmente distantes. El siguiente gráfico muestra dicho procedimiento: Figura 2-5: Esquema de Barraquand y Martineau (1995)

Pagos

Metódo de Celdas

0

Celda (k o l)

1

2

3

4

5

6

7

8

9

10

11

Tiempo

Trayectoria simulada a partir del precio spot hoy. En cada celda k y para todo momento t podemos definir el valor de estado de la opción Vt estado como el promedio del valor de ejercicio de la ,k

20

opción en el momento t , de todas las trayectorias ωk pertenecientes a la celda k . Es decir, suponiendo nuevamente una Put con precio de ejercicio

P:

Vt ,estado = k

∑ Máx ( P − S (ω ) ;0 ) t

at ( k )

k

(27)

con: ωk trayectoria que pertenece a la celda k.

at ( k ) número de trayectorias en la celda k en t.

El siguiente punto es definir el valor de transición en el momento t . Para esto, necesitamos calcular las probabilidades de pasar de la actual celda k a toda celda l . Como ya dijimos, esas probabilidades pueden entenderse como simples frecuencias dado el alto número de simulaciones:

pt ( k , l ) =

bt ( k , l ) at ( k )

donde: bt ( k , l ) corresponde a la cantidad de trayectorias que pasaron de la celda k a la l. at ( k ) número de trayectorias en la celda k en t.

Con estas probabilidades podemos calcular el valor esperado de continuar descontado al momento t , es decir Vktransición : ,t

⎡K ⎤ − r Δt Vktransición = ,t ⎢ ∑ pt ( k , l ) Vl ,t +1 ⎥ e ⎣ l =1 ⎦

(28)

21

Luego, con los valores de estado y de transición calculados, puede determinarse la decisión óptima en cada nodo para obtener así el valor de la opción en cada momento del tiempo:

⎡ ∑ Máx ( P − St (ωk ) ;0 ) ⎡ K ⎤ ⎤ Vk,t = Máx ⎢ ; ⎢ ∑ pt ( k , l ) Vl ,t +1 ⎥ e − r Δt ⎥ at ( k ) ⎣ l =1 ⎦ ⎦ ⎢⎣

(29)

Finalmente, retrocediendo hasta el momento inicial en donde nacen todas las simulaciones, encontramos el precio de la opción americana en cuestión. Este trabajo simplifica bastante el problema de valoración obteniendo buenos resultados cuando existe un solo factor de riesgo. Sin embargo, cuando existen múltiples factores de riesgo se ha de elegir uno, el más importante, para definir los distintos estados. Por lo tanto, como es de esperar, cuando existen varios factores relevantes las aproximaciones son menos acertadas. Raymar y Swecher (1997) se hacen cargo de este problema aumentando la dimensión de las celdas, es decir, dentro de cada celda se realiza una segunda agrupación, sin embargo, el problema se vuelve más complejo y podría decirse que se cae en una nueva versión de la maldición de la dimensionalidad.

22

3.- El LSM de Longstaff y Schwartz (2001)

Recordemos que el mayor desafío en la valoración de opciones americanas consiste en determinar satisfactoriamente la trayectoria óptima de ejercicio del derivado. Es decir, estimar correctamente el valor esperado de mantener la opción para así poder compararlo con el flujo que resultaría de ejercerla inmediatamente. La gran intuición de Longstaff y Schwartz (2001) consiste en buscar en la econometría dicha respuesta. En efecto, cuando se realiza una regresión cualquiera, lo que se obtiene es la esperanza condicional de la variable dependiente en función de los valores de las independientes. De esta forma, a través del tipo más simple de regresión, Mínimos Cuadrados Ordinarios (MICO), los autores logran encontrar el patrón óptimo de ejercicio para la opción. Dado que esta tesis está directamente basada en el LSM, el algoritmo será expuesto con la mayor claridad posible. Para comenzar utilizaremos un esquema simple que ilustre su funcionamiento, luego lo aplicaremos a un ejemplo sencillo y finalmente expondremos el algoritmo en toda su formalidad. La primera aproximación al LSM que presentamos está inspirada en el trabajo de Stentoft (2004). Imaginemos el caso de una opción Put con un precio de ejercicio P igual al nivel inicial del subyacente S (0) y maduración en t2 = T . Por lo tanto, la función de pagos de la opción, cuando es ejercida, puede definirse como: G ( P = S ( 0 ) , S (τ ) ,τ ) = Max ( P − S (τ ) , 0 )

(30)

23

Donde τ

indica el momento óptimo de ejercicio de la opción. La

primera parte del método consiste en simular trayectorias para el subyacente, en este caso, imaginamos seis posibles patrones j donde S j ( ti ) es el valor del subyacente bajo la trayectoria j en el momento ti , los que pueden representarse como: Figura 3-1: Esquema General del LSM

S 2 ( ti )

S1 ( ti )

S 4 ( ti )

S6 ( ti )

S1 ( ti ) S ( 0)

S 2 ( ti )

S6 ( ti )

S 5 ( ti )

S 3 ( ti )

Región “in the money”

S 4 ( ti )

S 5 ( ti )

S 3 ( ti ) Tiempo

0

t2 = T

t1

Analizando primero el momento t2 = T , es decir, la fecha de expiración de la opción, donde ya no puede postergarse más el ejercicio, constatamos que el poseedor siempre ejercerá su derecho si el nivel del subyacente es menor que P , es decir, si la opción está “in the money”. Para calcular el momento óptimo de ejercicio para los distintos patrones es útil constatar que en t1 la opción está “in the money” sólo para tres trayectorias, particularmente: j = 3,5, 6 . Por lo tanto, sólo en estos tres patrones se nos plantea

la

disyuntiva

entre

seguir

esperando

hasta

t2

o

ejercer

inmediatamente. Ésta es la primera gran ventaja del LSM, sólo trabaja con

24

las trayectorias “problemáticas”, es decir, las que obligan al poseedor a decidir si ejercer o esperar. En este punto, los autores proponen correr una regresión por MICO que cuente con el valor presente de mantener la opción,

e − r ( t2 −t1 ) × Max ( P − S j (T ) , 0 ) , como variable dependiente y como variables explicativas use transformaciones de S j ( t1 ) . La regresión se realiza sólo con los datos de los patrones j = 3,5, 6 . Luego de efectuar la regresión, se utiliza el modelo esperado para obtener la estimación en valor presente de aguardar. Este valor sirve exclusivamente para decidir si la opción ha de ser ejercida o no, en este ejemplo sencillo: Si el valor de ejercer en t1 para algún

j es mayor que la esperanza condicional que surge de la regresión, entonces τ j = t1 para esa trayectoria, de no ser así τ j = T . Si existen más fechas, el procedimiento se repite hasta llegar al momento inicial, y allí se toma el promedio del valor de la opción bajo todas las trayectorias. En suma, el valor de la Put para M trayectorias es:

PLSM =

(

1 M ⎡ − rτ j × ∑ e × Max P − S j (τ j ) , 0 ) ⎤ ⎦ M j =1 ⎣

(31)

Luego de haber expuesto la intuición general del método de Longstaff y Schwartz (2001), proponemos a continuación una aplicación numérica en un ejemplo sencillo, inspirado en el trabajo original, que permitirá facilitar la posterior exposición formal del algoritmo. Supongamos que se quiere valorar una opción Put americana con precio de ejercicio 1.10 y vencimiento en T = 3 . Para comenzar simulamos ocho posibles trayectorias del subyacente a partir del precio actual de 1.00 . Para estas simulaciones nos basamos en un browniano geométrico simple expresado por:

25

dS = Srdt + bSdw con r = 6% y b = 30%

Donde r es la tasa libre de riesgo y b el parámetro de difusión del proceso. La siguiente tabla muestra los resultados de dichas simulaciones: Tabla 3-1: Valores Simulados para el Subyacente

T Trayectorias 1 2 3 4 5 6 7 8

0 1 1 1 1 1 1 1 1

1 0.59 0.84 0.97 1.14 1.02 1.27 1.51 1.02

2 0.52 0.65 0.91 1.68 0.57 1.49 1.8 1.25

3 0.51 0.59 0.83 1.77 0.55 1.45 2.27 0.84

Para comenzar nos centramos en t = 2 . En esa fecha hay cuatro trayectorias “in the money”, es decir, sólo en

j = 1, 2,3,5 se plantea la

disyuntiva entre ejercer en t = 2 o esperar hasta t = 3 . Por lo tanto, para todos esos patrones debemos conocer el valor esperado de continuar. La siguiente tabla expone el valor obtenido en t = 3 si la opción se ejerce en ese período:

26

Tabla 3-2: Flujo de Caja de la Opción si se Espera hasta el Último Período

Flujo de caja al ejercer en 3 T Trayectorias 1 2 3 4 5 6 7 8

0 -

1 -

2 -

3 0.59 0.51 0.27 0 0.55 0 0 0.26

Dicho valor se obtiene aplicando en cada trayectoria la fórmula:

Max (1.10 − S j ( t = 3) , 0 )

(32)

Luego, para formar la primera regresión, utilizamos como variable explicativa las distintas formas funcionales del subyacente en t = 2 para las trayectorias “in the money”. El vector de variables explicadas son los valores descontados que surgen del ejercicio racional en t = 3 en las trayectorias estudiadas, es decir:

e− r t × Max (1.10 − S j ( t = 3) , 0 ) para j = 1, 2,3,5

(33)

La siguiente tabla resume la regresión que ha de ser efectuada:

27

Tabla 3-3: Primera Regresión

Regresión en t=2 Y 0.56 0.48 0.26 0.52

Trayectorias 1 2 3 5

X 0.52 0.65 0.91 0.57

Luego de correr una regresión con las dos primeras potencias del subyacente y una constante obtenemos el siguiente modelo estimado:

Y = 0.74 − 0.1X − 0.46 X 2

(34)

Con este modelo podemos obtener la esperanza condicional en t = 2 de esperar.

En

efecto,

reemplazando

en

cada

trayectoria

los

valores

particulares del subyacente se calcula fácilmente la esperanza condicional del flujo futuro, en valor presente, en función del precio actual del activo. Luego ese valor se compara con el flujo que resulta del ejercicio inmediato en t = 2 y se toma la decisión óptima de continuar o esperar. La siguiente tabla expone los resultados para este caso: Tabla 3-4: Decisión Óptima en el Segundo Período

Trayectorias 1 2 3 5

Ejercicio óptimo en 2 Ejercitar Continuar 0.58 0.56 0.45 0.48 0.19 0.26 0.53 0.53

Decisión ejercer continuar continuar ejercer

Con esta primera parte de la trayectoria de ejercicio óptima podemos obtener los flujos de caja de los dos últimos períodos. Cabe destacar, que si

28

se decide continuar en t = 2 , el valor de la opción en el período siguiente no será su esperanza condicional sino el flujo que surge al ejercer la opción dado el valor efectivo en esa trayectoria en el período siguiente. Hasta ahora, la matriz de pagos de la opción es la siguiente: Tabla 3-5: Matriz de Pagos del Segundo Período

Trayectorias 1 2 3 4 5 6 7 8

1 -

Matriz de Pagos en t=2 T 2 0.58 0 0 0 0.53 0 0 0

3 0 0.51 0.27 0 0 0 0 0.26

Luego se repite el procedimiento para evaluar si, en las trayectorias que se encuentran “in the money” en t = 1 conviene esperar o ejercer. El procedimiento es análogo, y la nueva regresión se resume en la siguiente tabla: Tabla 3-6: Segunda Regresión Regresión en t=1 Trayectorias Y 1 0.54 2 0 3 0 5 0.5 8 0

X 0.59 0.84 0.97 1.02 1.02

Dicha regresión permite completar la regla de movimiento, la que podemos expresar como:

29

Tabla 3-7: Regla de Ejercicio Óptimo de la Opción Regla de movimiento: E=ejercitar T 1 2 E E E E -

Trayectorias 1 2 3 4 5 6 7 8

-

3 E

-

Finalmente, siguiendo esa regla, descontamos los flujos hasta el primer período y, dado que suponemos que todas las trayectorias son igualmente probables, calculamos el valor de la opción como el promedio de los flujos en t = 0 . En este caso: Tabla 3-8: Valor Presente Asociado a las Distintas Trayectorias

Trayectorias 1 2 3 4 5 6

Si contamos la posibilidad de ejercer hoy Flujo de caja al ejercer óptimamente T Valor de la trayectoria en 0 1 2 0.51 0.58 0.25 0.26 0.12 0.13 0.1 0.47 0.53 0.1 -

7

0.1

-

-

8

0.22

-

-

3 0.26

Y así el valor de la opción resulta ser hoy el promedio del valor presente de todas las trayectorias, esto es: 0.23. Luego de haber expuesto el funcionamiento del algoritmo de Longstaff y Schwartz (2001), podemos expresarlo en toda su formalidad con suficiente claridad. La siguiente exposición está basada en el trabajo original y en la interpretación que Urzúa (2004) hace del algoritmo.

30

A pesar de la gran inversión en notación que se requiere para una exposición formal de este tipo, es muy útil tener en mente el ejemplo sencillo presentado en esta misma sección. Para comenzar, se realiza una partición del espacio temporal en K oportunidades de ejercicio, entre el instante inicial 0 y la fecha de maduración de la opción T . Por lo tanto, la secuencia de instantes puede representarse como 0 < t1 < t2 < ... < t K = T . En el ejemplo anterior K = 3 . Luego se realizan N simulaciones del conjunto de las h variables estocásticas subyacentes de la opción que agrupamos en el vector xt de dimensión h , ω representa una trayectoria particular del conjunto de patrones generados. Por lo tanto, en cada oportunidad de ejercicio se tiene una matriz X t de dimensión N × h que agrupa todas las realizaciones de los subyacentes de la opción. En el ejemplo anterior N = 8 y h = 1 . El método supone que el dueño de la opción sigue una política de ejercicio racional, siendo óptima para todo momento s tal que t < s < T . De esta forma, se define C (ω , s; t , T ) como el flujo de caja de la opción dado que ésta no ha sido ejercida ni con anterioridad ni en el momento t . Por lo tanto, en cada oportunidad de ejercicio tk puede construirse un vector Ctk de dimensión N con los flujos asociados a todas las trayectorias. En el ejemplo anterior serían las tablas intermedias con el flujo de caja asociado a cada trayectoria. Asimismo definimos G (ω , ti ) como el valor esperado de continuar para la realización ω en la oportunidad tk , pero el método aproxima dicho valor a través de las distintas regresiones, a ese valor aproximado le llamamos G (ω , ti ) y al vector de dimensión N que agrupa el las aproximaciones del valor esperado de continuar para todas las trayectorias lo llamaremos G ( ti ) .

31

El verdadero valor esperado de continuar en cada trayectoria, G (ω , ti ) puede expresarse como:

⎡ K ⎤ ⎛ tj ⎞ G (ω , tk ) = E ⎢ ∑ exp ⎜ − ∫ r (ω , s ) ds ⎟ × C (ω , t j , tk , T ) / f tk ⎥ ⎜ tk ⎟ ⎢ j = k +1 ⎥ ⎝ ⎠ ⎣ ⎦ Q

(35)

En la expresión anterior se deja abierta la posibilidad de que la tasa del activo libre de riesgo también siga un proceso estocástico, por esta razón la notamos como r (ω , t ) . Por otro lado, la medida de probabilidad Q corresponde a las probabilidades neutrales al riesgo, condicional en la partición de eventos ftk . El valor de esta función es desconocido, sin embargo, puede encontrarse una aproximación a dicha función. El gran supuesto de Longstaff y Schwartz (2001) es que la función anterior pertenece al espacio de Hilbert y por lo tanto admite una representación en base a una combinación lineal de funciones finitas. Por lo tanto, podría encontrarse una representación exacta de la función anterior de la forma: ∞

G (ω , tk ) = ∑ a j L j ( xt )

(36)

j =1

Es decir, existe una forma exacta del valor de continuar que puede ser expresado mediante funciones L j ( xt ) combinadas según las constantes a j . El vector xt contiene todas las variables estocásticas contenidas en el cálculo del valor esperado de continuar. Como ya hemos dicho en varias ocasiones, el meollo del problema es encontrar el valor de continuación para poder definir la trayectoria óptima de ejercicio. La novedad del LSM es modificar la expresión original de la función de continuación y expresarla como una combinación lineal finita. De esta forma, pueden aplicarse

32

mínimos cuadrados ordinarios para estimar el valor de las constantes y así poder estimar la verdadera función de continuación con la elección de un número finito de M polinomios que notamos:

M

( )

G (ω , tk ) = ∑ a j L j xtk j =1

(37)

Para este proceso, los autores proponen muchas funciones básicas que dan forma a los polinomios L j ( xt ) . Entre ellas están las familias de funciones de Laguerre, Chebyshev, Gegenbauer y Jacobi y algunas formas más simples. En la sección siguiente trataremos brevemente el tema de la elección del polinomio. Como ya vimos en el ejemplo anterior, la resolución comienza de atrás hacia delante. De esta forma, nos situamos en la fecha de maduración de la opción T , donde el vector de pagos CT es conocido. Si definimos VI (ω , tk −1 ) como el valor de ejercer inmediatamente la opción en la trayectoria ω en el momento tk −1 , podemos encontrar los flujos de caja para el momento T − 1 . Al igual que en el simple ejemplo numérico antes visto, debemos comparar el valor esperado de aguardar sin hacer efectiva la opción con el flujo de caja que surge del ejercicio inmediato del derecho. Dicha comparación puede exponerse en los siguientes términos: Si VI (ω , tk −1 ) ≥ G (ω , tk −1 ) → C (ω , s, tk − 2 , T ) = VI (ω , tk −1 ) ⎛ tk −1 ⎞ Si VI (ω , tk −1 ) ≤ G (ω , tk −1 ) → C (ω , s, tk − 2 , T ) = C (ω , s, tk −1 , T ) × exp ⎜ − ∫ r (ω , s ) ds ⎟ ⎜ t ⎟ ⎝ k −2 ⎠

En suma, para una trayectoria ω , si el valor esperado de continuar es menor que el flujo de caja que resulta del ejercicio inmediato de la opción,

33

entonces el pago de la opción en ese momento y para ese patrón, coincide con el valor de ejercicio inmediato. En caso contrario, como ya se había señalado, el valor de la opción no es el valor esperado de continuar, sino el verdadero flujo que se obtiene en caso de continuar. En efecto, según lo indicado por Bossaerts en el artículo de Longstaff y Schwartz (2001), al utilizar el valor esperado de continuar el pago de la opción se obtendría según la siguiente ecuación:

(

C (ω , s, tk − 2 , T ) = Máx VI (ω , tk −1 ) ; G (ω , tk −1 )

)

(38)

Como ya hemos dicho, G (ω , tk −1 ) es una aproximación del valor presente del flujo que resulta de no ejercer, y como tal, tiene un error de medición, por lo tanto, dada la convexidad del operador máximo, aplicando la desigualdad de Jensen puede constatarse que utilizar G (ω , tk −1 ) en el calculo del flujo de la opción produce un sesgo sistemático al alza. El procedimiento anterior ha de repetirse hasta el momento inicial, una vez allí es claro que no puede realizarse una última regresión, ya que todas las trayectorias comienzan con el mismo vector de valores inicial de los subyacentes. Por lo tanto, considerando que todas las trayectorias ocurren con igual probabilidad, se calcula el promedio aritmético de los valores descontados asociados al patrón óptimo ya obtenido, es decir, el valor aproximado de continuar en el momento inicial se expresa como:

G ( t0 ) =

1 N

⎛ t1 ⎞ × C ω exp ⎜ − ∫ r (ω , s ) ds ⎟ ∑ 1( ) ⎜ t ⎟ ω =1 ⎝ 0 ⎠ N

(39)

34

Finalmente, si suponemos, al igual que en el ejemplo anterior, que la opción puede ser ejercida hoy, el valor de dicho derecho en el momento inicial es:

(

V = Máx VI (ω , t0 ) ; G ( t0 )

)

(40)

Una vez expuesto con claridad el algoritmo, es necesario revisar algunos estudios acerca del mismo. La siguiente sección presenta los principales resultados de la literatura acerca del método LSM.

35

4.- Estudios acerca del LSM En esta sección, nos detendremos brevemente en las especificaciones de los polinomios utilizados para aproximar la función de continuación del algoritmo. Moreno y Navas (2003) estudian la robustez del LSM. En particular, los autores analizan la sensibilidad del método a la familia de polinomios utilizada y al número de términos incluidos para aproximar la función de continuación. Los autores examinan diez especificaciones alternativas e incluyen hasta veinte términos para cada familia de polinomios. En una primera parte comparan los distintos resultados del LSM con los del método binomial para una Put americana. Los resultados de este primer experimento muestran que, dado un número de términos, las distintas familias de polinomios arrojan precios similares para el derivado. Sin embargo, dado un tipo de polinomio, el valor de la opción no aumenta monotónicamente. Para los cinco primeros términos, el valor suele aumentar, pero al incluir más polinomios, el valor decrece y luego incluso puede volver a aumentar. En este sentido, el criterio de Longstaff y Schwartz (2001) para determinar el largo óptimo del polinomio a utilizar resulta confuso. En efecto, existe más de un número de términos que cumple con la propiedad de que el valor de la opción ya no aumente. Por otro lado, aunque los resultados son bastante cercanos a la solución binomial y las desviaciones estándar son muy pequeñas, existe una leve pero persistente tendencia del algoritmo a subestimar el precio la opción, en relación a la solución binomial. Luego estos autores amplían su análisis a un problema con más factores de riesgo. El caso que analizan es el de un derivado cuyo pago depende del máximo valor alcanzado por uno de cinco activos no correlacionados. El punto de comparación en esta parte es el intervalo de confianza obtenido por Broadie y Glasserman (1997b). Un primer análisis indica que se necesitan al menos dos polinomios de alguna familia para

36

entrar a dicho intervalo, y nuevamente, al incluir más elementos el valor del derivado aumenta, aunque sólo hasta el quinto término. Sin embargo, algunas familias de polinomios comienzan a distanciarse del resto. En efecto, tanto en este ejemplo de complejidad intermedia como en el último experimento de estos autores, resulta evidente que la elección de la familia del polinomio ya no es irrelevante. Stentoft (2004) realiza un segundo estudio acerca de las propiedades del algoritmo. En una primera parte del trabajo, el autor analiza el efecto en el desempeño del algoritmo que surge de alterar tanto el número de polinomios que se usa en las regresiones como la cantidad de patrones simulados. En el trabajo de Longstaff y Schwartz (2001), los autores utilizan 100.000 simulaciones o patrones y se centran en la familia de polinomios de

Laguerre. Stentoft (2004), realiza sus experimentos aumentando el número de polinomios de la familia de Laguerre desde uno hasta cinco, y para cada elección varía también el número de patrones comenzando con 10.000 patrones y realiza aumentos sucesivos de 10.000 hasta completar las 100.000 simulaciones. El punto de comparación es el valor que arroja el método binomial con 50.000 pasos. Al igual que en el estudio de Moreno y Navas (2003) el autor encuentra que, dada la no monotonicidad del precio estimado al numero de regresores, el criterio de Longstaff y Schwartz (2001) para determinar el número óptimo de regresores resulta confuso. Sin embargo, Stentoft (2004) encuentra que con un número bajo de polinomios (uno o dos) el precio de la opción se subestima, por lo tanto recomienda la utilización de tres o cuatro regresores como mínimo. Para resumir sus conclusiones, los autores realizan una regresión entre el error cuadrático medio de cada experimento y el logaritmo del número de patrones y del número de regresores. En términos generales se concluye que el error cuadrático medio disminuye a medida que aumentan ambas variables y dichos efectos son estadísticamente significativos. En suma, el algoritmo parece ser consistente.

37

Por otra parte, Stentoft (2004) analiza el desempeño de distintas familias de polinomios alternativos. Si bien todas las familias analizadas muestran la convergencia antes descrita, la familia de Legendre se comporta mejor que las demás especificaciones, por tener un menor sesgo cuando se usan pocos regresores. Finalmente, el autor define un trade-off entre el tiempo computacional requerido y la precisión del método. Sobre esta materia,

dado

que

la

familia

de

Legendre

puede

ser

reducida

a

combinaciones de polinomios ordinarios y que ésta resulta ser la familia que exhibe el trade-off más favorable, el autor determina que la elección óptima radica en utilizar dos o tres regresores de polinomios simples. En la sección final del trabajo el autor compara la especificación anterior del algoritmo con distintos métodos alternativos y concluye que el algoritmo de Longstaff y Schwartz (2001) bajo esta especificación es la mejor alternativa para valorar opciones americanas con múltiples subyacentes. En alguna medida la tesis de Urzúa (2004) utiliza los resultados de los estudios anteriores para sus aplicaciones del algoritmo LSM. En efecto, en dicho trabajo el autor utiliza en sus regresiones potencias simples de los precios teóricos que tendrían los contratos futuros del subyacente. Los resultados que obtiene utilizando solamente las tres primeras potencias de los contratos son extremadamente eficientes en problemas de opciones reales clásicos de hasta tres factores de riesgo. Cabe destacar que la fórmula teórica para la valoración de un contrato futuro incluye tanto al subyacente como la tasa libre de riesgo y al retorno por conveniencia, por lo tanto, cuando los tres factores son estocásticos el uso de potencias simples de futuros reduce considerablemente el número de polinomios necesario para encontrar un resultado eficiente.

38

5.- El uso práctico del LSM En la práctica, para poder aplicar correctamente el algoritmo de Longstaff y Schwartz (2001), es necesario conocer con exactitud el proceso que sigue el subyacente. Para que el precio teórico del derivado corresponda a su precio real, el investigador debe estar razonablemente seguro de que lo que ha simulado, en el proceso de valoración, corresponde al movimiento del subyacente. Aunque es bastante razonable asumir que los retornos del subyacente siguen algún tipo de browniano geométrico, los parámetros concretos que rigen dicho movimiento pueden estar sujetos a controversia. En efecto, toda estimación de los parámetros fundamentales del browniano está sujeta a un intervalo de confianza, es decir, no es posible conocer de manera absolutamente confiable los valores que rigen las simulaciones. En el trabajo original de Longstaff y Schwartz (2001) y en el estudio de Stentoft (2004), los autores suponen el conocimiento exacto del patrón de movimiento del subyacente. En esta sección estudiaremos el efecto de incluir en las simulaciones el hecho empírico de que los parámetros fundamentales del proceso están sujetos a variación, es decir, levantamos el supuesto teórico de que el investigador conoce con exactitud el proceso verdadero del subyacente. Siguiendo el texto de Campbell, Lo y Mackinlay 9 (1997) el investigador sabe que el subyacente que necesita simular sigue un proceso como el presentado a continuación: dP ( t ) = a ( P, t ; α ) dt + b ( P, t , β ) dB(t )

9

t ∈ [ 0, T ]

(41)

Remitirse al capítulo noveno de dicho texto.

39

Donde B (t ) es un proceso de Wiener estándar y θ ≡ [α ' β '] es un vector de parámetros que el investigador desconoce. Como ya fue introducido al comienzo de este trabajo, las funciones a ( P, t ; α ) y b ( P, t , β ) son la tendencia y la difusión del proceso. A modo de ejemplo, en el sencillo caso del modelo de Black y Scholes (1973) estas funciones están dadas por: a ( P, t ; α ) = μ P

(42)

b ( P, t , β ) = σ P

(43)

Existen diversas formas para estimar el vector de parámetros θ , sin embargo, incluso las más exactas y complejas están sujetas a un intervalo de confianza. Es decir, cuando el investigador simula se ve forzado a hacerlo con el vector θˆ previamente estimado. A continuación, nos centraremos en la estimación de θˆ por máxima verosimilitud en el caso general, para posteriormente, encontrar en el caso de Black y Scholes (1973) la varianza de los parámetros fundamentales usados en las simulaciones. La forma más directa de encontrar el vector θˆ es estimarlo a partir de los datos históricos. Supongamos que tenemos una secuencia de n + 1 observaciones históricas de P ( t ) para un conjunto de fechas t0 < t1 < ... < tn . La distribución de densidad conjunta f de la muestra está dada por:

n

f ( P0 ,..., Pn ;θ ) = f 0 ( P0 ;θ ) ∏ f ( Pk , tk / Pk −1 , tk −1 ;θ )

(44)

k =1

Donde Pk ≡ P ( tk ) , f 0 ( P0 ) es la función de densidad marginal en P0 y f ( Pk , tk / Pk −1 , tk −1 ;θ ) es la función de densidad condicional de Pk dado Pk −1 ,

40

siguiendo a Campbell, Lo y Mackinlay 10 (1997) llamaremos a esta última simplemente f k . Para estimar θˆ por máxima verosimilitud es necesario definir la función de log-verosimilitud como el logaritmo natural de la función de densidad conjunta a través de la muestra expresada en función de θ . Es decir:

n

(θ ) = ∑ log f k

(45)

k =0

El estimador de máxima verosimilitud está dado por:

θ ≡ arg max

(θ )

(46)

Con algunos supuestos de regularidad, puede demostrarse la consistencia de θˆ y obtenerse su distribución aproximada en el límite:

(

)

n θ − θ ∼ N ( 0, I −1 (θ ) ) , a

⎡ ⎡ 1 ∂ 2 (θ ) ⎤ ⎤ I (θ ) ≡ lim ⎢ − E ⎢ ⎥⎥ n →∞ ⎢⎣ ⎣ n ∂θ ∂θ ' ⎦ ⎥⎦

(47)

Donde I (θ ) corresponde a la matriz de información. Cuando n es grande, la distribución asintótica anterior permite aproximar la varianza de

θ como:

()

1 Var ⎡θ ⎤ ≈ I −1 θ ⎣ ⎦ n

(48)

Donde la matriz de información puede ser estimada como: 10

Remitirse al capítulo noveno de dicho texto.

41

()

2 1∂ θ I= n ∂θ ∂θ '

(49)

Cabe destacar que θ es de todos los estimadores consistentes y uniformemente asintóticamente normales, el de menor varianza asintótica. Por lo tanto, éste es el método preferido cuando puede realizarse. A pesar de que es muy difícil encontrar expresiones exactas para las funciones de densidad condicional, el texto de Campbell, Lo y Mackinlay 11 (1997) explica como soslayar este problema. Si nos concentramos en el proceso utilizado por Black y Scholes (1973), donde:

1 ⎞ ⎛ d log P = ⎜ μ − σ 2 ⎟ dt + σ dB = α dt + σ dB 2 ⎠ ⎝

Es común asumir que los precios

(50)

P ( t ) siguen una distribución

lognormal y por simplicidad suponemos que la muestra está dividida en n intervalos de tiempo constantes de duración h en [ 0, T ] de tal manera que Pk ≡ P ( kh )

para

k = 0,1,..., n

con

T = nh . Los retornos logarítmicos del

⎛ P ⎞ subyacente, rk ( h ) ≡ log ⎜ k ⎟ son normales e IID con media α h y varianza ⎝ Pk −1 ⎠

σ 2 h . Con esta notación y bajo los supuestos habituales de Black y Scholes (1973) es simple obtener los estimadores de máxima verosimilitud antes mencionados. La función de log-verosimilitud puede expresarse como:

11

Remitirse al capítulo noveno de dicho texto.

42

n 1 n (α , σ ) = − log ( 2πσ 2 h ) − 2 ∑ ( rk ( h ) − α h ) 2 2σ h k =1

2

(51)

Por lo tanto, los estimadores de máxima verosimilitud tienen una forma finita dada por:

α=

1 n ∑ rk ( h ) nh k =1

(

1 n σ = ∑ rk ( h ) − α h nh k =1 2

(52)

)

2

(53)

De esta forma, el estimador de máxima verosimilitud coincide con los momentos de la muestra. Si aplicamos en este caso las fórmulas de la varianza asintótica a los estimadores de máxima verosimilitud antes expuestas obtenemos:

a

Cuando

valoramos

σ2

Var ⎡α ⎤ ≈ ⎣ ⎦ T

(54)

a 2σ 4 Var ⎡σ ⎤ ≈ ⎣ ⎦ n

(55)

derivados

utilizando

el

algoritmo

LSM,

no

simulamos los procesos reales de los activos, sino los ajustados por riesgo. De esta forma, el parámetro α puede suponerse conocido con razonable certeza, ya que corresponde a la tasa libre de riesgo vigente en el mercado. Sin embargo, el parámetro σ 2 ha de ser estimado, y en la práctica, se utiliza con frecuencia la varianza histórica de los retornos. Pero, como ya ha sido expuesto, dicha estimación está sujeta a su vez a una varianza. Por lo tanto, al momento de estudiar las propiedades del LSM es necesario tomar en cuenta que el investigador sólo trabaja con una aproximación de los parámetros verdaderos del browniano del subyacente. En la siguiente

43

sección, se desarrollará un experimento para testear las propiedades del algoritmo en el caso de un proceso simple cuando se toma en cuenta dicho problema.

44

6.-

Eficiencia del uso de parámetros estimados

En esta sección buscaremos cuantificar el efecto de la varianza en los parámetros utilizados, al momento de simular, en la eficiencia del LSM. Con este fin, diseñaremos un conjunto de experimentos comparables con los resultados tanto de Longstaff y Schwartz (2001) como de Stentoft (2004). Por esta razón, recurriremos a las mismas formas funcionales en las regresiones, los mismos parámetros y el mismo punto de comparación que los trabajos anteriores. En una primera parte expondremos la forma en que se han simulado los distintos procesos, luego se mostrará la familia de polinomios que se utilizó y el número de funciones de dicha familia. Finalmente se compara la eficiencia de los resultados obtenidos con la de los resultados de los trabajos antes mencionados. Siguiendo a Stentoft (2004), buscamos simular un proceso browniano geométrico con la siguiente ecuación diferencial: dS ( t ) = rS ( t ) dt + σ S ( t ) dW ( t )

(56)

Donde W es un proceso de Wiener estándar y tanto r como σ se asumen constantes a través del tiempo. Lo primero es presentar la solución de la ecuación diferencial anterior, es decir, expresar todos los puntos futuros en función del punto inicial de la siguiente forma:

⎧⎛ 1 ⎞ ⎫ S ( t ) = S ( 0 ) exp ⎨⎜ r − σ 2 ⎟ t + σ W ( t ) ⎬ 2 ⎠ ⎩⎝ ⎭

(57)

Si reemplazamos el proceso de Wiener por su forma usual obtenemos:

45

⎧⎛ 1 ⎞ ⎫ S ( t ) = S ( 0 ) exp ⎨⎜ r − σ 2 ⎟ t + σ tZ ( t ) ⎬ 2 ⎠ ⎩⎝ ⎭ Donde Z ( t ) ∼ N ( 0,1) podemos fácilmente obtener una secuencia de precios

para

fechas

discretas

arbitrariamente

espaciadas

tal

que

0 < t1 ≤ t2 ... ≤ t N = T utilizando la siguiente expresión:

⎧⎛ 1 ⎞ ⎫ S ( ti +1 ) = S ( ti ) exp ⎨⎜ r − σ 2 ⎟ ( ti +1 − ti ) + σ ti +1 − ti Z ( ti +1 ) ⎬ 2 ⎠ ⎩⎝ ⎭

(58)

Donde Z ( ti +1 ) ∼ IIN ( 0,1) .

El procedimiento anterior puede extenderse fácilmente para el caso de activos correlacionados, como en secciones posteriores utilizaremos también esta herramienta es útil exponer inmediatamente la forma en que esto puede realizarse. En la última ecuación es necesario reemplazar la perturbación estocástica Z ( t ) por un vector normal multivariado Z ( t ) con distribución N ( 0, ∑ ) , donde ∑ corresponde a una matriz de varianza y covarianza con elemento típico ∑ij = ρijσ iσ j , en que ρij es el coeficiente de correlación de dos perturbaciones de varianza σ i2 y σ 2j . La forma más simple de construir este vector es crear en primer lugar L variables estocásticas normales estándar tal que:

Z ( t ) = ( Z 1 ( t ) , Z 2 ( t ) ,..., Z L ( t ) )

(59)

Y luego escoger una descomposición para ∑ tal que ∑ = CC ' . Por lo general se suele utilizar una descomposición de Cholesky para este efecto.

46

De esta forma CZ ∼ N ( 0, ∑ ) . Finalmente puede obtenerse el vector Z ( t ) en función del vector Z ( t ) y de la matriz C :

Z 1 ( t ) = C11Z 1 ( t ) Z 2 ( t ) = C21Z 1 ( t ) + C212 Z 2 ( t )

(60)

... Z L ( t ) = CL1Z 1 ( t ) + ... + CLL Z L ( t )

En la tercera sección de Longstaff y Schwartz (2001), los autores calculan el valor de una opción americana usando 100.000 patrones simulados, en las regresiones utilizan una constante y los primeros tres polinomios ponderados de Laguerre. Cabe destacar que de las 100.000 simulaciones, 50.000 son variables antitéticas, utilizadas como técnica estándar para la disminución de varianza. Stentoft (2004) expresa la forma general de las regresiones usadas por Longstaff y Schwartz (2001) con la siguiente fórmula:

K

y ( ti ) = α + ∑ β k ω ( x ( ti ) ) Lk −1 ( x ( ti ) ) + υ ( ti )

(61)

k =1

Donde Lk −1 ( x ( ti ) ) es el polinomio número k de la familia de Laguerre evaluado en x ( ti ) y los parámetros α y β son las variables a estimar. Stentoft (2004) utiliza en sus regresiones la misma ponderación que Longstaff y Scwartz (2001), es decir: ⎛ x ( ti ) ⎞ ⎟ 2 ⎠ ⎝

ω ( x ( ti ) ) = exp ⎜ −

(62)

47

Stentoft (2004) no utiliza la fórmula exacta de los polinomios de Laguerre

sino

una

forma

reducida

que

facilita

enormemente

la

programación. A continuación presentamos las características generales de esta familia de polinomios: Tabla 6-1: Características de la Familia de Polinomios de Laguerre Nombre Laguerre

Ponderación

e−x

Características Generales Intervalo

[0,∞)

Definición Lk

(x ) =

ex d k k ! dxk

(x

k

e−x

)

Fórmula Recursiva Primer término

Segundo término

L0 ( x) =1

L1 ( x) =1−x

Tercer término L2 ( x ) =

x2 − 4x + 2 2

Fórmula General Lk + 1 ( x ) =

2k + 1 − x k Lk ( x ) − Lk −1 ( x ) k +1 k +1

Stentoft (2004) analiza, en su primer experimento, las propiedades del LSM aumentando el orden de los polinomios desde K = 1 hasta K = 5 y variando el número de simulaciones usadas desde 10.000 hasta 100.000 . Para cada combinación de los parámetros anteriores el autor reporta el promedio de 100 realizaciones distintas y la correspondiente desviación estándar. Además, usando como referencia el valor que entrega el método binomial calcula el sesgo aproximado del LSM. Las características de la opción analizada por Stentoft (2004) son las mismas que las de uno de los derivados que analizan Longstaff y Schwartz (2001). Es decir, una Put americana que expira en un año con diez oportunidades de ejercicio igualmente espaciadas y un precio de ejercicio de 40 . El subyacente comienza con un valor de 36 y tiene una volatilidad anualizada del 40% . La tasa de interés está constante durante el período en un 6% . El valor de comparación es el entregado por el método binomial con 50.000 pasos que entrega un valor de 7.071 .

48

Tanto Longstaff y Schwartz (2001) como Stentoft (2004) destacan la baja desviación estándar de sus experimentos. En el primer trabajo, luego de constatar la escasa diferencia con la solución de diferencias finitas, los autores afirman que el error estándar es muy bajo ubicándose entre 0.7 y 2.4 centavos de dólar, valor que pertenece al intervalo del spread entre

oferta y demanda para este tipo de opciones. En el caso de Stentoft (2004) la eficiencia es también clara, por ejemplo, en el caso de K = 2 la desviación estándar disminuye desde los 3 centavos para 10.000 simulaciones hasta .9 centavos con 100.000 patrones. A modo de ilustración presentamos el fragmento en cuestión de la segunda tabla de Stentoft (2004) y agregamos la raíz del error cuadrático medio definida como:

RECM = σ M2 + ( ρ LSM − ρ MB )

Patrones 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

2

(63)

Tabla 6-2: Resultados de Stentoft (2004) K =2 Valor LSM Des Est. Sesgo RECM 7.0670 7.0650 7.0610 7.0660 7.0650 7.0640 7.0640 7.0630 7.0650 7.0630

0.0300 0.0200 0.0170 0.0120 0.0120 0.0100 0.0100 0.0090 0.0090 0.0090

-0.0040 -0.0060 -0.0100 -0.0040 -0.0060 -0.0070 -0.0070 -0.0080 -0.0060 -0.0080

0.0303 0.0209 0.0197 0.0126 0.0134 0.0122 0.0122 0.0120 0.0108 0.0120

Los resultados de Stentoft (2004) son claros, tanto el sesgo como la varianza del algoritmo son bajos y existe una clara disminución de ambos a medida que se aumenta el número de simulaciones realizadas. Sin embargo, como anunciamos en la sección anterior, la volatilidad del subyacente es

49

solamente una aproximación, más o menos acertada, de la varianza verdadera del proceso verdadero. A continuación analizaremos los efectos tanto en sesgo como en eficiencia que surgen al tomar en cuenta este fenómeno. En términos generales, asumiremos los mismos parámetros que Stentoft (2004), pero, para cada uno de los 100 experimentos, utilizaremos una estimación de la varianza verdadera fundada en la varianza del método de máxima verosimilitud expuesto en la sección anterior. Para obtener la desviación estándar σ que utilizaría un individuo que calcula con datos históricos el precio de un activo utilizamos la siguiente fórmula:

σ =σ +ε

2σ 4 n

(64)

Donde ε ∼ N ( 0,1) . Además, se asume que el investigador utiliza una muestra de datos pasados para la estimación de σ del mismo largo y con la misma periodicidad que el horizonte de simulación. A continuación presentamos los resultados de un experimento equivalente al de Stentoft (2004) considerando que en cada uno de los 100 experimentos realizados con los distintos números de simulaciones, se utiliza el parámetro σ en lugar de σ . Por motivos de simplicidad no se utiliza ninguna ponderación en los polinomios y nos limitamos al caso de

K = 2 . La siguiente tabla reporta en cada celda el valor promedio de los cien experimentos, su desviación estándar, su sesgo y la raíz del error cuadrático tanto para este experimento como el reportado por Stentoft (2004). Donde

σ M2 es la varianza de los cien experimentos realizados con M simulaciones y los parámetros ρ LSM y ρ MB representan respectivamente el promedio del valor del derivado por el método LSM y el valor que arroja el modelo binomial con las características ya mencionadas.

50

Tabla 6-3: Aumento de la RECM cuando se Utiliza una Estimación de la Desviación Estándar LSM con K = 2 y σ M 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

ρLSM −ρMB RECM σ

ρ LSM

σM

6.8532 7.0852 6.9895 6.9433 6.8162 7.0497 7.0018 6.7699 7.1526 6.9623

0.8992 1.0006 1.1113 0.9745 0.9675 1.1138 0.9493 1.0110 1.0376 0.9844

-0.2178 0.0142 -0.0815 -0.1277 -0.2548 -0.0213 -0.0692 -0.3011 0.0816 -0.1087

0.9252 1.0007 1.1143 0.9828 1.0005 1.1140 0.9518 1.0549 1.0408 0.9904

RECMσ 0.0303 0.0209 0.0197 0.0126 0.0134 0.0122 0.0122 0.012 0.0108 0.012

A continuación se grafica la evolución de la raíz del error cuadrático medio para ambos experimentos en función del número de simulaciones utilizadas: Gráfico 6-1: Comparación de las RECM

RECM en función de M 1.2000 1.0000 RECM con varianza desconocida

0.6000

RECM con varianza conocida

0.4000 0.2000 0.0000 10 00 0 20 00 0 30 00 0 40 00 0 50 00 0 60 00 0 70 00 0 80 00 0 90 00 10 0 00 00

RECM

0.8000

M

51

Los resultados del experimento anterior son decidores. La desviación estándar del LSM cuando se toma en cuenta que el investigador no conoce con exactitud la desviación estándar que rige el browniano del activo subyacente es alrededor de cien veces la calculada tanto por Longstaff y Schwartz (2001) como Stentoft (2004). Además, el sesgo presentado por el método es significativamente mayor que el reportado por los trabajos anteriores. Finalmente, no existe ninguna tendencia a la disminución de la desviación estándar o del valor absoluto del sesgo a medida que se aumenta el número de simulaciones utilizadas. En este sentido, la difundida creencia de que las estimaciones mejoran cuando se aumenta el número de patrones utilizados se ve drásticamente socavada. Es más, éste y otros de los resultados principales reportados por Stentoft (2004) parecen ser válidos sólo en el supuesto absolutamente teórico de que el investigador conoce la desviación estándar verdadera del proceso. Este primer experimento pone en tela de juicio la aplicación práctica del algoritmo más utilizado en el mundo de las finanzas. Esta visión crítica del LSM es el primer resultado del presente trabajo. En las secciones posteriores proponemos una variación al LSM y estudiamos en que medida ésta puede lidiar con el problema práctico expuesto.

52

7.- Uso de un activo ficticio como “ancla” Como expusimos en la sección anterior, el uso práctico del LSM es bastante menos eficiente de lo que podría pensarse. En la realidad el operador de una mesa de dinero no conoce el valor exacto de los parámetros que rigen el movimiento del subyacente. Más aún, dada la velocidad de las transacciones, es muy poco probable que disponga del tiempo necesario para realizar una estimación más acertada que la que hemos utilizado en nuestro ejemplo, y seguramente, aplicará una sola vez el algoritmo, exponiéndose a la totalidad de la varianza del precio. En el caso de un modelo simple como el ya presentado, si el investigador conociese el verdadero valor de σ esto no sería un gran problema. Ya que, en ese escenario, la desviación estándar de su estimación, como bien dicen Longstaff y Schwartz (2001), mantiene el precio al interior del intervalo de oferta y demanda del derivado. Sin embargo, está desviación aumenta drásticamente cuando se permite un mínimo error en la estimación de σ . En efecto, la desviación estándar se ubica en la vecindad de un dólar por unidad de derivado, lo que, dada la intensidad de las transacciones bursátiles puede ser una verdadera catástrofe. De aquí que sea de absoluta relevancia la búsqueda de variaciones al algoritmo que permitan lidiar satisfactoriamente con el problema empírico expuesto. ¿Qué es realmente lo que sucede cuando utilizamos una desviación estándar distinta de la verdadera en las simulaciones de los procesos financieros? La desviación estándar en el browniano es también llamada el parámetro de dispersión, y como tal, da cuenta de la amplitud de los movimientos del subyacente. Por lo tanto, cuando usamos un σ mayor al verdadero permitimos que nuestra simulación sobre reaccione con respecto al proceso real. Sin embargo, el activo subyacente no se encuentra aislado en el mercado. El inmenso desarrollo de los mercados financieros modernos

53

y la gran rapidez con que fluye la información permiten comparar casi sin costo los precios de distintos activos. De esta forma, en una mesa de dinero los operadores no están solamente atentos al movimiento del activo que es de su interés, sino que observan el mercado como un todo. Las distintas correlaciones históricas entre los activos aportan información sobre el movimiento de los mismos. De esta forma, un operador suele estudiar con mayor detalle el movimiento de un activo desalineado en relación al mercado o con respecto a otro activo de similares características. Imaginemos el caso extremo de dos compañías del mismo rubro y de similar constitución. Claramente sus acciones han de mostrar una alta correlación histórica. Mientras el movimiento de ambas sea similar, el operador no se preocupará mayormente de éstas. Pero, si en algún momento, una de ellas reaccionara fuertemente sin que la otra se alterara en demasía, los esfuerzos del operador claramente se centrarían en entender las causas. La idea de esta sección es lograr incluir en el LSM la intuición antes descrita. Es decir, agregar información sobre otro activo correlacionado con el subyacente del derivado de manera que el algoritmo “no confíe” plenamente y sin reservas en σ sino que corrija por la realización del otro proceso correlacionado. De esta forma, parte del efecto del error de estimación inherente al σ puede ser amainado por la correlación con el otro proceso. En el mundo real ningún proceso es conocido con exactitud y menos las correlaciones entre procesos. Sin embargo, en este caso no necesitamos verdaderamente conocer el proceso del activo correlacionado, de hecho, no necesitamos siquiera que dicho activo exista. Lo que realmente buscamos en el activo correlacionado es un “ancla” para el proceso del subyacente. Queremos idear una especie de sensor, un testigo, que alerte al algoritmo cuando el desvío resulte desproporcionado dada su correlación. Dicho mecanismo, aunque está inspirado en la

54

racionalidad práctica del operador, no necesita tener una contraparte empírica, y por ende, no tiene porque estar sujeto a su vez a un error de estimación. Por lo tanto, al momento de simular el proceso estimado del activo subyacente simularemos también un segundo activo, absolutamente ficticio, con una desviación estándar arbitraria y un coeficiente de correlación distinto de cero. Sin embargo, la inclusión de este nuevo proceso necesita claras variaciones en el método de estimación tradicional del LSM. En esta sección se presenta una variación del algoritmo original basado en MICO que incluye la nueva información y que no ensucia mayormente la estimación en ausencia del problema, es decir, con certeza de σ . Ya en su trabajo seminal, Longstaff y Schwartz (2001) invitan a la comunidad a experimentar con otro tipo de regresiones. El problema que los autores tienen en mente es como lidiar con la posibles heteroscedasticidad del error en las series financieras. Sobre este tipo de variaciones puede consultarse el trabajo de Stentoft (2005). Sin embargo, en el presente trabajo, la inversión en econometría tiene el fin de incluir la información del activo correlacionado al memento de encontrar la esperanza condicional de continuar sin ejercer la opción. El primer paso antes de definir la mejor manera de incluir la información del activo correlacionado es simularlo. Cabe destacar que la simulación utilizada ya fue descrita en la sexta sección. La descomposición de la matriz de varianza-covarianza utilizada a lo largo de este trabajo corresponde a una descomposición de Cholesky. Existen a lo menos dos caminos econométricos para incluir la información del otro proceso, el primero consiste en utilizar el nuevo proceso como variable de control. Es decir, incluirlo en la regresión del mismo modo y, por simplicidad con la misma forma funcional, que al activo

55

original. Formalmente, utilizando una ponderación constante e igual a la unidad la regresión se convierte en:

K

K

k =1

k =1

y ( ti ) = α + ∑ β k1 Lk −1 ( x1 ( ti ) ) + ∑ β k 2 Lk −1 ( x2 ( ti ) ) + υ ( ti )

(65)

Donde x1 ( ti ) representa el valor del activo subyacente y x2 ( ti ) el valor del proceso correlacionado, υ ( ti ) es el error de la regresión, β k1 y β k 2 los parámetros a estimar específicos a cada polinomio de activos. Cabe destacar que utilizamos el mismo tipo y la misma extensión en los polinomios que dan la forma a los regresores. La estimación de los parámetros se hace también por MICO, por lo tanto, el único cambio relevante es el cambio en el modelo de regresión. El resto del proceso de valoración es idéntico al del algoritmo original. La inclusión de este tipo de variables claramente introduce colinealidad al modelo lo que aumenta la varianza de los estimadores.

Sin

embargo,

el

algoritmo

sólo

busca

predecir

consistentemente el valor de la esperanza condicional, por lo tanto esta maniobra debería ser inofensiva en el cálculo final. Más adelante en esta sección evaluaremos los efectos de esta metodología. Para mayor detalle de estas

propiedades

es

conveniente

remitirse

al

libro

de

texto

de

Greene 12 (2003). Una segunda alternativa consiste en utilizar los datos de la nueva simulación como instrumentos en la regresión original. En este caso nos alejamos claramente del modelo de regresión MICO y utilizamos una estimación por variables instrumentales. Cabe señalar que el tipo de instrumentos que utilizamos puede entenderse como una regresión de MICO en dos etapas, nuevamente, el detalle de este tipo de estimaciones

12

Remitirse a los capítulos cuarto y octavo de dicho texto.

56

puede encontrarse en el libro de texto de Greene 13 (2003). En términos generales, es conveniente para la exposición llamar X a la matriz del modelo original de Longstaff y Schwartz (2001) que contiene todas las variables independientes, por lo tanto, la columna de unos y los K polinomios de la familia elegida evaluados en el activo subyacente e Y como el vector de variables dependientes. Siguiendo con la notación, lo que hacemos es formar una matriz de instrumentos a la que llamamos Z idéntica a X en su forma pero con los polinomios evaluados en el activo correlacionado. A diferencia del primer camino expuesto para la inclusión del activo correlacionado, la regresión final utiliza el mismo número de parámetros que la del modelo LSM original. La obtención formal del vector de parámetros β VI en términos matriciales es:

(

β VI = X ' Z ( Z ' Z ) Z ' X −1

)

−1

X ' Z ( Z ' Z ) Z 'Y −1

(66)

El estimador anterior puede entenderse cuando menos de dos formas. La primera es definir la matriz de proyecciones PZ como:

Pz = Z ' ( Z ' Z ) Z −1

(67)

Y utilizarla como instrumento premultiplicando el modelo entero por PZ y obteniendo el estimador MICO del modelo transformado. La segunda forma de entender este estimador es constatar que el instrumento en cuestión, la matriz PZ , realiza proyecciones ortogonales de cualquier variable en la base Z y por lo tanto, coincide con una estimación MICO en dos etapas donde se corre una primera regresión de X explicada

13

Remitirse al capítulo quinto de dicho texto.

57

por Z y luego con los valores estimados de X se corre la regresión MICO que busca predecir Y . Para analizar correctamente los dos caminos anteriores, introduciremos la nueva información al algoritmo y realizaremos una prueba de ambos. La prueba en cuestión busca definir si tienen algún efecto en el algoritmo, medido en función de la raíz del error cuadrático medio, en ausencia del problema. El punto de partida serán las estimaciones equivalentes de Stentoft (2004). En primer lugar, ambos caminos requieren simular dos procesos correlacionados. El activo subyacente se simula de la misma manera que en el caso presentado en la sección anterior pero asumiendo que el investigador conoce la varianza. El activo correlacionado se modela, según el marco ya expuesto, utilizando un coeficiente de correlación ρ . Para testear el impacto de dicho coeficiente se utilizan valores que van desde 0.1 a 0.9 con intervalos constantes de 0.1 . Para poder comparar con las simulaciones de Stentoft (2004), se realizan experimentos con simulaciones que van desde los 10.000

patrones hasta los 100.000 , los aumentos son de

10.000 simulaciones. La opción evaluada es una Put Americana que expira en

un año con diez oportunidades de ejercicio igualmente espaciadas y un precio de ejercicio de 40 . El subyacente comienza con un valor de 36 y tiene una volatilidad anualizada de 40% , conocida por el investigador. La tasa de interés está constante durante el período en un

6% . El valor de

comparación es el entregado por el método binomial con 50.000 pasos que entrega un valor de 7.071 . El proceso del activo correlacionado ficticio se simula con un valor inicial de 36 y una volatilidad anual constante de 40% , cabe destacar que los resultados no dependen en medida alguna de esta última elección. Nuevamente el valor del algoritmo reportado en la tabla es

58

el promedio de cien experimentos de las características anteriores y la desviación estándar corresponde a la del mismo conjunto. La diferencia de los dos métodos consiste en la estrategia de regresión utilizada. La primera tabla presentada muestra los resultados que obtiene Stentoft (2004) corriendo el LSM tradicional con un K = 2 . La segunda tabla muestra el resultado de incluir el segundo proceso en la regresión como una nueva variable, con la misma forma polinomial del primero y un K = 2 . La tercera tabla expone los resultados de incluir el nuevo activo como instrumento. En cada tabla se presenta el número de simulaciones, la media y la desviación estándar de las cien repeticiones y los parámetros utilizados en cada caso. Tabla 7-1: Resultados del LSM tradicional de Stentoft (2004)

LSM tradicional reportado por Stentoft (2004) con K = 2 M 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

Media 7,067 7,065 7,061 7,066 7,065 7,064 7,064 7,063 7,065 7,063

Des. est. 0,030 0,020 0,017 0,012 0,012 0,010 0,010 0,009 0,009 0,009

Sesgo -0,004 -0,006 -0,010 -0,004 -0,006 -0,007 -0,007 -0,008 -0,006 -0,008

RECM 0,030 0,021 0,020 0,013 0,013 0,012 0,012 0,012 0,011 0,012

59

Tabla 7-2: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Conocida (1) M 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

Rho= 0.1 Media Des. est. Sesgo 7.0759 0.0241 0.0049 7.0697 0.0199 -0.0013 7.0677 0.0176 -0.0033 7.0675 0.0147 -0.0035 7.0682 0.0128 -0.0028 7.0662 0.0119 -0.0048 7.0658 0.0091 -0.0052 7.0641 0.0093 -0.0069 7.0649 0.0096 -0.0061 7.0647 0.0090 -0.0063

RECM 0.0246 0.0199 0.0179 0.0151 0.0131 0.0128 0.0105 0.0116 0.0114 0.0110

Rho=0. 2 Media Des. est. Sesgo 7.0748 0.0289 0.0038 7.0709 0.0203 -0.0001 7.0668 0.0154 -0.0042 7.0663 0.0134 -0.0047 7.0661 0.0135 -0.0049 7.0687 0.0109 -0.0023 7.0658 0.0122 -0.0052 7.0643 0.0096 -0.0067 7.0664 0.0088 -0.0046 7.0664 0.0084 -0.0046

RECM 0.0291 0.0203 0.0160 0.0142 0.0144 0.0111 0.0133 0.0117 0.0099 0.0096

Rho= 0.3 Media Des. est. Sesgo 7.0769 0.0275 0.0059 7.0734 0.0206 0.0024 7.0699 0.0153 -0.0011 7.0641 0.0149 -0.0069 7.0654 0.0124 -0.0056 7.0661 0.0120 -0.0049 7.0654 0.0093 -0.0056 7.0655 0.0091 -0.0055 7.0668 0.0092 -0.0042 7.0659 0.0083 -0.0051

RECM 0.0281 0.0207 0.0153 0.0164 0.0136 0.0130 0.0109 0.0106 0.0101 0.0097

Rho= 0.4 Media Des. est. Sesgo 7.0695 0.0292 -0.0015 7.0647 0.0218 -0.0063 7.0693 0.0151 -0.0017 7.0666 0.0143 -0.0044 7.0677 0.0133 -0.0033 7.0646 0.0129 -0.0064 7.0660 0.0112 -0.0050 7.0658 0.0082 -0.0052 7.0664 0.0095 -0.0046 7.0655 0.0089 -0.0055

RECM 0.0292 0.0227 0.0152 0.0150 0.0137 0.0144 0.0123 0.0097 0.0106 0.0105

Tabla 7-3: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Conocida (2) M 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

Media 7.0744 7.0683 7.0692 7.0666 7.0667 7.0672 7.0648 7.0651 7.0643 7.0670

Rho= 0.5 Des. est. Sesgo 0.0295 0.0034 0.0205 -0.0027 0.0153 -0.0018 0.0141 -0.0044 0.0122 -0.0033 0.0116 -0.0038 0.0120 -0.0062 0.0101 -0.0059 0.0081 -0.0067 0.0091 -0.0040

RECM 0.0297 0.0207 0.0154 0.0148 0.0126 0.0122 0.0135 0.0117 0.0105 0.0099

Media 7.0725 7.0686 7.0667 7.0662 7.0666 7.0667 7.0665 7.0658 7.0648 7.0659

Rho=0.6 Des. est. Sesgo 0.0265 0.0015 0.0222 -0.0024 0.0170 -0.0043 0.0132 -0.0048 0.0112 -0.0044 0.0118 -0.0043 0.0101 -0.0045 0.0094 -0.0052 0.0086 -0.0062 0.0079 -0.0051

RECM 0.0265 0.0223 0.0175 0.0140 0.0120 0.0126 0.0111 0.0107 0.0106 0.0094

Media 7.0721 7.0690 7.0689 7.0679 0.0646 7.0666 7.0652 7.0669 7.0675 7.0679

Rho= 0.7 Des. est. Sesgo 0.0284 0.0011 0.0207 -0.0020 0.0177 -0.0021 0.0140 -0.0031 0.0117 -0.0064 0.0113 -0.0044 0.0102 -0.0058 0.0098 -0.0041 0.0088 -0.0035 0.0087 -0.0031

RECM 0.0284 0.0208 0.0178 0.0143 0.0133 0.0121 0.0117 0.0106 0.0095 0.0092

Media 7.0755 7.0668 7.0686 7.0672 7.0675 7.0663 7.0676 7.0644 7.0653 7.0646

Rho= 0.8 Des. est. Sesgo 0.0255 0.0045 0.0199 -0.0042 0.0130 -0.0024 0.0147 -0.0038 0.0142 -0.0035 0.0124 -0.0047 0.0111 -0.0034 0.0098 -0.0066 0.0099 -0.0057 0.0088 -0.0064

RECM 0.0259 0.0203 0.0132 0.0152 0.0146 0.0133 0.0116 0.0118 0.0114 0.0109

Media 7.0749 7.0686 7.0669 7.0690 7.0676 7.0669 7.0656 7.0641 7.0665 7.0646

Rho= 0.9 Des. est. Sesgo 0.0280 0.0039 0.0209 -0.0024 0.0185 -0.0041 0.0132 -0.0020 0.0126 -0.0034 0.0114 -0.0041 0.0103 -0.0054 0.0097 -0.0069 0.0096 -0.0045 0.0083 -0.0064

60

RECM 0.0283 0.0210 0.0189 0.0134 0.0131 0.0121 0.0116 0.0119 0.0106 0.0105

Tabla 7-4: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Conocida (1) M 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

Rho= 0.1 Media Des. est. Sesgo 7.0742 0.0278 0.0032 7.0664 0.0183 -0.0046 7.0667 0.0174 -0.0043 7.0631 0.0142 -0.0079 7.0673 0.0125 -0.0037 7.0652 0.0118 -0.0058 7.0652 0.0094 -0.0058 7.0636 0.0090 -0.0074 7.0649 0.0088 -0.0061 7.0665 0.0089 -0.0045

RECM 0.0280 0.0189 0.0179 0.0162 0.0130 0.0131 0.0110 0.0117 0.0107 0.0100

Rho=0. 2 Media Des. est. Sesgo 7.0723 0.0242 0.0013 7.0665 0.0195 -0.0045 7.0666 0.0158 -0.0044 7.0655 0.0149 -0.0055 7.0658 0.0137 -0.0052 7.0675 0.0113 -0.0035 7.0651 0.0119 -0.0059 7.0633 0.0099 -0.0077 7.0654 0.0090 -0.0056 7.0657 0.0091 -0.0053

RECM 0.0242 0.0200 0.0164 0.0159 0.0147 0.0118 0.0133 0.0125 0.0106 0.0105

Rho= 0.3 Media Des. est. Sesgo 7.0694 0.0267 -0.0016 7.0680 0.0232 -0.0030 7.0687 0.0183 -0.0023 7.0657 0.0156 -0.0053 7.0642 0.0127 -0.0068 7.0665 0.0118 -0.0055 7.0651 0.0093 -0.0059 7.0652 0.0091 -0.0058 7.0651 0.0095 -0.0059 7.0645 0.0087 -0.0065

RECM 0.0267 0.0234 0.0184 0.0165 0.0144 0.0130 0.0110 0.0108 0.0112 0.0109

Rho= 0.4 Media Des. est. Sesgo 7.0722 0.0282 0.0012 7.0646 0.0201 -0.0064 7.0634 0.0172 -0.0076 7.0649 0.0136 -0.0061 7.0670 0.0133 -0.0040 7.0641 0.0128 -0.0069 7.0652 0.0110 -0.0058 7.0656 0.0083 -0.0054 7.0661 0.0095 -0.0049 7.0629 0.0096 -0.0081

RECM 0.0282 0.0211 0.0188 0.0149 0.0139 0.0145 0.0124 0.0099 0.0107 0.0126

Tabla 7-5: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Conocida (2) M 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

Media 7.0668 7.0671 7.0663 7.0657 7.0669 7.0666 7.0644 7.0651 7.0651 7.0664

Rho= 0.5 Des. est. Sesgo 0.0297 -0.0042 0.0194 -0.0039 0.0166 -0.0047 0.0148 -0.0053 0.0124 -0.0041 0.0117 -0.0044 0.0120 -0.0066 0.0101 -0.0059 0.0091 -0.0059 0.0088 -0.0046

RECM 0.0300 0.0198 0.0173 0.0157 0.0131 0.0125 0.0137 0.0117 0.0108 0.0099

Media 7.0705 7.0686 7.0669 7.0652 7.0652 7.0658 7.0657 7.0651 7.0662 7.0644

Rho=0.6 Des. est. Sesgo 0.0306 -0.0005 0.0194 -0.0024 0.0173 0.0041 0.0134 -0.0058 0.0113 -0.0058 0.0115 -0.0052 0.0099 -0.0053 0.0097 -0.0059 0.0101 -0.0048 0.0099 -0.0066

RECM 0.0306 0.0195 0.0178 0.0146 0.0127 0.0126 0.0112 0.0114 0.0112 0.0119

Media 7.0692 7.0677 7.0648 7.0635 7.0645 7.0659 7.0650 7.0660 7.0645 7.0668

Rho= 0.7 Des. est. Sesgo 0.0257 -0.0018 0.0204 -0.0033 0.0166 -0.0062 0.0147 -0.0075 0.0115 -0.0065 0.0114 -0.0051 0.0102 -0.0060 0.0100 -0.0050 0.0102 -0.0065 0.0089 -0.0042

RECM 0.0258 0.0207 0.0177 0.0165 0.0132 0.0125 0.0118 0.0112 0.0121 0.0098

Media 7.0742 7.0720 7.0653 7.0667 7.0663 7.0650 7.0668 7.0637 7.0655 7.0648

Rho= 0.8 Des. est. Sesgo 0.0278 0.0032 0.0215 0.0010 0.0160 -0.0057 0.0128 -0.0043 0.0139 -0.0047 0.0109 -0.0060 0.0116 -0.0042 0.0101 -0.0073 0.0097 -0.0055 0.0082 -0.0062

RECM 0.0280 0.0215 0.0170 0.0135 0.0147 0.0124 0.0123 0.0125 0.0112 0.0103

Media 7.0723 7.0639 7.0691 7.0646 7.0669 7.0667 7.0651 7.0638 7.0662 7.0634

Rho= 0.9 Des. est. Sesgo 0.0242 0.0013 0.0211 -0.0071 0.0146 -0.0019 0.0130 -0.0064 0.0129 -0.0041 0.0111 -0.0043 0.0099 -0.0059 0.0099 -0.0072 0.0093 -0.0048 0.0095 -0.0076

61

RECM 0.0242 0.0223 0.0147 0.0145 0.0135 0.0119 0.0115 0.0122 0.0105 0.0122

Nuestros resultados son coherentes con los de Stentoft (2004) Al igual que dicho trabajo, encontramos un insignificante pero persistente sesgo negativo en el algoritmo utilizando polinomios de Laguerre con K = 2 . También se observa una tendencia a la baja en el sesgo y la varianza del valor a medida que aumenta el número de simulaciones. Un resultado interesante es que en ambas formas de incluir el activo correlacionado, dado un número de simulaciones, no existe una diferencia significativa entre la RECM calculada con distintos ρ y los resultados de Stentoft (2004). Este hecho se ve claramente en los dos gráficos presentados a continuación: Gráfico 7-1: RECM del LSM Tradicional y de la Variación al Modo “Regresor” RECM de Stentoft Comparado con Uso de Activo Correlacionado como Regresor

0.030

Stentoft

0.025

Rho= 0.1

0.020

Rho=0. 2 Rho= 0.3

0.015

Rho= 0.4

0.010

Rho= 0.5

10 00 00

90 00 0

80 00 0

70 00 0

60 00 0

50 00 0

40 00 0

Rho= 0.7 30 00 0

Rho=0.6

0.000 20 00 0

0.005

10 00 0

RECM

0.035

Rho= 0.8 Rho= 0.9

M

62

Gráfico 7-2: RECM del LSM Tradicional y de la Variación al Modo “Instrumento” RECM de Stentoft Comparado con Uso de Activo Correlacionado como Instrumento

RECM

0.035 0.030

Stentoft

0.025

Rho= 0.1

0.020

Rho=0. 2 Rho= 0.3

0.015

Rho= 0.4

0.010

Rho= 0.5

Rho= 0.8

10 00 00

90 00 0

80 00 0

70 00 0

60 00 0

50 00 0

40 00 0

30 00 0

Rho= 0.7 20 00 0

Rho=0.6

0.000 10 00 0

0.005

Rho= 0.9

M

En los dos gráficos anteriores también puede constatarse que no existe una

diferencia

significativa

en

las

RECM

calculadas

con

distintas

correlaciones en ninguno de los dos métodos. Para esclarecer aún más este punto podemos correr para ambos modelos la siguiente regresión:

ln ( RECM ) = α + β1 ln ( M ) + β 2 ln ( ρ ) + υ

(68)

Los resultados de las regresiones anteriores son los siguientes: Instrumentos: ln ( RECM ) = −0.0665+ ( -0.3906 ) ln ( M ) + ( -0.0166 ) ln ( ρ ) + υ

( -.3856 ) ( -24.3087 )

( -0.9901)

(69)

R 2 = 0.8717

Regresores:

63

ln ( RECM ) = 0.1116+ ( -0.4101) ln ( M ) + ( -0.0192 ) ln ( ρ ) + υ

( 0.5717 ) ( -22.5290 )

( -1.0126 )

(70)

R 2 = 0.8537

Los números entre paréntesis indican el valor del test t individual. Es útil constatar que el signo del logaritmo de valores menores que uno como la RECM y ρ

es negativo. Este experimento no tiene más fin que

fundamentar lo antes dicho. En ambas regresiones se ve que más simulaciones disminuyen la RECM significativamente y que el efecto de distintos ρ no es significativo. Sin embargo, las RECM para los valores intermedios de ρ en ambas formas de introducir el proceso correlacionado son menores que los obtenidos por Stentoft (2004). Si nos centramos, por ejemplo, en el caso en que se realizan 80.000 simulaciones y graficamos la RECM de cada alternativa en función de la correlación obtenemos el siguiente gráfico: Gráfico 7-3: Comparación de las RECM RECM de los distintos métodos para M=80000 0.014 0.012

RECM

0.010 LSM tradicional

0.008

Instrumento 0.006

Regresor

0.004 0.002 0.000 0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

Rho

64

El gráfico anterior no sólo ilustra la conclusión enunciada, vale decir, que para valores moderados de ρ la RECM es menor, sino que además muestra claramente que en ese rango las variaciones propuestas al LSM superan la versión original incluso cuando el investigador conoce la desviación estándar del proceso. Además, este gráfico muestra que utilizar el activo correlacionado como regresor es marginalmente más eficiente que hacerlo como instrumento. Estas conclusiones se mantienen prácticamente incólumes para distintos números de simulaciones. Por lo tanto, las dos variaciones propuestas para enfrentar los problemas del uso práctico del LSM demuestran ser incluso más eficientes que el algoritmo original en el uso meramente teórico donde se conocen los parámetros. En la siguiente sección evaluaremos ahora si existen ganancias de eficiencia que resulten de la incorporación de un activo correlacionado mediante ambos caminos cuando se toma en cuenta que el investigador no conoce realmente la desviación estándar que rige el proceso del subyacente de la opción que valora.

65

8.- Experimentos y eficiencia Al inicio de este trabajo expusimos en detalle la teoría de valoración de opciones americanas, con especial detención en el algoritmo LSM. Luego planteamos un problema de orden práctico al que se debe enfrentar el algoritmo. Finalmente, en la sección anterior estudiamos la inclusión de un segundo activo en el cálculo tradicional del LSM por dos métodos distintos. En la presente sección aplicaremos dichos métodos al caso en que el investigador no conoce con certeza la varianza del subyacente. Los parámetros y los procedimientos utilizados en las simulaciones de esta parte de la tesis son equivalentes a los utilizados en secciones anteriores. De esta forma, volvemos a recurrir a la ecuación (64) para calcular la varianza del subyacente utilizada en cada intento por el individuo. Es fundamental utilizar esa misma varianza estimada en la matriz de varianza y covarianza del conjunto de ecuaciones (60). De no ser así, sólo se incorpora el efecto en la media del proceso de la varianza de la desviación estándar estimada, y no el efecto en la volatilidad misma del proceso. Si se comete el error anterior los resultados de los métodos probados resultan ser en apariencia extremadamente eficientes, como muestra el anexo II. Para analizar el comportamiento de las variaciones al LSM cuando se utiliza una varianza estimada en las simulaciones, valoraremos la misma opción que en el resto del trabajo. Es decir, una opción de venta con precio de ejercicio de 40 que vence en un año y que consta de diez oportunidades de ejercicio igualmente espaciadas. El activo sobre el que está escrito el derivado tiene un precio hoy de 36 , la tasa libre de riesgo es de 6% y la varianza verdadera del proceso es de 40% . Suponemos que el investigador utiliza los últimos diez datos, es decir, un año, para calcular la varianza por máxima verosimilitud. En esta ocasión, aumentamos la varianza del activo

66

ficticio fijándola en 0.6 14 , el precio inicial de este activo es el mismo del subyacente. Nuevamente realizamos grupos de cien experimentos para distintas combinaciones del número de simulaciones y del coeficiente de correlación

ρ . Sin embargo, esta vez la simulación más grande realizada es de 50.000 y la más pequeña de 10.000 . En el caso del coeficiente de correlación su evaluación comienza con un valor de 0.3 y aumenta cada vez en 0.1 hasta alcanzar un valor de 0.8 . Las siguientes tablas muestran los resultados obtenidos bajo ambos métodos.

14

En el tercer anexo se muestra que las conclusiones de esta sección se mantienen para distintos valores de la varianza del activo ficticio.

67

Tabla 8-1: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Desconocida (1) M 10000 20000 30000 40000 50000 Promedio Promedio ABS

Media 6.9639 7.2336 7.1090 6.9704 7.2719 7.1098 7.1098

rho=0.3 Des. est. Sesgo 0.9917 -0.1071 0.9040 0.1626 1.0328 0.0380 0.9233 -0.1006 0.9431 0.2009 0.9590 0.0388 0.9590 0.1218

RECM 0.9975 0.9185 1.0335 0.9288 0.9643 0.9685 0.9685

Media 6.9822 7.0445 7.1229 7.1147 7.0779 7.0684 7.0684

rho=0.4 Des. est. Sesgo 0.9489 -0.0888 0.9401 -0.0265 0.8594 0.0519 1.1093 0.0437 0.8897 0.0069 0.9495 -0.0026 0.9495 0.0436

RECM 0.9530 0.9405 0.8610 1.1102 0.8897 0.9509 0.9509

Media 7.1594 7.1326 7.0445 7.1581 6.9243 7.0838 7.0838

rho=0.5 Des. est. Sesgo 1.0761 0.0884 1.0682 0.0616 0.9977 -0.0265 0.8921 0.0871 1.0324 -0.1467 1.0133 0.0128 1.0133 0.0821

RECM 1.0797 1.0700 0.9981 0.8963 1.0428 1.0174 1.0174

Tabla 8-2: LSM Utilizando el Activo Ficticio como Regresor cuando la Varianza es Desconocida (2) M 10000 20000 30000 40000 50000 Promedio Promedio ABS

Media 6.9965 6.9945 6.9676 7.1270 7.2381 7.0647 7.0647

rho=0.6 Des. est. Sesgo 1.0260 -0.0745 0.8812 -0.0765 0.9466 -0.1034 0.9689 0.0560 0.9924 0.1671 0.9630 -0.0063 0.9630 0.0955

RECM 1.0287 0.8845 0.9522 0.9705 1.0064 0.9685 0.9685

Media 7.1981 7.0085 7.0391 7.1412 7.1080 7.0990 7.0990

rho=0.7 Des. est. Sesgo 1.0260 0.1271 0.9061 -0.0625 1.0057 -0.0319 0.9613 0.0702 0.9243 0.0370 0.9647 0.0280 0.9647 0.0657

RECM 1.0338 0.9083 1.0062 0.9639 0.9250 0.9674 0.9674

Media 7.0660 6.9724 7.1180 7.3313 6.9838 7.0943 7.0943

rho=0.8 Des. est. Sesgo 0.9239 -0.0050 0.9738 -0.0986 0.9983 0.0470 0.8808 0.2603 1.0731 -0.0872 0.9700 0.0233 0.9700 0.0996

RECM 0.9239 0.9788 0.9994 0.9185 1.0766 0.9794 0.9794

68

Tabla 8-3: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Desconocida (1) M 10000 20000 30000 40000 50000 Promedio Promedio ABS

Media 7.1207 7.0509 7.1779 7.0981 6.9343 7.0764 7.0764

rho=0.3 Des. est. Sesgo 0.9479 0.0497 1.1322 -0.0201 0.9784 0.1069 0.9453 0.0271 0.9170 -0.1367 0.9842 0.0054 0.9842 0.0681

RECM 0.9492 1.1324 0.9842 0.9457 0.9271 0.9877 0.9877

Media 7.2659 7.1174 7.2230 7.0947 6.8737 7.1149 7.1149

rho=0.4 Des. est. Sesgo 0.9403 0.1949 0.8793 0.0464 0.8842 0.1520 0.9628 0.0237 0.9634 -0.1973 0.9260 0.0439 0.9260 0.1229

RECM 0.9603 0.8805 0.8972 0.9631 0.9834 0.9369 0.9369

Media 6.8829 7.1312 7.1340 7.0975 7.0313 7.0554 7.0554

rho=0.5 Des. est. Sesgo 0.9231 -0.1881 1.0575 0.0602 1.0672 0.0630 0.9328 0.0265 0.8725 -0.0397 0.9706 -0.0156 0.9706 0.0755

RECM 0.9421 1.0592 1.0691 0.9332 0.8734 0.9754 0.9754

Tabla 8-4: LSM Utilizando el Activo Ficticio como Instrumento cuando la Varianza es Desconocida (2) M 10000 20000 30000 40000 50000 Promedio Promedio ABS

Media 7.0790 7.1278 7.1538 6.9351 7.0940 7.0779 7.0779

rho=0.6 Des. est. Sesgo 1.1258 0.0080 0.9863 0.0568 1.0044 0.0828 1.1242 -0.1359 0.9960 0.0230 1.0473 0.0069 1.0473 0.0613

RECM 1.1258 0.9879 1.0078 1.1324 0.9963 1.0500 1.0500

Media 6.9144 7.0453 6.8976 7.1301 7.1410 7.0257 7.0257

rho=0.7 Des. est. Sesgo 0.8344 -0.1566 0.8560 -0.0257 1.0165 -0.1734 0.9151 0.0591 0.9705 0.0700 0.9185 -0.0453 0.9185 0.0970

RECM 0.8490 0.8564 1.0312 0.9170 0.9730 0.9253 0.9253

Media 6.9339 7.1773 7.0129 6.9691 7.0208 7.0228 7.0228

rho=0.8 Des. est. Sesgo 0.9454 -0.1371 1.0029 0.1063 1.0075 -0.0581 1.0242 -0.1019 1.0914 -0.0502 1.0143 -0.0482 1.0143 0.0907

RECM 0.9553 1.0085 1.0092 1.0293 1.0926 1.0190 1.0190

69

Como

punto

de

comparación

reproducimos

a

continuación

los

resultados del LSM tradicional de Stentoft (2004) cuando la varianza es desconocida: Tabla 8-5: LSM Tradicional con Varianza Desconocida LSM clásico M Media Des. est. Sesgo RECM 10000 6.8532 0.8992 -0.2178 0.9252 20000 7.0852 1.0006 0.0142 1.0007 30000 6.9895 1.1113 -0.0815 1.1143 40000 6.9433 0.9745 -0.1277 0.9828 50000 6.8162 0.9675 -0.2548 1.0005 Promedio 6.9375 0.9906 -0.1335 1.0047 Promedio ABS 6.9375 0.9906 0.1392 1.0047

Las tres tablas anteriores reportan la media, la desviación estándar y la raíz del error cuadrático medio de cien experimentos realizados con distintos números de patrones. Para facilitar la comparación de los distintos métodos hemos reportado tanto los promedios simples como los promedios absolutos de los cinco experimentos para cada valor del parámetro ρ escogido. En el caso del LSM tradicional, el promedio es el mismo para cualquier valor del coeficiente de correlación. En términos generales, ninguna de las tablas exhibe una clara tendencia a la baja del sesgo o la desviación estándar a medida que se aumenta el número de simulaciones. Por lo tanto, una primera conclusión es que cuando no se conoce con exactitud la varianza del subyacente, aumentar el número de simulaciones no asegura un valor más acertado para el precio de la opción. Tampoco se observa el persistente sesgo a la baja reportado por Stentoft (2004) para el caso de K = 2 en ninguno de los tres experimentos. Si nos detenemos en la raíz del error cuadrático medio no hay diferencias significativas entre ninguno de los tres métodos. Sin embargo, la

70

diferencia en la magnitud de la desviación estándar con respecto al sesgo ensucia bastante esta medida. En efecto, si centramos nuestra atención en la desviación estándar de los distintos procesos podemos apreciar algunos matices entre los distintos métodos. Cuando ρ = 0.3 , utilizar un activo ficticio como regresor arroja sistemáticamente menores desviaciones estándar que el LSM tradicional para más de 10.000 simulaciones. Ocurre lo mismo cuando se usa dicho activo como instrumento y se selecciona un

ρ = 0.4 . Otro caso interesante es el de ρ = 0.7 donde en términos generales ambas variaciones arrojan resultados más eficientes. Aunque las ganancias en eficiencia no son de gran magnitud, los resultados son robustos cuando se repiten los experimentos. El caso del sesgo es bastante más claro. Para todo valor de ρ , ambos método tienen valores más ajustados al punto de referencia cuando se utilizan 10.000 , 40.000 y 50.000 simulaciones. A diferencia del caso anterior, el sesgo disminuye drásticamente para las simulaciones anteriores. Por lo tanto, existe una ganancia importante en materia de sesgo cuando se utiliza activos ficticios en el cálculo del valor de la opción. Los siguientes gráficos ilustran este fenómeno para el caso de 50.000 simulaciones:

71

Gráfico 8-1: Desviación Estándar de los Distintos Métodos Desviación estándar para 50.000 simulaciones 1.2

Desviación estándar

1 0.8 LSM tradicional 0.6

Instrumentos Regresores

0.4 0.2 0 0.3

0.4

0.5

0.6

0.7

0.8

Coeficiente de correlación

Gráfico 8-2: Valor Absoluto del Sesgo de los Distintos Métodos Valor absoluto del sesgo para 50.000 simulaciones

Valor absoluto del sesgo

0.3 0.25 0.2 LSM tradicional 0.15

Instrumentos Regresores

0.1 0.05 0 0.3

0.4

0.5

0.6

0.7

0.8

Coeficiente de correlación

Las figuras anteriores muestran que si bien es cierto que no existe una clara diferencia en materia de la raíz del error cuadrático medio de los distintos métodos, cuando estudiamos por separado los componentes de esta medida la conclusión anterior se suaviza. En efecto, aunque en materia de desviación estándar no existe una dominancia clara de ningún método,

72

las variaciones del LSM tradicional arrojan sistemáticamente un menor valor absoluto para el sesgo de la estimación. Por último, si nos centramos en los promedios de los indicadores estudiados, los resultados son decidores. El sesgo promedio de las distintas simulaciones de ambas variaciones, para cualquier valor del coeficiente de correlación es inferior al sesgo promedio del LSM original. En el caso de la desviación estándar y de la raíz del error cuadrático medio, cuando se utiliza el activo ficticio como instrumento, el promedio de ambas variables es inferior al del LSM original para cuatro de los seis casos estudiados. Cuando se utiliza al activo ficticio como regresor, lo anterior se cumple para cinco de los seis casos. A continuación graficamos lo componentes del error cuadrático medio del promedio de los cinco experimentos realizados para cada valor del coeficiente de correlación estudiado. Para el caso del sesgo se grafica tanto el promedio del valor absoluto del sesgo como el valor absoluto del sesgo promedio. Gráfico 8-3: Desviación Estándar Promedio de los Distintos Métodos Desviación estándar promedio

Desviación estándar

1.1000 1.0500 LSM tradicional

1.0000

Instrumentos Regresores

0.9500 0.9000 0.8500 0.3

0.4

0.5

0.6

0.7

0.8

Coeficiente de correlación

73

Gráfico 8-4: Valor Absoluto del Sesgo Promedio de los Distintos Métodos Valor absoluto del sesgo promedio

Valor absoluto del sesgo

0.1600 0.1400 0.1200 0.1000

LSM tradicional

0.0800

Instrumentos

0.0600

Regresores

0.0400 0.0200 0.0000 0.3

0.4

0.5

0.6

0.7

0.8

Coeficiente de corelación

Gráfico 8-5: Promedio del Valor Absoluto del Sesgo de los Distintos Métodos Promedio del valor absoluto del sesgo

Valor absoluto del sesgo

0.16 0.14 0.12 0.1

LSM tradicional

0.08

Instrumentos

0.06

Regresores

0.04 0.02 0 0.3

0.4

0.5

0.6

0.7

0.8

Coeficiente de corelación

Finalmente, podemos decir que aunque la disminución en la desviación estándar no es muy importante, la baja en el sesgo resulta extremadamente interesante. Recordemos además que no se obtiene una mejor aproximación del precio realizando más simulaciones. Por lo tanto, una forma de obtener una mejor aproximación para el precio, intentando evitar los problemas de

74

eficiencia, puede venir más por aumentar el número de veces que se calcula el precio que por aumentar el número de patrones utilizados en cada cálculo.

Más

aún,

si

se

utilizan

activos

ficticios,

se

puede

estar

relativamente seguro que el promedio de dichas repeticiones será bastante cercano al precio verdadero de la opción.

75

9.- Conclusiones y extensiones Este trabajo realiza una exposición detallada de los distintos métodos existentes para la valoración de opciones americanas. Cualquier lector con algunos conocimientos matemáticos puede obtener de la segunda sección de este trabajo los conocimientos necesarios para entender los resultados centrales de las secciones posteriores. Más aún, la exposición hecha en este trabajo permite que cualquier lector se introduzca en el vasto mundo de la valoración de opciones financieras. El método LSM propuesto por Longstaff y Schwartz (2001) es sin lugar a dudas el algoritmo más utilizado en la valoración de opciones americanas. Sin embargo, el uso profesional del algoritmo tiene escollos prácticos que los investigadores teóricos ignoran en sus estudios. En efecto, el operador de la mesa de dinero que utiliza el algoritmo no conoce realmente los parámetros que necesita para simular las trayectorias del subyacente, por lo tanto, no puede acceder a la eficiencia teórica del algoritmo. Esta tesis muestra que cuando se toma en cuenta este fenómeno la pérdida de eficiencia del método puede llevar a una verdadera catástrofe financiera. En tercer lugar, en este estudio se exploran dos variaciones al LSM, dos formas de incluir más información en el algoritmo. La idea de estos cambios es incorporar en el método la posibilidad que tiene el agente de observar distintos activos y sus interrelaciones al momento de tomar decisiones financieras. Aunque el comportamiento de estos nuevos algoritmos es satisfactorio en el caso teórico, cuando se incorpora el problema práctico antes mencionado, sólo se consiguen ganancias marginales. Sin embargo, la disminución en el sesgo de las estimaciones junto con la no disminución sistemática de la desviación estándar cuando se utilizan más patrones, sugiere una estimación basada en el promedio de distintos experimentos que utilicen activos ficticios en las regresiones.

76

El principal resultado de este trabajo es la puesta en evidencia de la ineficiencia del método LSM cuando se utilizan parámetros aproximados en las simulaciones. En la aplicación práctica del algoritmo los agentes financieros no conocen con exactitud los parámetros que rigen el movimiento del subyacente que estudian. Por lo tanto, un mayor estudio de este fenómeno, puede ser de mucha utilidad para la profesión. El proceso estudiado en este trabajo contiene sólo un factor de riesgo, sería muy interesante evaluar la ineficiencia del método cuando existen más factores de riesgo. En particular, podría tomarse un problema clásico de opciones reales, como la valoración de la mina de Brennan y Schwartz (1985) o incluso versiones más complejas del mismo problema. Así se podría comparar el resultado del LSM, utilizando estimaciones para los parámetros de todos los procesos que siguen los factores de riesgo utilizados, con los resultados de diferencias finitas. Otro punto interesante consiste en variar el error en la aproximación de los parámetros. Por ejemplo, evaluar como cambia la raíz del error cuadrático medio de las estimaciones tradicionales del LSM cuando la estimación de los parámetros del subyacente se vuelve más precisa. Cabe destacar que en la realidad se utilizan filtros de Kalman y otros sofisticados métodos para aproximar los parámetros del subyacente, que en algunos casos, pueden ser más correctos en su aproximación que los estimadores de máxima verosimilitud. Con respecto a las variaciones del LSM tradicional expuestas, sería muy interesante analizar su comportamiento cuando existen distintos factores de riesgo. En particular, si la matriz de varianza y covarianza no fuese desconocida, es decir, si la varianza del estimador no fuese incierta y, por ejemplo, la incertidumbre radicara en la tasa del retorno por conveniencia del activo. En efecto, de esta forma podría simularse sin

77

problemas activos ficticios correlacionados con la matriz de información verdadera y no con una estimación de esta última. Otro punto interesante con respecto a estos algoritmos alternativos es la inclusión de un mayor número de procesos correlacionados y su efecto en la eficiencia de la estimación. Cabe destacar que un solo activo ficticio logra tener efectos incluso en el caso abstracto en que se conoce con certeza la varianza del proceso. Así mismo sería interesante variar el orden de los polinomios utilizados en las regresiones, rompiendo la simetría que impusimos entre el activo ficticio y el subyacente, o simplemente aumentando los miembros utilizados. Finalmente, este trabajo abre un desafío nuevo para la valoración de opciones. Se deben explorar nuevos algoritmos que logren lidiar con las imprecisiones en las estimaciones de los parámetros utilizados en las simulaciones. Cabe destacar que la ciencia econométrica puede pulir considerablemente los resultados del LSM alejándose del caso simple de mínimos cuadrados ordinarios. Sin embargo, siempre debe tenerse en cuenta que dicho alejamiento tiene un costo y si los beneficios de invertir aún más en econometría no logran compensar los mayores costos de programación y de tiempo, claramente la mejor alternativa es mantener el paradigma de Longstaff y Schwartz (2001).

78

10.-

Bibliografía

-

Barone-Adesi, G and Whaley, R. E. (1987), “Efficient Analytical

Aproximation of American Option Value”, The Journal of Finance, 42:3, 301-320.

-

Barraquand,

J.

and

Martineau,

D.

(1995),

“Numerical

Valuation of High Dimensional Multivariate American Securities”, Journal of Financial and Quantitative Analysis 30:3, 383-405

-

Black, F. and Scholes M. (1973), “The Pricing of Options and

Corporate Liabilities”, Journal of Political Economy 28, 637-654.

-

Boyle, P. (1977) “Options: A Monte Carlo Approach”, Journal of

Financial and Quantitative Analysis, 323-338.

-

Brennan, M.J. and Schwartz E.S. (1977), “Finite Difference

Methods and Jump Processes arising in the Pricing of Contingent Claims: A Synthesis”, Journal of Financial and Quantitative Analysis, 13, 462-474.

-

Brennan, M.J. and Schwartz E.S. (1985), “Evaluating Natural

Resources Investments”, Journal of Business 58:2, 135-157.

-

Broadie, M. and Glasserman P. (1997b), “Pricing American-

Style Securities Using Simulation”, Journal of Economic Dynamics and Control, 21:8 and 9, 1323-1352.

-

Campbell, J.Y., Lo A.W. and Mackinlay A.C. (1997), “The

Econometrics of Financial Markets”, Second Edition, Princeton University Press.

79

-

Carr, P., Jarrow, R. and Myneni, R. (1992), “Alternative

Characterizations of American Put Options”, Mathematical Finance, 2, 87-106.

-

Cox, J., Ross, S. and Rubinstein, M. (1979), “Option Pricing: A

Simplified Approach”, Journal of Financial Economics, 7, 229-264.

-

Geske, R. and Johnson, H. (1984), “The American Put Option

Valued Analytically”, The Journal of Finance, 39:5, 1511-1524.

-

Greene, W.H., (2003), “Econometric Analysis”, Fifth Edition,

Prentice Hall.

-

Kim, I.J. (1990), “The Analytic Valuation of American Options”,

Review of Financial Studies, 3:4, 547-572.

-

Hull, J.C. (2003), “Options, Futures and other derivatives”,

Fifth Edition, Prentice Hall.

-

Longstaff, F.A., and Schwartz E.S. (2001), “Valuing American

Options by Simulation: A Simple Least-Square Approach”, Review of Financial Studies 14:1, 113-147.

-

Moreno, M. and Navas J.F. (2003), “On the Robustness of

Least-Squares Montecarlo (LSM) for Pricing American Derivatives”, Review of Derivatives Research 6, 107-128.

-

Raymar, S. and Zwecher M.J. (1997), “Montecarlo Estimation

of American Call Options on the Maximum of Several Stocks”, Journal of Derivatives 5:1, 7-23.

80

-

Stentoft, L., (2004), “Assessing the Least Squares Montecarlo

Approach to American Option Valuation”, Review of Derivatives Research 7, 129-168.

-

Stentoft, L. (2005), ‘Pricing American Options when the

Underlying Asset Follows GARCH Processes’, Journal of Empirical Finance, 12:4, 576-611.

-

Urzúa, J.L., Tesis para optar al grado de Magíster en Ciencias

de la Ingeniería, Pontificia Universidad Católica de Chile, Supervisor: Cortázar, G., Mayo 2004.

81

11.-

Anexo I: Oportunidades de Arbitraje

En este apartado 15 ampliaremos el ejemplo de la segunda sección de este trabajo para demostrar que el precio de la opción europea calculado no permite oportunidades de arbitraje. En dicho ejemplo se diseña una economía binomial con tres períodos. Para la siguiente exposición esquematizamos los distintos escenarios posibles en cada una de las tres fechas de la siguiente forma: Figura 11-1: Nomenclatura de los estados de la Naturaleza

D B E A F C G

En cada escenario existen sólo dos trayectorias posibles. Por lo tanto, basta la existencia de dos activos no redundantes para poder replicar cualquier vector de pagos. En esta economía existe un activo libre de

15

Esta sección es fruto de una sugerencia del profesor Gonzalo Edwards. La exposición del mismo está fuertemente influenciada por la cátedra de Economía Financiera que dicta el profesor Felipe Zurita en el Instituto de Economía de la Pontificia Universidad Católica de Chile.

82

riesgo R y un activo riesgoso Z y no existe ninguna prohibición a la venta corta de éstos. Decimos por ende, que en esta economía existen mercados completos y por lo tanto, puede valorarse cualquier activo por métodos de arbitraje. El activo libre de riesgo R puede modelarse como un bono que cuesta 100 en A y promete entregar tanto en B como en C un pago de 110, es decir, ofrece un retorno de 10% libre de riesgo. El activo riesgoso Z también tiene un precio de 100 en A pero su valor puede subir un 30% si se da el estado de la naturaleza B o caer en un 20% si de da C. En cada nodo de esta economía, sin importar el precio contingente de los activos, R ofrece un retorno libre de riesgo de 10% y el precio de Z puede aumentar o disminuir en los porcentajes antes especificados. Por lo tanto, los precios de estos instrumentos en cada escenario son: Figura 11-2: Precios Contingentes de los Activos de esta Economía R=121 Z=169 R=110 Z=130 R=121 Z=104 R=Z=100 R=121 Z=104 R=110 Z=80 R=121 Z=64

El derivado estudiado en el ejemplo de la segunda sección es una opción de venta europea sobre Z que llamaremos P, con vencimiento en el tercer período y un precio de ejercicio de 110. Este activo financiero tiene el siguiente patrón de pagos:

83

Figura 11-3: Patrón de Pagos de la Opción Europea

0 0 6 0 6 0 46

A continuación replicaremos el patrón de pagos de P con una sucesión de portafolios contingentes de R y de Z. Cabe destacar que, sin la posibilidad de rebalancear el portafolio en el segundo período en esta economía ya no habría mercados completos. En efecto, desde A se vislumbrarían tres escenarios posibles: D; E=F y G. Por lo tanto, se requeriría un tercer activo para completar los mercados. Llamamos ri y zi al número de unidades de R y de Z que contiene el portafolio óptimo en el escenario i . Sea Qi la matriz de pagos que se vislumbra en el escenario i , es decir, si Ri y Z i son los precios vigentes en el escenario i para los activos de esta economía y en el próximo período los escenarios posibles son j y v :

⎛R Qi = ⎜ j ⎝ Rv

Zj ⎞ ⎟ Zv ⎠

(71)

El portafolio que se forme en i asegura al agente en j y v los pagos

Pj y Pv tal que:

84

⎛ Rj ⎜ ⎝ Rv

Z j ⎞ ⎛ ri ⎞ ⎛ Pj ⎞ ⎟⎜ ⎟ = ⎜ ⎟ Z v ⎠ ⎝ zi ⎠ ⎝ Pv ⎠

(72)

El costo Ci de dicho portafolio en el escenario i resulta ser:

Ci = ( ri

⎛R ⎞ zi ) ⎜ i ⎟ ⎝ Zi ⎠

(73)

En particular, para encontrar el portafolio que debe construirse en B para replicar los pagos de la opción en D y E debe solucionarse la siguiente ecuación:

⎛121 169 ⎞ ⎛ rB ⎞ ⎛ 0 ⎞ ⎜ ⎟⎜ ⎟ = ⎜ ⎟ ⎝121 104 ⎠ ⎝ z B ⎠ ⎝ 6 ⎠

(74)

⎛ 78 ⎞ ⎛ rB ⎞ ⎜ 605 ⎟ ⎟ ⎜ ⎟=⎜ ⎝ zB ⎠ ⎜ − 6 ⎟ ⎜ ⎟ ⎝ 65 ⎠

(75)

6 ⎞ ⎛110 ⎞ 24 ⎛ 78 CB = ⎜ − ⎟⎜ = 2.18 ⎟= 65 ⎠ ⎝130 ⎠ 11 ⎝ 605

(76)

De donde:

Lo que tiene un costo de:

De manera análoga el portafolio que debe construirse en C para replicar los pagos de la opción en F y G tiene las siguientes características:

⎛121 104 ⎞ ⎛ rC ⎞ ⎛ 6 ⎞ ⎜ ⎟⎜ ⎟ = ⎜ ⎟ ⎝121 64 ⎠ ⎝ zC ⎠ ⎝ 46 ⎠

(77)

De donde:

85

⎛ 10 ⎞ ⎛ rC ⎞ ⎜ ⎟ ⎜ ⎟ = ⎜ 11 ⎟ ⎝ zC ⎠ ⎝ −1 ⎠

(78)

⎛ 10 ⎞ ⎛110 ⎞ CC = ⎜ −1⎟ ⎜ ⎟ = 20 ⎝ 11 ⎠ ⎝ 80 ⎠

(79)

Lo que tiene un costo de:

Para poder formar los portafolios contingentes en cada escenario del segundo período el agente debe construir hoy un portafolio que le permita contar con los flujos necesarios para costearlos en cada estado de la naturaleza. De esta forma el portafolio que debe construirse en A para poder comprar los portafolios anteriores se obtiene de la siguiente manera:

24 ⎞ ⎛ ⎛110 130 ⎞ ⎛ rA ⎞ ⎜ CB = ⎟ 11 ⎜ ⎟⎜ ⎟ = ⎝110 80 ⎠ ⎝ z A ⎠ ⎜⎜ C = 20 ⎟⎟ ⎝ C ⎠

(80)

⎛ 1334 ⎞ ⎛ rA ⎞ ⎜ 3025 ⎟ ⎟ ⎜ ⎟=⎜ ⎝ z A ⎠ ⎜ − 98 ⎟ ⎜ ⎟ ⎝ 275 ⎠

(81)

98 ⎞ ⎛ 100 ⎞ 1024 ⎛ 1334 CA = ⎜ − = 8.4628 ⎟= ⎟⎜ 275 ⎠ ⎝ 100 ⎠ 121 ⎝ 3025

(82)

De donde:

Lo que tiene un costo de:

Por lo tanto, la estrategia de portafolios contingentes que replica exactamente los pagos de la opción del ejemplo de la segunda sección de esta tesis tiene el mismo costo que el derivado en cuestión. En conclusión, el precio de la opción europea no permite oportunidades de arbitraje. A continuación demostramos formalmente para el caso binomial la equivalencia de ambos métodos de valoración. Para cada unidad monetaria

86

invertida en un nodo i el agente enfrenta una matriz de retornos brutos que llamaremos Bi . A modo de ejemplo, en el nodo inicial A el sujeto enfrenta para cada unidad de su presupuesto la matriz de retornos BA tal que:

⎛ RB ⎜R A BA = ⎜ ⎜ RC ⎜R ⎝ A

Z B ⎞ ⎛ 110 130 ⎞ Z A ⎟ ⎜ 100 100 ⎟ ⎛1.1 1.3 ⎞ ⎟=⎜ ⎟=⎜ ⎟ Z C ⎟ ⎜ 110 80 ⎟ ⎝1.1 0.8 ⎠ ⎜ ⎟ Z A ⎟⎠ ⎝ 100 100 ⎠

(83)

Si definimos un activo puro como un derecho a recibir una unidad monetaria sólo en uno de los escenarios contingentes que puedan ocurrir en el futuro 16 . Derivemos a continuación los precios de los activos puros que rigen en un nodo i cualquiera para el período adyacente. En este caso, nos preguntamos cuanto cuesta hoy asegurarse en dicho nodo una unidad monetaria en cada uno de los dos estados de la naturaleza del período siguiente. Para ello, volvemos a ocupar el esquema de las ecuaciones (72) a (74). Para replicar el activo puro que promete una unidad en el escenario de alza de Z debemos resolver: ⎛r ⎞ ⎛ρ Bi ⎜ i ⎟ = ⎜ ⎝ zi ⎠ ⎝ ρ

u ⎞ ⎛ ri ⎞ ⎛ 1 ⎞ ⎟⎜ ⎟ = ⎜ ⎟ d ⎠ ⎝ zi ⎠ ⎝ 0 ⎠

(84)

Donde ρ representa el retorno bruto del activo libre de riesgo en el período siguiente. Así mismo, u y d son los retornos brutos del activo riesgoso en cada escenario del siguiente período. Por lo tanto:

16

Nótese que un activo puro en A puede ofrecer un pago unitario en B o en C pero también puede hacerlo en D, E=F o en G. Pero, dada la estructura binomial de la naturaleza, basta con definir los dos activos puros adyacentes a un estado particular para poder componer todos los demás.

87

*

⎛ ri ⎞ ⎛ d 1 −1 ⎛ 1 ⎞ ⎜ ⎟ = Bi ⎜ ⎟ = ⎜ ⎝ 0 ⎠ ρ d − ρu ⎝ −ρ ⎝ zi ⎠

d ⎛ ⎞ ⎜ −u ⎞ ⎛ 1 ⎞ ρ d − ρu ⎟ ⎟ ⎜ = ρ ⎟⎠ ⎜⎝ 0 ⎟⎠ ⎜ − ρ ⎟ ⎜ ρ d − ρu ⎟ ⎝ ⎠

(85)

Sea q i , j el precio del activo puro en i que promete entregar una unidad en el escenario j . Si i es el estado actual, sea u el escenario adyacente donde Z sube y d el escenario donde Z baja. En este caso, al aplicar (73):

⎛ d q i ,u = ⎜ ⎝ ρ d − ρu

⎛ RA ⎞ ⎜ ⎟ d −ρ ρ −d − ρ ⎞ ⎜ RA ⎟ = ⎟⎜ Z ⎟ = ρ d − ρu ⎠ A ρ d − ρu ρ (u − d ) ⎜Z ⎟ ⎝ A⎠

(86)

Si aplicamos el mismo razonamiento para el estado en que Z baja, resolvemos: ⎛r ⎞ ⎛ρ Bi ⎜ i ⎟ = ⎜ ⎝ zi ⎠ ⎝ ρ

u ⎞ ⎛ ri ⎞ ⎛ 0 ⎞ ⎟⎜ ⎟ = ⎜ ⎟ d ⎠ ⎝ zi ⎠ ⎝ 1 ⎠

(87)

De donde obtenemos:

*

⎛ ri ⎞ ⎛ d 1 −1 ⎛ 0 ⎞ ⎜ ⎟ = Bi ⎜ ⎟ = ⎜ ⎝ 1 ⎠ ρ d − ρu ⎝ −ρ ⎝ zi ⎠

⎛ −u ⎞ −u ⎞ ⎛ 0 ⎞ ⎜ ρ d − ρ u ⎟ ⎟ =⎜ ρ ⎟⎠ ⎜⎝ 1 ⎟⎠ ⎜ ρ ⎟ ⎜ ρ d − ρu ⎟ ⎝ ⎠

(88)

Y al valorar dicho portafolio

88

⎛ −u qi,d = ⎜ ⎝ ρ d − ρu

⎛ RA ⎞ ⎜ ⎟ ⎞ ⎜ RA ⎟ ρ u−ρ ⎟⎜ Z ⎟ = ρ d − ρu ⎠ A ρ (u − d ) ⎜Z ⎟ ⎝ A⎠

(89)

En el ejemplo de la opción europea ya descrita obtenemos:

q i ,u =

q i,d =

ρ −d

1.1 − 0.8 = 0.54 1.1(1.3 − 0.8 )

(90)

u−ρ 1.3 − 1.1 = = 0.36 ρ ( u − d ) 1.1(1.3 − 0.8 )

(91)

ρ (u − d )

=

Como es de esperarse, si un individuo compra una unidad de cada activo puro en el escenario i tiene absolutamente asegurada una unidad monetaria en el período siguiente, más allá de cuál sea el estado de la naturaleza. Dicho portafolio replica claramente al activo libre de riesgo R. El costo de dicho portafolio equivale a:

q i ,u + q i , d =

(u − d ) = 1 ρ −d u−ρ + = ρ (u − d ) ρ (u − d ) ρ (u − d ) ρ

(92)

Por lo tanto, los precios de los activos puros eliminan por construcción cualquier oportunidad de arbitraje entre el activo R y la cartera que lo replica. En el ejemplo anterior es claro que:

q i ,u + q i ,d = 0.54 + 0.36 = 0.90 =

1 1 = 1.1 ρ

(93)

Ahora estamos en condiciones de demostrar que los precios de los activos puros encontrados aseguran también que no se podrá arbitrar por medio de ningún otro activo. Imaginemos un activo T que tiene un valor de

89

Tu y Td en cada uno de los dos escenarios posibles. Si buscamos el valor Ti de este activo en un nodo i cualquiera utilizando las probabilidades neutrales al riesgo obtenemos:

Ti =

Tu * p + Td * (1 − p ) 1+ r

(94)

Donde:

ρ = 1+ r ρ −d p=

u−d u−ρ 1− p = u−d

Al desarrollar (94) obtenemos:

1 (Tu * ( ρ − d ) + Td * ( u − ρ ) ) u − d Ti = = Tu

ρ

( ρ − d ) + T (u − ρ ) ρ (u − d ) d ρ (u − d )

(95)

Lo que puede escribirse simplemente como:

Ti = Tu q i ,u + Td q i ,d

(96)

Por lo tanto, los precios de los activos puros, que son la base de todos los demás precios 17 , impiden toda oportunidad de arbitraje 18 . Más aún, es totalmente equivalente valorar activos utilizando las probabilidades neutrales al riesgo que replicándolos con la ayuda de los demás activos.

17

Valorar por medio de los activos puros equivale indirectamente, a utilizar los activos R y Z para replicar el derivado que se busca valorar. 18 Siempre y cuando los precios de los activos puros sean positivos.

90

Finalmente, es útil destacar que las probabilidades neutrales al riesgo son normalizaciones de los precios de los activos puros, de tal manera que:

p=

q i ,u q i ,u + q d ,u

(1 − p ) =

q i ,d q i , u + q d ,u

(97)

(98)

De donde resulta evidente que:

q p = i ,u (1 − p ) q d ,u

(99)

En una economía con dos bienes, consumo en estado de auge futuro, Cu , y consumo en estado de depresión futura, Cd , donde existen sólo dos agentes y éstos son neutrales al riesgo. Si los precios que rigen esta economía, son los mismos que se encuentran vigentes en el “mundo real”; es decir, si los precios de los bienes de esta economía neutral corresponden a los precios de los activos puros antes definidos, entonces el conjunto de equilibrios debe estar caracterizado por (99). En efecto, para que pueda existir un conjunto de Pareto en esta economía, la función de utilidad Von Neumann Morgenstern de los agentes debe ser: U ( Cu , Cd ) = pCu + (1 − p ) Cd

(100)

De modo de que la tasa marginal de sustitución, que en este caso corresponde a la razón de probabilidades, se iguale a la razón de precios. De aquí heredan su nombre las probabilidades neutrales al riesgo.

91

12.-

Anexo II: Matriz de varianza y covarianza no estocástica

Recordemos la ecuación (58) que muestra como simulamos los procesos utilizados:

⎧⎛ 1 ⎞ ⎫ S ( ti +1 ) = S ( ti ) exp ⎨⎜ r − σ 2 ⎟ ( ti +1 − ti ) + σ ti +1 − ti Z ( ti +1 ) ⎬ 2 ⎠ ⎩⎝ ⎭ Donde Z ( ti +1 ) ∼ IIN ( 0,1) . En esta ecuación la desviación estándar σ afecta tanto la tendencia del subyacente:

1 2⎞ ⎛ ⎜r − σ ⎟ 2 ⎠ ⎝

como las desviaciones con respecto a dicha

tendencia: σ Z ( ti +1 ) . Bajo el supuesto de que la varianza verdadera es desconocida, ambos efectos deben incluir, ya no la desviación estándar verdadera, sino σ . Cuando se simulan procesos correlacionados el procedimiento es análogo, el efecto en las desviaciones de la tendencia debe estar regido por ∑ y no por ∑ . ¿Cómo podría creerse que el investigador utilizaría la varianza estimada para simular la tendencia y la verdadera para las desviaciones? Es cierto que, el activo ficticio no está realmente correlacionado con el subyacente por el hecho de utilizar una matriz de varianza y covarianza estimada, sin embargo, no hacerlo de este modo sería falaz. Si el investigador no conoce la varianza verdadera no puede utilizarla para simular el activo ficticio, y a menos que se encuentre una forma de simular procesos correlacionados independientemente de la matriz de información, debe utilizarse, en este ejercicio, la estimación de la matriz de varianza y covarianza para las simulaciones. A continuación presentamos los resultados que se obtendrían si no se respetase lo antes dicho. Es decir, si para simular se utilizara la descomposición verdadera de la matriz de información al momento de

92

incluir los efectos en las desviaciones de la tendencia. Los resultados son absolutamente distintos, la raíz del error cuadrático medio cae en dos tercios con respecto al LSM original, sin embargo este resultado está anclado en la falacia antes descrita. La opción que se valora tiene las mismas características antes descritas y el paradigma de valoración tampoco se ha alterado, las sensibilizaciones se indican en el título de cada tabla.

93

Tabla 12-1: LSM con el Activo Ficticio como Regresor con ρ = 0.5 , Utilizando σ pero Simulando con ∑ para distintos σ 2 (1)

M 10000 20000 30000 40000 50000

Varianza del correlacionado =0.1 Media Des. est. Sesgo RECM 7.1440 0.3766 0.0730 0.3836 7.1200 0.4299 0.0490 0.4327 7.1541 0.3052 0.0831 0.3163 7.0866 0.3206 0.0156 0.3210 7.1378 0.3585 0.0668 0.3647

Media 7.1326 7.0909 7.0658 7.0814 7.1457

Varianza del correlacionado =0.2 Des. est. Sesgo 0.3907 0.0616 0.3342 0.0199 0.3406 -0.0052 0.3635 0.0104 0.3968 0.0747

RECM 0.3955 0.3348 0.3406 0.3636 0.4038

Media 7.1299 7.1070 7.1018 7.0330 7.0919

Varianza del correlacionado =0.4 Des. est. Sesgo 0.4009 0.0589 0.3267 0.0360 0.3366 0.0308 0.3402 -0.0380 0.3500 0.0209

RECM 0.4052 0.3287 0.3380 0.3423 0.3506

Tabla 12-2: con el Activo Ficticio como Regresor con ρ = 0.5 , Utilizando σ pero Simulando con ∑ para distintos σ 2 (2)

M 10000 20000 30000 40000 50000

Varianza del correlacionado =0.6 Media Des. est. Sesgo RECM 7.1025 0.3286 0.0315 0.3301 7.0811 0.3090 0.0101 0.3092 7.1650 0.3353 0.0940 0.3482 7.0949 0.3573 0.0239 0.3581 7.0271 0.3017 -0.0439 0.3049

Media 7.1515 7.0698 7.0776 7.0225 7.1020

Varianza del correlacionado =1 Des. est. Sesgo 0.3586 0.0805 0.3551 -0.0012 0.3405 0.0066 0.3090 -0.0485 0.3970 0.0310

RECM 0.3675 0.3551 0.3406 0.3128 0.3982

Media 7.1492 7.1660 7.0891 7.0731 7.1504

Varianza del correlacionado =4 Des. est. Sesgo 0.3659 0.0782 0.4429 0.0950 0.2738 0.0181 0.3286 0.0021 0.3224 0.0794

94

RECM 0.3742 0.4530 0.2744 0.3286 0.3320

Tabla 12-3: LSM con el Activo Ficticio como Instrumento, para Distintos ρ Utilizando ∑ para Simular (1) M 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

Media 7.0981 7.1075 7.1201 7.1031 7.1129 7.1321 7.1058 7.1089 7.0891 7.0300

Rho= 0.1 Des. est. Sesgo 0.3818 0.0271 0.3645 0.0365 0.3539 0.0491 0.3491 0.0321 0.3414 0.0419 0.3718 0.0611 0.4000 0.0348 0.3359 0.0379 0.3195 0.0181 0.3550 -0.0410

RECM 0.3828 0.3663 0.3573 0.3506 0.3440 0.3768 0.4015 0.3380 0.3200 0.3574

Media 7.0587 7.0939 7.0474 7.1499 7.0060 7.0930 7.0985 7.0622 7.0749 7.1137

Rho=0. 2 Des. est. Sesgo 0.3414 -0.0123 0.3426 0.0229 0.3441 -0.0236 0.3890 0.0789 0.3229 -0.0650 0.3329 0.0220 0.3109 0.0275 0.3294 -0.0088 0.3162 0.0039 0.3588 0.0427

RECM 0.3416 0.3434 0.3449 0.3969 0.3294 0.3336 0.3121 0.3295 0.3162 0.3613

Media 7.0654 7.0518 7.0949 7.1177 7.1261 7.1106 7.0562 7.1096 7.1083 7.0300

Rho= 0.3 Des. est. Sesgo 0.3578 -0.0056 0.3584 -0.0192 0.2964 0.0239 0.3914 0.0467 0.3883 0.0551 0.3419 0.0396 0.3645 -0.0148 0.3555 0.0386 0.4006 0.0373 0.3550 -0.0410

RECM 0.3578 0.3589 0.2974 0.3942 0.3922 0.3442 0.3648 0.3576 0.4023 0.3574

Tabla 12-4: LSM con el Activo Ficticio como Instrumento, para Distintos ρ Utilizando ∑ para Simular (2) M 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

Media 7.0981 7.1535 7.0560 7.1359 7.1420 7.0475 7.0595 7.1249 7.1465 7.0269

Rho= 0.4 Des. est. Sesgo 0.3818 0.0271 0.4135 0.0825 0.3051 -0.0150 0.3770 0.0649 0.3684 0.0710 0.3135 -0.0235 0.2891 -0.0115 0.2917 0.0539 0.3950 0.0755 0.2978 -0.0441

RECM 0.3828 0.4216 0.3055 0.3825 0.3752 0.3144 0.2893 0.2966 0.4022 0.3010

Media 7.0587 7.1320 7.1544 7.1074 7.1433 7.1039 7.1173 7.1570 7.0617 7.1507

Rho= 0.5 Des. est. Sesgo 0.3414 -0.0123 0.3321 0.0610 0.3990 0.0834 0.3240 0.0364 0.3623 0.0723 0.3166 0.0329 0.3202 0.0463 0.4790 0.0860 0.3071 -0.0093 0.3454 0.0797

RECM 0.3416 0.3377 0.4076 0.3260 0.3694 0.3183 0.3235 0.4867 0.3072 0.3545

Media 7.0654 7.0753 7.0808 7.0834 7.0884 7.1847 7.1469 7.1278 7.1561 7.1603

Rho=0.6 Des. est. Sesgo 0.3578 0.0056 0.3403 0.0043 0.3332 0.0098 0.3789 0.0124 0.3464 0.0174 0.3541 0.1137 0.3964 0.0759 0.3702 0.0568 0.4043 0.0851 0.3927 0.0893

95

RECM 0.3578 0.3403 0.3333 0.3791 0.3468 0.3719 0.4036 0.3745 0.4132 0.4027

Tabla 12-5: LSM con el Activo Ficticio como Instrumento, para Distintos ρ Utilizando ∑ para Simular (3) M 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

Media 7.0708 7.1431 7.1202 7.1317 7.0768 7.1016 7.1655 7.0937 7.1741 7.0937

Rho= 0.7 Des. est. Sesgo 0.3122 -0.0002 0.4421 0.0721 0.3695 0.0492 0.3306 0.0607 0.3469 0.0058 0.3218 0.0306 0.4197 0.0945 0.3606 0.0227 0.3665 0.1031 0.3338 0.0227

RECM 0.3122 0.4479 0.3728 0.3361 0.3469 0.3233 0.4302 0.3613 0.3807 0.3346

Media 7.1089 7.1075 7.1873 7.0967 7.0776 7.1102 7.1158 7.0560 7.1695 7.0975

Rho= 0.8 Des. est. Sesgo 0.3728 0.0379 0.3645 0.0365 0.4021 0.1163 0.3559 0.0257 0.3771 0.0066 0.3830 0.0392 0.3406 0.0448 0.3138 -0.0150 0.4209 0.0985 0.3584 0.0265

RECM 0.3747 0.3663 0.4186 0.3568 0.3772 0.3850 0.3435 0.3142 0.4323 0.3594

Media 7.1232 7.0939 7.0703 7.1295 7.0615 7.2349 7.0752 7.1018 7.1462 7.0883

Rho= 0.9 Des. est. Sesgo 0.3597 0.0522 0.3426 0.0229 0.3031 -0.0007 0.3919 0.0585 0.3456 -0.0095 0.4061 0.1639 0.3191 0.0042 0.2871 0.0308 0.3366 0.0752 0.3526 0.0173

96

RECM 0.3635 0.3434 0.3031 0.3962 0.3457 0.4379 0.3191 0.2887 0.3449 0.3530

13.-

Anexo III: Efecto de la varianza del activo correlacionado

En este apartado se realizan otras aplicaciones de los algoritmos expuestos en la sección octava de este trabajo. En particular, se aplican las dos variaciones del método para evaluar una opción de venta americana con precio de ejercicio de 40 y diez oportunidades de ejercicio durante el año de vida del derivado. El subyacente tiene en el momento inicial un precio de 36 , la tasa libre de riesgo es de 6% y la varianza verdadera del proceso es de 40% , el investigador no conoce dicha varianza y la estima a través de un

proceso de máxima verosimilitud. En esta ocasión tomamos un coeficiente de correlación dado de 0.5 para el activo ficticio y hacemos variar la desviación estándar del activo auxiliar simulado. Para ambas variaciones del algoritmo original, se realizan cinco experimentos con para cada uno de los cuatro valores de la desviación estándar del proceso ficticio estudiados. Cada experimento consta de cien repeticiones con distintos números de simulaciones. Las tablas presentadas a continuación exhiben la media, la desviación estándar, el sesgo y la raíz del error cuadrático medio de cada experimento.

97

Tabla 13-1: LSM con el Activo Ficticio como Regresor Utilizando ρ = 0.5 para Distintos Valores de σ 2 (1) M 10000 20000 30000 40000 50000 Promedio Promedio ABS

Media 7.0072 7.0731 6.8928 7.0421 6.8802 6.9791 6.9791

Varianza del correlacionado=0.2 Des. est. Sesgo 1.0335 -0.0638 0.9500 0.0021 0.9903 -0.1782 0.9622 -0.0289 1.0349 -0.1908 0.9942 -0.0919 0.9942 0.0928

RECM 1.0355 0.9500 1.0062 0.9626 1.0523 1.0013 1.0013

Media 6.9922 7.0504 6.9364 6.8928 7.0216 6.9787 6.9787

Varianza del correlacionado=0.5 Des. est. Sesgo 1.0995 -0.0788 0.9527 -0.0206 0.9001 -0.1346 0.8127 -0.1782 0.9878 -0.0494 0.9506 -0.0923 0.9506 0.0923

RECM 1.1023 0.9529 0.9101 0.8320 0.9890 0.9573 0.9573

Tabla 13-2: LSM con el Activo Ficticio como Regresor Utilizando ρ = 0.5 para Distintos Valores de σ 2 (2) M 10000 20000 30000 40000 50000 Promedio Promedio ABS

Media 7.2583 6.9920 6.9818 7.0086 7.1006 7.0683 7.0683

Varianza del correlacionado=0.8 Des. est. Sesgo 1.0377 0.1873 0.9900 -0.0790 0.8833 -0.0892 0.9987 -0.0624 0.8367 0.0296 0.9493 -0.0027 0.9493 0.0895

RECM 1.0545 0.9931 0.8878 1.0006 0.8372 0.9547 0.9547

Media 6.8408 7.0937 7.0254 6.9792 7.0370 6.9952 6.9952

Varianza del correlacionado=1 Des. est. Sesgo 1.1239 -0.2302 1.0413 0.0227 0.9670 -0.0456 0.9568 -0.0918 0.8923 -0.0340 0.9963 -0.0758 0.9963 0.0849

RECM 1.1472 1.0415 0.9681 0.9612 0.8929 1.0022 1.0022

98

Tabla 13-3: LSM con el Activo Ficticio como Instrumento Utilizando ρ = 0.5 para Distintos Valores de σ 2 (1) M 10000 20000 30000 40000 50000 Promedio Promedio ABS

Media 6.9896 7.1437 7.0332 7.0457 7.0785 7.0581 7.0581

Varianza del correlacionado=0.2 Des. est. Sesgo 0.9083 -0.0814 0.9400 0.0727 0.9989 -0.0378 0.9741 -0.0253 1.0931 0.0075 0.9829 -0.0129 0.9829 0.0449

RECM 0.9119 0.9428 0.9996 0.9744 1.0931 0.9844 0.9844

Media 7.1740 7.0152 6.9221 7.1966 7.0678 7.0751 7.0751

Varianza del correlacionado=0.5 Des. est. Sesgo 0.9928 0.1030 0.8583 -0.0558 1.0043 -0.1489 0.8903 0.1256 0.9254 -0.0032 0.9342 0.0041 0.9342 0.0873

RECM 0.9981 0.8601 1.0153 0.8991 0.9254 0.9396 0.9396

Tabla 13-4: LSM con el Activo Ficticio como Instrumento Utilizando ρ = 0.5 para Distintos Valores de σ 2 (2) M 10000 20000 30000 40000 50000 Promedio Promedio ABS

Media 7.1084 6.9387 7.1063 7.1754 7.0632 7.0784 7.0784

Varianza del correlacionado=0.8 Des. est. Sesgo 0.9966 0.0374 1.0331 -0.1323 1.0021 0.0353 0.9016 0.1044 0.9430 -0.0078 0.9753 0.0074 0.9753 0.0634

RECM 0.9973 1.0415 1.0027 0.9076 0.9430 0.9784 0.9784

Media 6.9671 7.1988 7.0399 6.9964 7.0288 7.0462 7.0462

Varianza del correlacionado=1 Des. est. Sesgo 0.9834 -0.1039 1.0532 0.1278 0.9148 -0.0311 1.0685 -0.0746 1.0340 -0.0422 1.0108 -0.0248 1.0108 0.0759

RECM 0.9889 1.0609 0.9153 1.0711 1.0349 1.0142 1.0142

99

Los gráficos presentados a continuación ilustran el comportamiento de la desviación estándar, el valor absoluto del sesgo promedio y el promedio del valor absoluto del sesgo para los distintos valores de la desviación estándar del activo subyacente estudiados 19 . Gráfico 13-1: Desviación estándar Promedio de los Distintos Métodos Desviación estándar promedio 1.0200

Desviación estándar

1.0000 0.9800 LSM tradicional

0.9600

Instrumentos 0.9400

Regresores

0.9200 0.9000 0.8800 0.2

0.5

0.6

0.8

1.0

Sigma 2

Gráfico 13-2: Valor Absoluto del Sesgo Promedio de los Distintos Métodos Valor absoluto del sesgo promedio

Valor absoluto del sesgo

0.1600 0.1400 0.1200 0.1000

LSM tradicional

0.0800

Instrumentos

0.0600

Regresores

0.0400 0.0200 0.0000 0.2

0.5

0.6

0.8

1.0

Sigma 2

19

Se ha incluido en el gráfico los valores correspondientes al caso en donde la varianza del correlacionado es 0.6. Dichos valores se encuentran en las tablas de la sección VIII.

100

Gráfico13-3 Promedio del Valor Absoluto del Sesgo de los Distintos Métodos Promedio del valor absoluto del sesgo

Valor absoluto del sesgo

0.2 0.1 0.1 0.1

LSM tradicional

0.1

Instrumentos

0.1

Regresores

0.0 0.0 0.0 0.2

0.5

0.6

0.8

1.0

Sigma 2

Al igual que en los resultados analizados en la sección octava, se observa una ganancia en materia de sesgo. Estos experimentos sugieren que la elección de la desviación estándar del activo ficticio no afecta significativamente las propiedades de las variaciones del LSM propuestas. Salvo que, al menos cuando el coeficiente de correlación es de 0.5, incluir el activo ficticio como instrumento parece ser una mejor alternativa que hacerlo como regresor.

101

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.