12.07.2015 Aufrufe

Multilevel Monte Carlo Methoden und deren ... - G-CSC Home

Multilevel Monte Carlo Methoden und deren ... - G-CSC Home

Multilevel Monte Carlo Methoden und deren ... - G-CSC Home

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Multilevel</strong> <strong>Monte</strong> <strong>Carlo</strong> <strong>Methoden</strong><strong>und</strong> <strong>deren</strong> AnwendungDiplomarbeiteingereicht beiProf. Dr. Peter E. KloedenFachbereich Informatik <strong>und</strong> MathematikInstitut für Computerorientierte MathematikJohann Wolfgang Goethe UniversitätFrankfurt am Mainvon:cand. math. Stefan Walter HeinzHollergewann 665817 EppsteinTel.: +49 (0)6198 7874Matrikelnummer: 2994392Studienrichtung: MathematikEppstein, 14. Dezember 2009


InhaltsverzeichnisAbbildungsverzeichnisDanksagungEhrenwörtliche ErklärungIIIIVIV1 Einleitung 12 Stochastische Numerik 32.1 Stochastische Differentialgleichungen . . . . . . . . . . . . . . . . . . . 32.2 <strong>Monte</strong> <strong>Carlo</strong> Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 <strong>Multilevel</strong> <strong>Monte</strong> <strong>Carlo</strong> Methode 83.1 Vorbereitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83.2 Komplexitätstheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123.3 Erweiterungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.3.1 Optimales M . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.3.2 Fehlerschätzung <strong>und</strong> Richardson Extrapolation . . . . . . . . . 223.3.3 Anzahl der Simulationen . . . . . . . . . . . . . . . . . . . . . . 264 Implementierung 274.1 Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274.2 Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294.2.1 Europäische Option . . . . . . . . . . . . . . . . . . . . . . . . . 294.2.2 Asiatische Option . . . . . . . . . . . . . . . . . . . . . . . . . . 315 Starke Konvergenzordnungen 325.1 Indikatorfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32I


5.1.1 Voraussetzungen . . . . . . . . . . . . . . . . . . . . . . . . . . 325.1.2 Sätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355.2 Stochastische Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . 446 MLMC für Greeks 506.1 Greeks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 506.2 Pfadweises Schätzen der Ableitung . . . . . . . . . . . . . . . . . . . . 516.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526.3.1 Black-Scholes Delta . . . . . . . . . . . . . . . . . . . . . . . . . 526.3.2 Pfadabhängiges Delta . . . . . . . . . . . . . . . . . . . . . . . . 536.3.3 Digitale Option <strong>und</strong> Gamma . . . . . . . . . . . . . . . . . . . . 536.4 Bedingungen für Erwartungstreue . . . . . . . . . . . . . . . . . . . . . 546.5 Approximation des Deltas . . . . . . . . . . . . . . . . . . . . . . . . . 576.6 Starke Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 597 Anwendungen des MLMC Algorithmus 637.1 Digitale Option . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 637.2 Delta einer europäischen Option . . . . . . . . . . . . . . . . . . . . . . 677.3 Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 697.3.1 Digitale Option . . . . . . . . . . . . . . . . . . . . . . . . . . . 697.3.2 Delta der Europäischen Option . . . . . . . . . . . . . . . . . . 708 Zusammenfassung <strong>und</strong> Ausblick 73A Programmierung mit VBA in Excel 74Literaturverzeichnis 89II


Abbildungsverzeichnis3.1 Optimales M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214.1 Ergebnisse Europäische Option . . . . . . . . . . . . . . . . . . . . . . 304.2 Ergebnisse Asiatische Option . . . . . . . . . . . . . . . . . . . . . . . 317.1 Ergebnisse Digitale Option . . . . . . . . . . . . . . . . . . . . . . . . . 707.2 Ergebnisse Delta mit einem Pfad . . . . . . . . . . . . . . . . . . . . . 717.3 Ergebnisse Delta mit zwei Pfaden . . . . . . . . . . . . . . . . . . . . . 72A.1 Input <strong>und</strong> Output in Excel . . . . . . . . . . . . . . . . . . . . . . . . . 74III


DanksagungSehr bedanken möchte ich mich an dieser Stelle bei Dr. Andreas Neuenkirch, der michbeispielhaft betreute <strong>und</strong> mir auf der Suche nach Lösungswegen immer Rede <strong>und</strong> Antwortstand. Auch möchte ich mich im Beson<strong>deren</strong> bei meinen Eltern bedanken, die michnicht nur finanziell, sondern auch moralisch sehr unterstützt <strong>und</strong> ausreichend Geduldfür mich aufgebracht haben. Weiterhin gilt mein Dank Patrick Grüning, der bezüglichdieses Themas ein ausgezeichneter Diskussionspartner war <strong>und</strong> ebenso wie Jörg Niesbeim Korrekturlesen eine große Hilfe darstellte.Ehrenwörtliche ErklärungIch versichere hiermit, dass ich die vorliegende Arbeit selbständig <strong>und</strong> nur unter Benutzungder angegebenen Literatur <strong>und</strong> Hilfsmittel angefertigt habe. Wörtlich übernommeneSätze <strong>und</strong> Satzteile sind als Zitate belegt, andere Anlehnungen hinsichtlichAussage <strong>und</strong> Umfang unter den Quellenangaben kenntlich gemacht. Die Arbeit hatin gleicher oder ähnlicher Form noch keiner Prüfungsbehörde vorgelegen <strong>und</strong> ist nichtveröffentlicht.Eppstein, 14. Dezember 2009IV


Kapitel 1EinleitungZentrales Thema dieser Arbeit ist die <strong>Multilevel</strong> <strong>Monte</strong> <strong>Carlo</strong> Methode (MLMC Methode).Ziel dieser Methode ist es den Erwartungswert einer stochastischen Differentialgleichung(SDGL) zu bestimmen, indem <strong>Monte</strong> <strong>Carlo</strong> Pfadsimulationen benutztwerden. Der wesentliche Unterschied zur <strong>Monte</strong> <strong>Carlo</strong> Methode (MC Methode) istdie Verwendung von Multi-Grid <strong>Methoden</strong>, mit <strong>deren</strong> Hilfe der Rechenaufwand beigleicher Genauigkeit deutlich reduziert werden kann. Die Genauigkeit wird durch denRMSE (Rooted Mean Square Error) des Schätzers beschrieben <strong>und</strong> soll durch ein ɛbeschränkt sein. Am Beispiel von Optionen wird später klar werden, dass falls dieOption einen Lipschitz Payoff besitzt <strong>und</strong> die Pfadsimulationen mittels des Euler-Diskretisierungsverfahrens bestimmt werden, der Rechenaufwand von O(ɛ −3 ) für dieMC Methode auf O(ɛ −2 (log ɛ) 2 ) bei der MLMC Methode reduziert wird.Um die späteren Rechnungen zu erklären, werden deshalb in Kapitel 2 die wichtigstenInformationen zu stochastischen Differentialgleichungen <strong>und</strong> der MC Methode gegeben.Kapitel 3 bildet den Kern der Arbeit. Hier wird zuerst die Wirkungsweise der MLMCMethode beschrieben <strong>und</strong> daraufhin im Komplexitätstheorem ein genauer Rahmen fürdie Anwendung der Methodik erstellt. In Abschnitt 3.3 wird die Wahl des ParametersM diskutiert sowie die Möglichkeit den Rechenaufwand mit Hilfe der RichardsonExtrapolation weiter zu senken. Das darauf folgende Kapitel beschreibt, auf welcheWeise der MLMC Algorithmus programmiert wird. Außerdem werden anhand einigerBeispiele von Optionen verschiedene Grafiken zu den Berechnungen des Algorithmuspräsentiert, die die theoretischen Ergebnisse bestätigen.In der zweiten Hälfte der Diplomarbeit wird die Anwendung der MLMC Methode aufdie Sensitivitäten der Optionen (Greeks) beschrieben, wobei das Schätzen des Deltas1


mittels der pfadweisen Ableitung im Vordergr<strong>und</strong> steht. Um das Komplexitätstheoremauf das neue Problem anwenden zu können, wird in Kapitel 5 die starke Konvergenzordnungdes Euler-Verfahrens für zwei Fälle bestimmt. Zum Einen für den Fall einesnichtstetigen Payoffs, der sich jedoch mit einer Indikatorfunktion beschreiben lässt <strong>und</strong>zum An<strong>deren</strong> für eine stochastische Differenzialgleichung mit stochastischen Koeffizienten.Kapitel 6 gibt daraufhin eine Einleitung zu Greeks <strong>und</strong> der Methode des pfadweisenSchätzens der Ableitung sowie Beispiele dazu. Nachdem die Bedingungen angegebenwurden, die für die Anwendung der Methodik erfüllt sein müssen, wird genauer erklärt,wie im Falle des Euler-Verfahrens das Delta bestimmt <strong>und</strong> die starke Konvergenzordnungdafür berechnet wird. In Kapitel 7 wird nun das Komplexitätstheorem auf den Fallder Digitalen Option angewandt. Mit diesem Ergebnis <strong>und</strong> den vorherigen Rechnungenlässt sich schließlich beschreiben, wie sich mit Hilfe der MLMC Methode das Delta einereuropäischen Option bestimmen lässt. Die praktischen Ergebnisse dazu befinden sichim darauffolgenden Abschnitt. Das letzte Kapitel fasst noch einmal die Ergebnisse derDiplomarbeit zusammen.Im Anhang befindet sich das VBA-Programm mit dessen Hilfe die numerischen Ergebnissein Excel berechnet wurden.2


Weise bei Schrittweite h n = t n − t n−1 für ∆W n = W tn − W tn−1 iterativ approximiertŜ n+1 = Ŝn + a(Ŝn, t n )h n + b(Ŝn, t n )∆W n (2.2)bezüglich einer Unterteilung 0 = t 0 < t 1 < ... < t n < ... < t N = T des Intervalls [0, T ],wobei N ∈ N die Anzahl der Diskretisierungsschritte bestimmt <strong>und</strong> die N(0, h)-verteilteZufallsvariable ∆W n durch √ hZ, Z ∼ N(0, 1) simuliert wird.Um den Fehler einer solchen Approximation zu bestimmen, werden für δ = max n h nzwei Arten von Fehlern definiert.Definition 2.1 Ein numerisches Verfahren konvergiert schwach mit Ordnung β > 0,falls für Schrittweite δ, numerische Approximation S n(δ) <strong>und</strong> alle Polynome P(max ∣ E P (S(δ)n ) ) − E (P (S tn )) ∣ ≤ KP,T δ βngilt, wobei die Konstante K P,T unabhängig von δ ist.Definition 2.2 Ein numerisches Verfahren konvergiert stark mit Ordnung α > 0, fallsfür Schrittweite δ, numerische Approximation S (δ)n <strong>und</strong> alle ganzzahligen p ≥ 1( ∣∣ ∣ )max E S n(δ) − S tn p 1 pngilt, wobei die Konstante K T unabhängig von δ ist.≤ K T δ αIst das Polynom P die Identität, sieht man leicht ein, dass aus starker Konvergenzschwache Konvergenz folgt (vgl. [13], S. 38). Im Fall des stochastischen Euler-Verfahrensmüssen noch Bedingungen an Drift <strong>und</strong> Volatilität gestellt werden, um die Konvergenzordnungenbestimmen zu können.Definition 2.3 Genügen a(S, t) <strong>und</strong> b(S, t) den folgenden Bedingungen, so ist die Existenz<strong>und</strong> Eindeutigkeit einer Lösung der SDGL (2.1) gesichert <strong>und</strong> das Euler-Verfahrenkonvergiert stark mit Ordnung 1 (mit Bedingungen 1.-3.) <strong>und</strong> schwach mit Ordnung 12(mit Bedingungen 1.-4.) (vgl. [14], Theorem 10.2.2 <strong>und</strong> Theorem 14.1.5):1. |a(x, t) + a(y, t)| + |b(x, t) + b(y, t)| ≤ K 1 |x − y| (Lipschitz-Stetigkeit),4


es das Ziel den Erwartungswert von f(S(t 0 ), S(t 1 ), ..., S(t N )) zu berechnen, <strong>und</strong> fallsdie Aktie nur vom Endwert abhängt, den Erwartungswert von f(S(t N )). Im Folgendensoll immer der eindimensionale Fall f(S(t N )) betrachtet werden. Genügt f(S) einerLipschitzbedingung, das heißt es existiert eine Konstante c, so dass|f(u) − f(v)| ≤ c |u − v| , für alle u, v ∈ R, (2.6)erhält man für die Approximation f(S(t N )) die gleiche schwache <strong>und</strong> starke Konvergenzordnungbezüglich des Euler-Verfahrens, wie bei einer Approximation von S(t N ).Für konstante Schrittweite h im Euler-Verfahren bildet sich der Schätzer Ŷ für E [f(S(T ))]aus dem arithmetischen Mittel der Auszahlungen f(ŜT/h) aus N unabhängigen Pfadsimulationen,alsoŶ = N −1N∑i=1f(Ŝ(i) T/h ).Als Maß für die Genauigkeit des Schätzers benutzt man den erwarteten Quadratmittelfehler(MSE für Mean Square Error) des Schätzers Ŷ . Dieser ist hier asymptotischvon der GrößeMSE ≈ c 1 N −1 + c 2 h 2 , (2.7)wobei c 1 <strong>und</strong> c 2 positive Konstanten sind. Dies ergibt sich aus folgender Rechnung fürden MSE von ŶMSE = E[|Ŷ − Y |2 ]( ) 2= E[Ŷ − Y ] + Var[ Ŷ − Y ]( ) 2= E[Ŷ − Y ] + Var[ Ŷ ], (2.8)da Y hier keine Zufallsvariable ist <strong>und</strong> für eine Zufallsvariable X gilt Var[X] = E[X 2 ]−(E[X]) 2 .Weiter rechnet man aufgr<strong>und</strong> der Unabhängigkeit der i Simulationen,Var[Ŷ ] = Var[N −1i=1N∑i=1]f(Ŝ(i) T/h )∑ N [ ]= N −2 Var f(Ŝ(i) T/h )≤ c 1 N −1 (2.9)6


[für c 1 = sup h∈(0,1] Var f(Ŝ(i) T/h]. ) Außerdem istE[Y − Ŷ ] ≈ c 2h,aufgr<strong>und</strong> der schwachen Konvergenz des Euler-Verfahrens (vgl. Definition 2.3).Ziel soll generell sein, einen MSE der Größenordnung O(ɛ 2 ) zu erhalten, damit der erwarteteFehler E[|Ŷ − Y |] von der Größenordnung O(ɛ) ist. Dafür muss in Gleichung(2.7) gelten, dass N = O(ɛ −2 ) <strong>und</strong> h = O(ɛ) ist, da die Rechenkosten C proportionalzu N/h sind (weil N mal simuliert wird <strong>und</strong> für einen simulierten Pfad 1/h Iterationennotwendig sind). Damit folgt also C = O(ɛ −3 ).7


Kapitel 3<strong>Multilevel</strong> <strong>Monte</strong> <strong>Carlo</strong> MethodeAufbauend auf dem Abschnitt über die <strong>Monte</strong> <strong>Carlo</strong> Methode soll in diesem Kapitelgezeigt werden, dass die <strong>Multilevel</strong> <strong>Monte</strong> <strong>Carlo</strong> Methode den Rechenaufwand C imFalle eines Lipschitzpayoffs unter Benutzung des Euler-Verfahrens bei einem erwartetenFehler der Größe O(ɛ) auf C = O(ɛ −2 (log ɛ) 2 ) senken kann (dieses <strong>und</strong> das folgende Kapitelbeziehen sich auf [6]). Der Name <strong>Multilevel</strong>“ <strong>Monte</strong> <strong>Carlo</strong> kommt daher, dass die”Pfade der Aktienkurse mit unterschiedlichen Schrittweiten simuliert werden. Im Komplexitätstheoremwird das Ergebnis dann verallgemeinert, indem der Rechenaufwandvon der starken <strong>und</strong> schwachen Konvergenzordnung des numerischen Approximationsverfahrenabhängig gemacht wird. Der letzte Abschnitt beschäftigt sich daraufhin mitmöglichen Verbesserungen des Algorithmus.3.1 VorbereitungenFür die MLMC Methode werden nun Pfadsimulationen mit unterschiedlichen Schrittweitenh l = M −l T <strong>und</strong> l = 0, 1, ..., L betrachtet (vgl. Kapitel 3.3.1 zur Bestimmung desoptimalen Wertes für M). Für einen gegebenen Brownschen Pfad W (t) sei P = f(S(T ))der Payoff einer Option zu diesem Pfad. Weiter seien Ŝl,M <strong>und</strong> ̂P die Approximationlvon S(T ) <strong>und</strong> P , die man durch das numerische Diskretisierungsverfahren (in dieserArbeit immer das Euler-Verfahren) mit Schrittweite h l erhält.Der Trick der MLMC Methode besteht darin, den erwarteten Payoff der Approximationauf dem feinsten Diskretisierungslevel mittels einer Teleskopsumme wie folgt umzu-8


schreibenE[ ̂P L ] = E[ ̂P 0 ] +L∑E[ ̂P l − ̂P l−1 ] (3.1)<strong>und</strong> danach die einzelnen Summanden auf der rechten Seite der Gleichung unabhängigvoneinander zu schätzen.Sei nun also Ŷ0 ein Schätzer für E[ ̂P 0 ], der mit N 0 Pfadsimulationen auf folgende Weisegeschätzt wirdŶ 0 = N −10l=1∑N 0i=1̂P (i)0 (3.2)<strong>und</strong>, gegeben l > 0, ist Ŷl ein Schätzer für E[ ̂P l − ̂P l−1 ]. Dieser wird ebenfalls durch dasarithmetische Mittel von N l Pfadsimulationen geschätztŶ l = N −1l∑N li=1(̂P(i)l−)(i) ̂Pl−1. (3.3)(i)(i) (i)Im folgenden werden die Ausdrücke ̂P 0 , bzw. ̂Pl− ̂Pl−1auch Sample genannt. Die Ŷlheißen einfache Schätzer <strong>und</strong> Ŷ ist der gemeinsame Schätzer für E[ ̂P L ]. Der gemeinsameSchätzer entspricht am Ende dem geschätzten Wert der Option <strong>und</strong> bestimmt sich durchŶ =L∑Ŷ l . (3.4)l=0Ein weiterer wesentlicher Punkt, um den Rechenaufwand gering zu halten, ist, dass beider Simulation eines SampleŝP(i)l−̂P(i)l−1zwar zwei unterschiedliche Approximationenberechnet werden, die beide aber von dem gleichen Brownschen Pfad stammen. Diesgeschieht durch das Simulieren des feineren Pfades mit dem Level l <strong>und</strong> nachfolgendemAufsummieren der M Brownschen Inkremente, um das Brownsche Inkrement zum Pfadmit Level l − 1 zu erhalten. Unter Betrachtung von (2.2) bedeutet dies, dass zuerst einPfad für das Level l mit T/h l Zufallsvariablen ∆W n,l = √ h l Z n , n = 1, .., T/h l simuliertwird, wobei die Z n unabhängig N(0, 1)-verteilt sind. Für das Level l − 1 fasst mansie danach zu T/(h l M) Zufallsvariablen zusammen für die ∆W m,l−1 = ∑ Mj=1√hl Z mj ,m = 1, ..., T/h l−1 gilt, aber die Z n vom Level l benutzt werden. Da Summen normalverteilterZufallsvariablen wieder normalverteilt sind <strong>und</strong> E[ ∑ Mj=1√hl Z mj ] = 0 sowieVar[ ∑ Mj=1√hl Z mj ] = h l∑ Mj=1 Var[Z mj] = h l M = h l−1 , besitzen die ∆W m,l−1 die richtigeVerteilung <strong>und</strong> sind für alle m unabhängig.9


Im folgenden Absatz soll für den Fall des Euler-Verfahrens gezeigt werden, dass dieMLMC Methode den gewünschten geringeren Rechenaufwand besitzt.Die Varianz eines Samples sei gegeben durch V l . Damit berechnet sich die Varianz deseinfachen Schätzers, aufgr<strong>und</strong> der Unabhängigkeit der Samples, alsVar[Ŷl] = Var[N −1l∑N li=1(̂P(i)l−̂P(i)l−1) ] ∑N l= N −2li=1[(i)Var ̂Pl−Für die Varianz des gemeinsamen Schätzers Ŷ = ∑ Ll=0 Ŷl gilt nun](i) ̂Pl−1= N −1lV l . (3.5)Var[Ŷ ] =L∑l=0N −1lV l . (3.6)Weiter lässt sich der RechenaufwandC = N 0 +L∑N l (M l + M l−1 ), (3.7)l=1der benötigt wird, um Ŷ zu berechnen, durch das Produkt aus der Anzahl der SamplesN l <strong>und</strong> der Anzahl der Diskretisierungsschritte des feinen <strong>und</strong> groben Pfades h −1l+h −1l−1 /M = M l + M l−1 für jedes Level bestimmen, da h l = M −l . Vernachlässigt man denkleineren Summanden M l−1 , so ist C ungefähr proportional zuL∑l=0N l h −1l.Um die Varianz zu minimieren, behandelt man nun die N l als stetige Variablen <strong>und</strong> hältden Rechenaufwand fest. Mit der Lagrange Methode zur Lösung eines Minimierungsproblemsmit Nebenbedingung (vgl. [15], S.124) erhält man für f(N) = ∑ Ll=0 N −1lV l mitN = (N 1 , ..., N L ) <strong>und</strong> g(N) = ∑ Ll=0 N lh −1l− K = 0, wobei K eine beliebige Konstanteist, folgende Lösung0!= df(N)dN+ λdg(N) dN= (−V 0 N −20 , ..., −V L N −2L) + λ(h−1 0 , ..., h −1L )⇒ N l = √ λV l h l , ∀λ, V. (3.8)10


N l muss also proportional zu √ V l h l gewählt werden, da λ konstant ist.Die bisherigen Rechnungen galten für alle Werte von L. Sei nun L >> 1 <strong>und</strong> manbetrachte das Verhalten von V l für l → ∞. Im Falle des Euler-Diskretisierungsverfahrens<strong>und</strong> den gegeben Bedingungen an a(S, t) <strong>und</strong> b(S, t) konvergiert die Approximationschwach mit Ordnung 1 <strong>und</strong> stark mit Ordnung 1/2. Für l → ∞ gilt also[∣ ]∣∣ <strong>und</strong> wegen E Ŝ l,M l − S(T ) ∣E[ ̂P l − P ] = O(h l ), (3.9)= O(h 1/2l) sowie Definition 2.2 für p = 2[ ∣∣∣ E Ŝ l,M l − S(T ) ∣ 2] = O(h l ). (3.10)Es folgt nun mit der Lipschitzeigenschaft (2.6), dassVar[ ̂P l − P ] = E[( ̂P l − P ) 2 ] −(E[ ̂P) 2l − P ] ≤ E[( ̂Pl − P ) 2 ] (2.6)≤ c 2 E[|Ŝl,M − S(T l )|2 ].Zusammen mit (3.10) ist also Var[ ̂P l − P ] = O(h l ).Weiter gilt mit der Eigenschaft Cov[X, Y ] = ρ √ Var[X]Var[Y ] ≤ √ Var[X]Var[Y ] fürzwei Zufallsvariablen X <strong>und</strong> Y sowie dem Korrelationsfaktor ρ ∈ [−1, 1], dassVar[ ̂P l − ̂P l−1 ] = Var[( ̂P l − P ) − ( ̂P l−1 − P )]= Var[ ̂P l − P ] − 2Cov[ ̂P l − P, ̂P l−1 − P ] + Var[ ̂P l−1 − P ]√≤ Var[ ̂P l − P ] + 2 Var[ ̂P l − P ]Var[ ̂P l−1 − P ] + Var[ ̂P l−1 − P ]( (Var[ ̂P1/2 ()l − P ])+ Var[ ̂P1/22l−1 − P ]). (3.11)Bin. Formel=Hieraus folgt, dass die Varianz V l eines Samples des einfachen Schätzers von der GrößenordnungO(h l ) ist <strong>und</strong> somit ist wegen (3.8) das optimale N l proportional zu h l . Setztman nun außerdem N l = O(ɛ −2 (L + 1)h l ) so folgt für die Varianz des gemeinsamenSchätzers aus (3.6) für eine Konstante K, dass Var[Ŷ ] = ∑ Ll=0 N −1lV l = ∑ Ll=0 (Kɛ−2 (L+1)h l ) −1 h l = O(ɛ 2 ).11


Wählt man nun L so, dassL =log ɛ−1log M+ O(1) für ɛ → ∞,dann isth L = T M −L = T M − (log ɛ −1log M +K )= T e − log M (log ɛ −1log M +K )= T ɛe − log MK = O(ɛ)<strong>und</strong> wegen (3.9) folgt für den Bias E[ ̂P L − P ] = O(ɛ). Da die Varianz des Schätzers<strong>und</strong> der quadrierte Bias jeweils von der Ordnung O(ɛ 2 ) sind, ist auch der MSE O(ɛ 2 ).Weiter folgt aus den bisherigen Rechnungen <strong>und</strong> der Definition von L der gewünschten∑Rechenaufwand der Größe C ≈ K L1 l=0 N ∑lh −1l= K L2 l=0 ɛ−2 (L+1)h l h −1l= O(ɛ −2 (L+1) 2 ) = O(ɛ −2 (log ɛ) 2 ) für Konstanten K 1 <strong>und</strong> K 2 , die unabhängig von ɛ sind.3.2 KomplexitätstheoremSatz 3.1 Sei P ein Funktional der Form P = f(S T ) <strong>und</strong> S Tdie Lösung der stochastischenDifferentialgleichung (2.1) für einen gegebenen Brownschen Pfad (W t ) t≥0<strong>und</strong> sei ̂P l die dazugehörige Approximation mit einer Diskretisierung der Schrittweiteh l = M −l T .Falls auf N l <strong>Monte</strong> <strong>Carlo</strong> Simulationen basierende, unabhängige Schätzer Ŷl existieren,sowie positive Konstanten α ≥ 1 2 , β, c 1, c 2 , c 3 , damiti) E[ ̂P l − P ] ≤ c 1 h α l⎧⎪⎨ii) E[Ŷl] =⎪⎩E[ ̂P 0 ], l = 0E[ ̂P l − ̂P l−1 ], l > 0iii)iv)Var[Ŷl] ≤ c 2 N −1lh β lC l , der Rechenaufwand von Ŷl, begrenzt ist durchC l ≤ c 3 N l h −1l,12


dann existiert eine positive Konstante c 4 , so dass es für jedes ɛ < e −1 die Werte L <strong>und</strong>N l gibt, für die der gemeinsame SchätzerŶ =L∑l=0Ŷ leinen Quadratmittelfehler mit Schranke[ (Ŷ ) ] 2MSE ≡ E − E[P ] < ɛ 2<strong>und</strong> einem Rechenaufwand C mit der Schranke⎧⎪⎨C ≤c 4 ɛ −2 , β > 1,c 4 ɛ −2 (log ɛ) 2 , β = 1,⎪⎩c 4 ɛ −2−(1−β)/α , 0 < β < 1besitzt.Beweis. Indem L wie folgt gewählt wirdL =⌈log( √ ⌉2c 1 T α ɛ −1 ), (3.12)α log Mwobei ⌈x⌉ der ganzen Zahl n entspricht, die der Ungleichung x ≤ n < x + 1 genügt(Aufr<strong>und</strong>en auf die nächstgrößere ganze Zahl). Aus den folgenden Umformungenlog( √ 2c 1 T α ɛ −1 )α log M≤ L < log(√ 2c 1 T α ɛ −1 )α log M+ 1(da M≥2⇒ M − log(√ 2c 1 T α ɛ −1 )α log M≥ M −L > M − log( √ )2c 1 T α ɛ −1 )+1α log M(Logarithmusgesetze⇒ e − log M log(√ 2c 1 T α ɛ −1 )α log M≥ M −L > e − log M log( √ )2c 1 T α ɛ −1 )+1α log Mα≥ 1 2⇒ e − log(√ 2c 1 T α ɛ −1) ≥ M −Lα > e −(log(√ 2c 1 T α ɛ −1 )+log M α )13


⇒ ( √ 2c 1 T α ɛ −1 ) −1 ≥ M −Lα > (√ 2c 1 T α ɛ −1 M α) −1⇒1 √2 ɛ ≥ c 1 T α M −Lα > 1 √2ɛM −αerhält man mit h L = M −L T die Ungleichung1√2ɛM −α < c 1 h α L ≤ 1 √2ɛ (3.13)<strong>und</strong> weiter gilt für L > 0 (die Umformung im Fall L = 0 geht analog <strong>und</strong> führt zumgleichen Ergebnis) mit den Eigenschaften i) <strong>und</strong> ii), dass(E[Ŷ ] − E[P ] ) 2=ii), T eleskopsumme=( [ L]∑E Ŷ l − E[P ]l=0i)= (c 1 h α L) 2(3.13)≤(E[̂P L ] − E[P ]12 ɛ2 ,so dass der Bias die gewünschte Schranke von 1 2 ɛ2 besitzt.) 2) 2Außerdem benötigt man nun die beiden AbschätzungenL∑l=0h −1l= 1 TL∑M l = 1 Tl=0L∑M L−l = M LTl=0L∑l=0M −l < h −1LMM − 1 , (3.14)wegen ∑ Ll=0 M −l < lim L→∞∑ Ll=0 M −l = MM−1da M ≥ 2 <strong>und</strong>h L(3.13)> M −1 ( ɛ√2c1) 1/α⇒( ) −1/α ɛh −1L< M √ . (3.15)2c1Diese beiden Ungleichungen kombiniert mit der Feststellung, dass ɛ −1/α ≤ ɛ −2 für α ≥ 1 2<strong>und</strong> ɛ < e −1 (es würde hier auch genügen ɛ < 1 zu wählen), führen zu folgendem14


ErgebnisL∑l=0h −1l< M ( ) 2−1/α ɛ√ < M 2 (√ ) 1/α2c1 ɛ −2 . (3.16)M − 1 2c1 M − 1Es folgt nun eine Fallunterscheidung für die möglichen Werte von β.a) Falls β = 1 setzt manN l = ⌈ 2ɛ −2 (L + 1)c 2 h l⌉,so dassVar[Ŷ ] =L∑l=0Var[Ŷl] iii)≤L∑l=0c 2 N −1lh l ≤L∑l=0c 2 h l(2ɛ −2 (L + 1)c 2 h l) −1≤12 ɛ2<strong>und</strong> somit genügt die Varianz des Schätzers der oberen Schranke 1 2 ɛ2 , so dass mit derSchranke für den Bias MSE < ɛ 2 gilt.Um den Rechenaufwand zu begrenzen, schätzt man zuerst L nach oben abL (3.12)≤so dass mit 1 < log ɛ −1 für ɛ < e −1 folgtlog ɛ−1α log M + log(√ 2c 1 T α )α log M + 1,()L + 1 ≤ log ɛ −1 1α log M + log(√ 2c 1 T α )α log M log ɛ + 2−1 log ɛ −1(() )≤ log ɛ −1 1α log M + max 0, log(√ 2c 1 T α )+ 2α log M= c 5 log ɛ −1 , (3.17)wobeic 5 =()1α log M + max 0, log(√ 2c 1 T α )+ 2.α log MAus der oberen Grenze für N lN l ≤ 2ɛ −2 (L + 1)c 2 h l + 1 (3.18)15


folgt für den Rechenaufwand von ŶC iv)≤L∑l=0c 3 N l h −1l3.18≤L∑l=0c 3(2ɛ −2 (L + 1)c 2 h l + 1 ) h −1l≤ c 3(2ɛ −2 (L + 1) 2 c 2 +Weiter wird C durch Einsetzen der Schranke für L+1 <strong>und</strong> der Ungleichung (3.16) sowieder Tatsache 1 < log ɛ −1 für ɛ < e −1 , wie folgt abgeschätztmitC ≤ c 3(2ɛ −2 (c 5 log ɛ −1 ) 2 c 2 +L∑l=0(3.16)≤ c 3(2ɛ −2 (c 5 log ɛ −1 ) 2 c 2 + M 2≤ ɛ −2 (log ɛ) 2 (2c 2 c 3 c 2 5 + c 3M 2h −1l)(√2c1) 1/αɛ−2)M − 1(√ ) 1/α2c1 (log ɛ)−2)M − 1= c 4 ɛ −2 (log ɛ) 2 (3.19)c 4 = 2c 2 c 3 c 2 5 + c 3M 2M − 1so dass die Schranken für MSE <strong>und</strong> C gezeigt wurden.(√2c1) 1/α,Die weiteren Fälle werden nun in ähnlicher Weise bewiesen.L∑l=0h −1l).b) Für β > 1 setzt man⌈N l = 2ɛ −2 c 2 T ( (β−1)/2 1 − M −(β−1)/2) ⌉−1 (β+1)/2 hl,<strong>und</strong> für die Varianz des Gesamtschätzers folgtVar[Ŷ ] =L∑l=0Var[Ŷl]iii)≤≤≤L∑l=0l=0c 2 N −1lh β lL∑ (c 2 h β l2ɛ −2 c 2 T ( (β−1)/2 1 − M −(β−1)/2) −1 (β+1)/2 hl12 ɛ2 T −(β−1)/2 ( 1 − M −(β−1)/2) L ∑l=0) −1h (β−1)/2l. (3.20)Um die Summe in diesem Term abzuschätzen, benutzet man zuerst die Definition h l =16


M −l T <strong>und</strong> danach wie schon in a) den Grenzwert der geometrischen Reihe. Damit folgtL∑l=0∑ L(l= T ) (β−1)/2 M−(β−1)/2 lh (β−1)/2l=0(∑ ∞(< T ) )(β−1)/2 M−(β−1)/2 ll=0M≥2, β>1= T (β−1)/2 ( 1 − M −(β−1)/2) −1(3.21)<strong>und</strong> durch Einsetzen von (3.21) in (3.20) errechnet sich wieder die obere Schranke von12 ɛ2 für die Varianz des Schätzers, woraufhin die gewünschte Schranke für den MSEfolgt.Indem nun die obere Schranke von N l2ɛ −2 c 2 T (β−1)/2 ( 1 − M −(β−1)/2) −1h(β+1)/2l+ 1in iv) eingesetzt wird <strong>und</strong> die Rechenkosten aufsummiert werden, erhält manC≤L∑l=0≤ c 3((c 3 h −1l2ɛ −2 c 2 T ( (β−1)/2 1 − M −(β−1)/2) )−1 (β+1)/2 hl+ 12ɛ −2 c 2 T (β−1)/2 ( 1 − M −(β−1)/2) −1L ∑l=0h (β−1)/2l+L∑l=0h −1l).Mit den Ungleichungen (3.16) <strong>und</strong> (3.21) folgtC ≤ c 3(2ɛ −2 c 2(T (β−1)/2 ( 1 − M −(β−1)/2) −1 ) 2+M 2≤ ɛ −2 c 3(2c 2 T β−1 ( 1 − M −(β−1)/2) −2+M 2= c 4 ɛ −2 ,M − 1M − 1(√ ) ) 1/α2c1(√2c1) 1/αɛ−2)wobeic 4 = c 3(2c 2 T β−1 ( 1 − M −(β−1)/2) −2+M 2M − 1(√2c1) 1/α).17


c) Für β < 1 setze⌈N l =2ɛ −2 c 2 h −(1−β)/2Ldann gilt für die Varianz des Schätzers Ŷ( ) ⌉1 − M−(1−β)/2 −1 (β+1)/2 hl,Var[Ŷ ] =L∑l=0Var[Ŷl]iii)≤≤≤L∑l=0l=0c 2 N −1lh β lL∑ (c 2 h β l12 ɛ2 h (1−β)/2L2ɛ −2 c 2 h −(1−β)/2L(1 − M−(1−β)/2 ) L ∑( ) )1 − M−(1−β)/2 −1 −1(β+1)/2 hll=0h −(1−β)/2l.WegenL∑l=0h −(1−β)/2l= h −(1−β)/2Lh l =M −l T= h −(1−β)/2L< h −(1−β)/2LM≥2, β>1L∑ (l=0h −(1−β)/2lL∑ ( ) M−(1−β)/2 ll=0(limL→∞h (1−β)/2L)L∑ ( ) )M−(1−β)/2 ll=0= h −(1−β)/2 ( ) 1 − M−(1−β)/2 −1L(3.22)erhält man erneut, dass V [Ŷ ] ≤ 1 2 ɛ2 <strong>und</strong> deshalb MSE < ɛ 2 .Weiter wird nun wieder die obere Schranke von N lN l ≤ 2ɛ −2 c 2 h −(1−β)/2 ( )L 1 − M−(1−β)/2 −1 (β+1)/2 hl+ 1benutzt, um den Rechenaufwand zusammen mit iv), der Definition von N l <strong>und</strong> derUngleichung (3.22) wie folgt abzuschätzenCiv)≤L∑l=0≤ c 3((c 3 h −1l2ɛ −2 c 2 h −(1−β)/2L2ɛ −2 c 2 h −(1−β)/2L( ) )1 − M−(1−β)/2 −1 (β+1)/2 hl+ 1(1 − M−(1−β)/2 ) −1 L ∑l=0h −(1−β)/2l+L∑l=0h −1l)18


≤ c 3(2ɛ −2 c 2 h −(1−β)L(1 − M−(1−β)/2 ) −2+L∑Aufgr<strong>und</strong> des ersten Teils von Ungleichung (3.13) gilt c 1 h α L > √ 12ɛM −α . Werden beideSeiten durch c 1 dividiert <strong>und</strong> mit −(1−β) < 0 potenziert, so giltαl=0h −1lh −(1−β)L 1 mehr Berechnungen für die gröberen LevelO(h (β−1)/2l(also für größere h l bzw. kleinere l) aufgewendet werden müssen, denn in diesem Fallist h (β−1)/2l> h (β−1)/2l+1. Umgekehrt ist es im Fall β < 1, für den mehr Berechnungenin den feineren Leveln durchgeführt werden müssen. Ist β = 1 so verteilen sich dieRechenkosten gleichmäßig über die Level.□19


Wendet man das Theorem bezüglich anderer Aufgabenstellungen an, so dürfte es wenigerdie Schwierigkeit sein den richtigen Parameter α für Bedingung i) zu finden.Ähnliches gilt für die Bedingung ii) <strong>und</strong> iv). Problematischer ist es jedoch den richtigenExponenten β herzuleiten oder bessere Schätzer für größere Betas zu finden.3.3 Erweiterungen3.3.1 Optimales MEine wichtige Frage für die MLMC Methode ist die Wahl des Paramaters M. Im Folgendensoll gezeigt werden, dass für das Euler-Verfahren unter Gültigkeit der Lipschitzschranke(2.6) für die Payofffunktion, M = 4 gute Ergebnisse bringt.Aus Kapitel 3.1 ist bekannt, dass in diesem Fall asymptotisch die Beziehung Var[ ̂P l −P ] ≈ c 0 h l für eine positive Konstante c 0 gilt. Damit erhält man für den Korrelationskoeffizientenρ ∈ [−1, 1]Var[ ̂P l − ̂P)l−1 ] = Var[(̂Pl − P= Var[ ̂P l − P ] − 2ρ≈h l =h l−1 M −1( )− ̂Pl−1 − P ]√c 0 h l + c 0 h l−1 − 2ρ √ c 0 h l√c0 h l−1= c 0 h l + c 0 h l M − 2ρ √ √c 0 h l c0 h l M= c 0 h l(1 − 2ρ √ )M + M .Var[ ̂P l − P ]Var[ ̂P l−1 − P ] + Var[ ̂P l−1 − P ]Durch Einsetzen des größten <strong>und</strong> kleinsten Wertes für ρ, also ρ = 1 bzw. ρ = −1, erhältman mit der binomischen Formel die Ungleichung(√ ) 2M − 1 c0 h l ≤ Var[ ̂P l − ̂P(√ ) 2l−1 ] ≤ M + 1 c0 h l . (3.23)Die obere Schranke entspricht also der Varianz des Samples bei perfekter positiverKorrelation <strong>und</strong> die untere Schranke der Varianz des Samples bei perfekter negativerKorrelation der beiden Schätzer.Angenommen, der Wert für Var[ ̂P l − ̂P l−1 ] ist durch das arithmetische Mittel der beidenSchranken aus (3.23) gegeben, dann ergibt sich nach Ausmultiplizieren der quadrierten20


TermeV l = Var[ ̂P l − ̂P l−1 ] ≈ 1 ( ( √ ) 2 (√ ) ) 2M − 1 c0 h l + M + 1 c0 h l = (M − 1)c 0 h l . (3.24)2Wegen Var[Ŷl] = N −1lV l <strong>und</strong> der Eigenschaft iii) des Komplexitätstheorems Var[Ŷl] ≤c 2 N −1lh l sowie (3.24) gilt c 2 ≈ (M − 1)c 0 <strong>und</strong> deshalb ist mit der Definition von N l imFall β = 1N l ≈ 2ɛ −2 (L + 1)(M − 1)c 0 h l .Der Rechenaufwand für Ŷl ist wegen (3.7) proportional zu N l (h −1l+ h −1l−1) <strong>und</strong> dafür giltmit den bisherigen RechnungenN l (h −1l+ h −1l−1 ) M −1 =h l /h l−1= Nl h −1l(1 + M −1 ) ≈ 2ɛ −2 (L + 1)(M − M −1 )c 0 .Durch Summieren über alle L + 1 Level erhält man daraus für den RechenaufwandC ≈L∑l=0N l (h −1l+ h −1l−1 ) ≈ 2ɛ−2 (L + 1) 2 (M − M −1 )c 0 .Abbildung 3.1: Optimales M21


Wird L =ln ɛ−1ln Mproportional zuwobei+ O(1) für ɛ → 0 gewählt, ist der Rechenaufwand somit ungefähr2ɛ −2 (ln ɛ) −2 f(M),f(M) = M − M −1(ln M) 2 .Anhand Abbildung 3.1 erkennt man, dass das Minimum in der Nähe von M = 7 liegt<strong>und</strong> der Funktionswert an dieser Stelle ungefähr halb so niedrig ist, wie für M = 2.Für die in Kapitel 4.2 präsentierten Ergebnisse wurde M = 4 verwendet, da f(4) nichtwesentlich größer ist als f(7), aber dadurch die Anzahl der zu simulierenden LevelL erhöht wird, so dass die Eigenschaften des Algorithmus besser verdeutlicht werdenkönnen. Im nächsten Abschnitt wird gezeigt, dass die Anzahl der Level mit steigendemM sinkt (vgl. Konvergenzbedingung (3.26)), was für die meisten Ergebnisse zu einemAbbruch des Algorithmus bei L = 2 geführt hätte.3.3.2 Fehlerschätzung <strong>und</strong> Richardson ExtrapolationBei der MLMC Methode kann der Schätzer des Korrekturterms E[ ̂P l − ̂P l−1 ] zu jedemLevel Aufschluss darüber geben, wie groß der verbleibende Fehler (Bias) ist. Bezogen aufdas Euler-Verfahren mit α = 1 <strong>und</strong> der Lipschitzschranke (2.6) für die Payofffunktionfolgt aus der Eigenschaft i) des Komplexitätstheorems, dass für eine Konstante c 1 <strong>und</strong>l → ∞E[P − ̂P l ] ≈ c 1 h l<strong>und</strong> deshalb istE[ ̂P l − ̂P l−1 ] = E[P − ̂P l−1 ] − E[P − ̂P l ]≈ c 1 h l−1 − c 1 h lh l−1 =h l M= (M − 1)c 1 h l≈ (M − 1)E[P − ̂P l ]. (3.25)Dieses Ergebnis können wir benutzen, um den verbleibenden Bias abzuschätzen. DerBias soll im Betrag die obere Schranke√ ɛ2besitzen, damit (Bias) 2 < ɛ2 . Man folgert222


nun durch Multiplizieren der ersten Zeile mit dem Faktor M − 1, dass∣∣E[P − ̂P l ] ∣ < √ 1 ɛ 2 ∣⇒ ∣E[P − ̂P ∣l ](M − 1) ∣ ≈ ∣E[ ̂P l − ̂P l−1 ] ∣ < √ 1 (M − 1)ɛ. 2∣Für die MLMC Methode bedeutet dies, dass L so lange erhöht wird, bis ∣ŶL∣ < √ 12(M −1)ɛ.Für die späteren Ergebnisse wird die genauere Bedingung∣ ∣ ∣ ∣}max{M −1 ∣∣ ∣∣ ∣∣ ∣∣ Ŷ L−1 , Ŷ L < √ 1 (M − 1)ɛ (3.26)2benutzt.Auf diese Weise wird sichergestellt, dass der verbleibende Fehler der letzten beiden∣Level von der gewünschten Größe ist. ∣ wurde mit dem Faktor M normiert, da∣ŶL−1Ŷ L ≈ (M − 1)E[P − ̂P L ] <strong>und</strong> ŶL−1 ≈ (M − 1)E[P − ̂P L−1 ]. Subtrahiert man die beidenTerme <strong>und</strong> formt sie um, erhält manŶ L − ŶL−1 ≈ (M − 1)E[P − ̂P L ] − (M − 1)E[P − ̂P L−1 ]⇒ ŶL−1 ≈ ŶL + (M − 1)E[ ̂P L − ̂P L−1 ]≈ ŶL + ŶL(M − 1)= MŶL.Im nächsten Abschnitt soll gezeigt werden, wie mit Hilfe der Richardson Extrapolationweiterer Rechenaufwand gespart werden kann. Die Richardson Extrapolation istbesonders hilfreich, wenn man mittels eines Diskretisierungsverfahrens zwei NäherungenA(h 1 ) <strong>und</strong> A(h 2 ) zu den unterschiedlichen Schrittweiten h 1 <strong>und</strong> h 2 erhalten hat.Weiter soll noch gelten, dass h 2 = h 1. Ist A die exakte Lösung des Problems <strong>und</strong> p dieMOrdnung des Diskretisierungsverfahrens, dann lässt sich die Lösung mittels einer Taylorreiheauf zwei verschiedene Arten ausdrücken, wobei K 1 , K 2 , ... bekannte KonstantensindI : A = A(h 1 ) + K 1 h p 1 + K 2 h p+11 + ... = A(h 1 ) + K 1 h p 1 + O(h p+11 )II : A = A(h 2 ) + K 1 h p 2 + K 2 h p+12 + ... = A(h 2 ) + K 1 h p 2 + O(h p+12 )23


= A( h 1M ) + K 1(h1M) p+ O ( )h p+11 .Wird II mit M p multipliziert <strong>und</strong> I davon abgezogen, erhält man(M p − 1) A = M p A( h ( ) p1M ) + M p h1K 1 − A(h 1 ) − K 1 h p 1 + O(h p+11 )MDurch die Setzung⇒ A = M p A( h 1) − A(h M 1)+ O(h p+1M p 1 ).− 1B(h 1 ) = M p A( h 1M ) − A(h 1)M p − 1ist B(h 1 ) eine Näherung für A der Ordnung p + 1, daA = B(h 1 ) + O(h p+11 ).Auf die MLMC Methode bezogen würde dies bedeuten, dass der einfache SchätzerŶ l = E[ ̂P l − ̂P l−1 ], der einen Fehler der Größenordnung O(h l ) (also p = 1) besitzt, auffolgende Weise verbessert werden kannfür l = 0, 1, .., L <strong>und</strong> Ŷ−1 = 0.Y l = MŶl − Ŷl−1 ,M − 1Der Fehler von Y l ist somit nur noch von der Größe O(h 2 l ).Indem der gemeinsame Schätzer Ŷ = ∑ Ll=0 Ŷl durch den folgenden Ausdruck ersetztwird(∑ L) { (Ŷ l + (M − 1) −1 MŶ L =1 − 1 ) ( L) }∑Ŷ l + M −1 Ŷ LM − 1 Ml=0l=0{( ) [(ML∑=Ŷ 0 + Ŷ l − 1 L) ]}∑Ŷ l −M − 1MŶL==MM − 1MM − 1l=1l=0{ ( L) (∑Ŷ 0 + Ŷ l − 1 L)}∑Ŷ l−1Ml=1l=1{L∑) }Ŷ 0 +(Ŷl − M −1 Ŷ l−1l=124


=L∑Y l (3.27)l=0ist auch der Fehler des gemeinsamen Schätzers von der Größe O(h 2 l ) aufgr<strong>und</strong> der letztenZeile dieser Umformung.Eine andere Begründung für das Ändern des gemeinsamen Schätzers wird aus folgenderRechnung klar:E[P ] = E[ ̂P L ] + E[P − ̂P L ](3.25)L∑ (≈ E[ ̂P l − ̂P)l−1 ] + (M − 1) −1 E[ ̂P L − ̂P L−1 ]=l=0(∑ L)Ŷ l + (M − 1) −1 Ŷ L .l=0Der somit reduzierte Fehler hat Auswirkungen auf die Konvergenzbedingung, die im RichardsonFalle abgeschwächt wird, so dass man schneller den gewünschten Bias erreicht.Da in diesem Falle für eine Konstante c 1 <strong>und</strong> l → ∞E[P − ̂P l ] ≈ c 1 h 2 lgilt, folgt mit analoger Rechnung zur Konvergenzbedingung ohne Richardson Extrapolation<strong>und</strong>E[ ̂P l − ̂P l−1 ] = E[P − ̂P l−1 ] − E[P − ̂P l ]≈ c 1 h 2 l−1 − c 1 h 2 lh l−1 =h l M= (M 2 − 1)c 1 h 2 l≈ (M 2 − 1)E[P − ̂P l ]. (3.28)Ŷ L − ŶL−1 ≈ (M 2 − 1)E[P − ̂P L ] − (M 2 − 1)E[P − ̂P L−1 ]⇒ ŶL−1 ≈ ŶL + (M 2 − 1)E[ ̂P L − ̂P L−1 ]≈ ŶL + ŶL(M 2 − 1)= M 2 Ŷ L .25


Diese beiden Ergebnisse werden wieder dazu benutzt, um den Bias durchabzuschätzen∣∣ ∣∣∣E[P − Ŷ ] 1 < √2 ɛ∣⇒ ∣E[P − ̂P L − (M − 1) −1 Ŷ L ](M 2 − 1) ∣ < √ 1 (M 2 − 1)ɛ2 ⇒∣ E[ ̂P L − ̂P L−1 ] − M 2 − 1M − 1 ŶL∣ < √ 1 (M 2 − 1)ɛ 2 ⇒∣ E[ ̂P L − ̂P L−1 ] − M 2 − 1M − 1 ŶL∣ < √ 1 (M 2 − 1)ɛ 2 ⇒ ∣ − M 2 − 1∣ŶL (M − 1)M 2 ŶL−1∣ < √ 1 (M 2 − 1)ɛ.2ɛ √2WegenM 2 −1= (M−1)(M+1) = 1 + 1 ≈ 1 kann man auch folgende Konvergenzbedingungbenutzen ∣ ∣∣∣(M−1)M 2 (M−1)M 2 M M 2 MŶ L − 1 ŶL−1∣M ∣ < √ 1 (M 2 − 1)ɛ. (3.29)23.3.3 Anzahl der SimulationenMit der Konvergenzbedingung aus dem vorherigen Teil wurde sichergestellt, dass derquadrierte Bias kleiner als 1 2 ɛ2 ist. Die gleiche Schranke, die wir für die Varianz desgemeinsamen Schätzers benötigen, steuert man über die Anzahl der Samples. Wähltman⌈ ( L)⌉N l = 2ɛ −2√ ∑ √V l h l Vl /h l , (3.30)wird für die drei Fälle von β die Schranke für die Varianz erreicht.l=026


Kapitel 4ImplementierungIn diesem Kapitel soll dargestellt werden, auf welche Weise der MLMC Algorithmusimplementiert wird <strong>und</strong> auf welche Feinheiten bei der Programmierung zu achten sind.Schließlich wird er noch zu Testzwecken auf eine europäische <strong>und</strong> asiatische Optionangewandt, um die theoretischen Ergebnisse zu verdeutlichen.4.1 AlgorithmusDer MLMC-Alogrithumus wird nun auf folgende Weise implementiert (Quellcode inAnhang A):1. starte mit L = 02. schätze V L , wobei zu Beginn N L = 10 4 Samples genommen werden3. berechne das optimale N l , l = 0, ..., L mit Gleichung (3.30)4. simuliere weitere Samples für das jeweilige Level, falls N l größer geworden ist5. falls L ≥ 2, benutze den Konvergenztest in Gleichung (3.26) (ohne RichardsonExtrapolation) oder (3.29) (mit Richardson Extrapolation) <strong>und</strong> brich ab, falls dieBedingung erfüllt ist6. falls L < 2 oder kein Abbruch, setze L := L + 1 <strong>und</strong> gehe zu Schritt 2.Zu Schritt 4 ist noch zu bemerken, dass, falls ein N l aus Schritt 3 im Vergleich zum vorherigenDurchlauf größer geworden ist, der neue Wert im weiteren Verlauf die Anzahlder Samples zum Level l bestimmt <strong>und</strong> dadurch auch das V l erneut berechnet werden27


muss.Außerdem sollte klar geworden sein, dass der MLMC Algorithmus heuristisch ist. Da dieKonstanten c 1 <strong>und</strong> c 2 erst im Verlaufe des Algorithmus geschätzt werden, gibt es keineGarantie für einen MSE der Größenordnung O(ɛ 2 ). Dies wird daran deutlich, dass durchdie Wahl des N l in Gleichung (3.30) zwar die Varianzschranke erreicht wird, jedoch dieKonvergenzbedingungen nicht sicherstellen, dass der Bias die geforderte Schranke unterschreitet,was insbesondere an der Schätzung E[P − ̂P l ] ≈ c 1 h l liegt. Die Konstantec 3 folgt aus Gleichung (3.7) für den Rechenaufwand.Für die folgenden Beispiele soll die MLMC Methode unter anderem mit der <strong>Monte</strong><strong>Carlo</strong> Methode (MC) verglichen werden. Während bei MLMC der Rechenaufwanddurch Gleichung (3.7) bestimmt wird, geschieht dies bei MC durchC ∗ =L∑Nl ∗ M l ,l=0wobei N ∗ l= 2ɛ −2 Var[ ̂P l ], damit für die Varianz des Schätzers gilt[ ∑L ∑Var[ ̂PNll=0] = Var ∑ Ll=0 N li=1 ̂P il]==∑ L ∑ Nl il=0 i=1Var[ ̂P l ]( ∑ Ll=0 N l) 2∑ Ll=0 N lVar[ ̂P l ]( ∑ Ll=0 N l) 2= 1 2 ɛ2 ∑ Ll=0 N 2 l( ∑ Ll=0 N l) 2≤ 1 2 ɛ2 , (4.1)∑ Ll=0 N 2 lda( ∑ ≤ 1.Ll=0 N l) 2Wie bei der MLMC Methodik werden auch hier die Samples zu unterschiedlichen Levelnbzw. unterschiedlicher Schrittweite des Euler-Verfahrens simuliert. Der Gesamtschätzerbestimmt sich daraufhin als mit der Anzahl der Samples gewichteter Durchschnitt. DieKonvergenzbedingungen bleiben die gleichen, um Vergleichbarkeit zu garantieren.Bei Anwendung der Richardson Extrapolation geht man für beide <strong>Methoden</strong> analog28


vor. Die einzigen Unterschiede sind die Wahl des L, da die für Richardson erstellteKonvergenzbedingung (3.29) gewählt wird <strong>und</strong> die Bestimmung des Gesamtschätzers(vgl. Gleichung (3.27)).4.2 ErgebnisseUnter Benutzung einer geometrisch Brownschen BewegungdS = rSdt + σSdW, 0 < t < 1, (4.2)sollen in diesem Abschnitt vier unterschiedliche Optionen bewertet werden. Die Inputparameterwurden wie folgt gesetzt: S(0) = 1, r = 0.05 <strong>und</strong> σ = 0.2.4.2.1 Europäische OptionIn der folgenden Grafik werden einige Ergebnisse der MLMC Methode präsentiert, nachAnwendung auf eine Europäische Call Option, <strong>deren</strong> diskontierter Payoff durchP = exp(−0.05) max(S(1) − 1, 0)beschrieben wird. Der exakte Wert dieser Option beträgt ger<strong>und</strong>et 0.1045 (vgl. [10],Gleichung (13.20)). Das gleiche Ergebnis brachte auch der MLMC-Algorithmus bei einerGenauigkeit von ɛ = 0.0001. Für ɛ = 0.001 ergab der Algorithmus einen Preis von0.1039. Im oberen linken Diagramm von Abbildung 4.1 ist die Varianz des Logarithmuszur Basis M der einzelnen Payoffs ̂P l <strong>und</strong> der Samples ̂P l − ̂P l−1 gegenüber dem Levell gezeichnet. Da die Steigung des Graphen der Samples ungefähr −1 beträgt, bedeutetdies, dass die Varianz der Samples proportional zu M −l = h l ist, wie in iii) des Komplexitätstheoremsvorausgesetzt. Für das Level l = 3 ist die Varianz des Samples fast800 mal kleiner, als die Varianz des Payoffs zu diesem Level, den man unter Benutzungder MC Methode erhalten hätte.Die obere linke Graphik zeigt die Erwartungswerte des Payoffs, der Samples <strong>und</strong> desTerms Ŷl − Ŷl−1/M, der für die MLMC Methode mit Richardson Extrapolation steht(vgl. (3.27), Summand der vorletzten Zeile). Auch hier ist, wie vermutet, die Steigungder Samples −1, dies impliziert eine O(h) Konvergenz von E[ ̂P l − ̂P l−1 ]. Außerdem wirddeutlich, dass die Erwartungswerte im Falle der Richardson Extrapolation sogar nochschneller schwach konvergieren.29


Abbildung 4.1: Ergebnisse Europäische OptionDas untere linke Diagramm beschreibt, wie sich die Anzahl der Samples zu den Levelnbei festem ɛ verhält. Es wird deutlich, dass bei steigendem l weniger Samples berechnetwerden müssen <strong>und</strong> für fallendes ɛ, also höherer Genauigkeit, mehr Samples.In der unteren rechten Graphik werden die MLMC <strong>und</strong> die MC Methode jeweils mit <strong>und</strong>ohne Richardson Extrapolation verglichen. Es wurde der Rechenaufwand C multipliziertmit ɛ 2 gegenüber ɛ geplottet, da man aufgr<strong>und</strong> des Komplexitätstheorems erwartet,dass Cɛ 2 ≤ c 4 (log ɛ) 2 , also eine leichte Abhängigkeit von ɛ besteht. Der MLMC-Graphist demnach für ɛ < 1 fallend in ɛ, wobei zu beachten ist, dass der Knick durch denWechsel von L = 3 auf L = 2 entstanden ist. Weiter sieht man, dass in diesem Fall dieMLMC Methode deutlich schneller ist als die MC Methode (um den Faktor 10) <strong>und</strong>dass auch in beiden Fällen die Richardson Extrapolation eine Verbesserung bringt.Der RMSE/ɛ lag in diesen Rechnungen für die MLMC Methode zwischen 0.59−1.03 <strong>und</strong>) 2im Fall der Richardson Extrapolation zwischen 0.59 − 0.71. Da der Teil(E[Ŷ − Y ]aus Gleichung (2.8) nicht bestimmt werden kann, wird er augr<strong>und</strong> von (3.25) durch(E[ŶL]/(M−1)) 2 geschätzt <strong>und</strong> im Fall der Richardson Extrapolation durch (E[ŶL]/(M 2 −1)) 2 wegen (3.28).30


4.2.2 Asiatische OptionIn Abbildung 4.2 befinden sich die Ergebnisse im Falle des diskontierten Payoffs einerAsiatischen Option:P = exp(−0.05) max( ¯S − 1, 0),wobei ¯S = ∫ 1S(t)dt numerisch durch ¯S 0 t = ∑ N l 1n=1(Ŝn+Ŝn−1)h 2 l approximiert wird. Derexakte Wert der Option liegt ger<strong>und</strong>et bei 0.0576 (vlg. [10], Abschnitt 22.10) <strong>und</strong> derAlgorithmus ergab bei einer Genauigkeit von ɛ = 0.0001 den Optionspreis von 0.0577.Abbildung 4.2: Ergebnisse Asiatische OptionDie Diagramme ähneln sehr dem Beispiel der Europäischen Option. In den oberen beidenGraphiken fällt auf, dass die Varianz <strong>und</strong> der Erwartungswert der Samples mehr alsnur O(h) Konvergenz zu besitzen scheint, da die Steigung im ersten Fall −1.67 <strong>und</strong> imzweiten −1.62 beträgt. Dies könnte auch der Gr<strong>und</strong> dafür sein, dass durch RichardsonExtrapolation keine großen Vorteile erreicht werden können (siehe Diagramm rechtsoben <strong>und</strong> rechts unten). Der RMSE/ɛ lag zwischen 0.58 − 0.73 im Falle der MLMCMethode <strong>und</strong> zwischen 0.57 − 0.64 bei Hinzufügen der Richardson Extrapolation.31


Kapitel 5Starke KonvergenzordnungenFür die MLMC Methode ist die starke Konvergenzordnung des Approximationsverfahrensvonnöten. Dazu werden hier zwei Fälle betrachtet, die in den beiden nachfolgenden Kapitelnvon Bedeutung sind.5.1 IndikatorfunktionenIn diesem Abschnitt soll eine obere Schranke für den Approximationsfehler von E[|g(X)−g( ̂X)| p ] berechnet werden, wobei g : R → [0, 1] eine Indikatorfunktion ist, X die Lösungder SDE (2.1), für die weiterhin die Voraussetzungen aus Definition 2.3 gelten <strong>und</strong> ̂X ist<strong>deren</strong> Approximation. Im Folgenden wird bewiesen (analog zu [4], S.1-9), dass für Indikatorfunktionendas Euler-Verfahren starke Ordnung 1/2−ɛ besitzt, wobei ɛ ∈ (0, 1/2].Die Ergebnisse dieses Abschnitts werden für das folgende Kapitel benötigt, in denen diePayofffunktion einer Option nicht stetig ist, sondern einen Sprung hat. Eine Funktionmit solch einer Unstetigkeitsstelle lässt sich durch eine Indikatorfunktion darstellen.5.1.1 VoraussetzungenSei (Ω, F, P) ein Wahrscheinlichkeitsraum <strong>und</strong> X, ̂X : Ω → R zwei Zufallsvariablen,wobei ̂X eine Approximation von X in der Lp -Norm ist. Das bedeutet, dass für eineFolge von Zufallsvariablen ̂X n , n ∈ N, gilt lim n→∞ E[| ̂X n − X| p ] = 0.Definition 5.1 Sei X eine Zufallsvariable, dann lässt sich eine nicht-steigende UmordnungX ∗ : [0, 1] → R ∪ {+∞, −∞} von X definieren durchX ∗ (s) := inf {c ∈ R : P (X > c) ≤ s} ,32


wobei inf ∅ = ∞.Bemerkung 5.2 Die Zufallsvariable X ∗ besitzt folgende Eigenschaften:1. X ∗ (1) = −∞, X ∗ (0) = ∞ falls X nicht beschränkt ist <strong>und</strong> X ∗ (s) ∈ R für s ∈(0, 1),2. X ∗ ist rechtsstetig,3. X ∗ hat die gleiche Verteilung wie X bezüglich des Lebesgue Maßes auf [0, 1].Beweise dazu finden sich in [2], Kapitel 2.1.Außerdem sei noch bemerkt, dass falls F (c) = P (X ≤ c) die Verteilungsfunktion vonX ist, dann lässt sich X ∗ auch schreiben als X ∗ (s) = inf {c ∈ R : 1 − F (c) ≤ s} =inf {c ∈ R : c ≥ F −1 (1 − s)}, da F monoton steigend ist. Die Umkehrfunktion F −1 derVerteilungsfunktion muss dazu natürlich existieren. Da die Quantilsfunktion einer ZufallsvariablenY durch Q(s) := inf {x ∈ R : F (x) ≥ s} definiert ist, folgt außerdemX ∗ (s) = Q(1 − s).Definition 5.3 Definiere die minimale Steigung der Funktion X ∗ zum Level K durchd X : R → [0, ∞),mitd X (K) :=infs∈[0,1], s≠α(K)α(K) = P(X ≥ K).{ }|X ∗ (s) − K|,|s − α(K)|Nimmt man an, dass die Verteilungsfunktion F (c) = P(X ≤ c) stetig <strong>und</strong> strengmonoton steigend ist, so ist P(X > c) = 1 − F (c) stetig sowie streng monoton fallend<strong>und</strong> damit bijektiv. Wegen P(X = c) = 0 folgtX ∗ (s) = inf {c ∈ R : P (X > c) ≤ s}= inf {c ∈ R : P (X ≥ c) = s}= {c ∈ R : α(c) = s}= α −1 (s). (5.1)Wird α(K) = s 0 gesetzt, so gilt aufgr<strong>und</strong> der obigen Umformung, dass X ∗ (s 0 ) = K <strong>und</strong>der Differenzenquotient aus Definition 5.3 kann umgeschrieben werden zu |X∗ (s)−X ∗ (s 0 )||s−s 0 |.Dies verdeutlicht, weshalb in Definition 5.1 von einer minimalen Steigung die Rede ist.33


Weiter sei noch bemerkt, dass die Chi-Funktion χ : R → {0, 1} für a, b ∈ R wie folgtdefiniert ist⎧⎪⎨χ [a,b) (X) :=⎪⎩1 für X ∈ [a, b)0 für X /∈ [a, b).(5.2)Außerdem wird der folgende Satz benötigt:Hilfssatz 5.4 Seien X <strong>und</strong> Y zwei Zufallsvariablen mit Werten in R <strong>und</strong> P(X ≥a, Y < a) = P(a ≤ X < b) für a < b <strong>und</strong> a, b ∈ R, dann giltE [ ] [ ]|X − a| χ {X≥a,Y


<strong>und</strong> <strong>und</strong> zum An<strong>deren</strong> der Integrand |x − a| für Werte von x > b größer ist als fürWerte von x ∈ [a, b).□5.1.2 SätzeNachdem die Voraussetzungen geklärt wurden, kann nun die starke Ordnung des Euler-Verfahrens für Indikatorfunktionen bestimmt werden. Mit Satz 5.9 wird daraufhin derBezug zur MLMC Methode erstellt, da man dadurch eine Schranke für die Varianz ausBedingung iii) des Komplexitätstheorems erhält.Satz 5.5 Angenommen X ist eine Zufallsvariable, dann gelten die folgenden Behauptungen:i) falls X eine beschränkte Dichte f X besitzt, dann gilt für alle Zufallsvariablen ̂X,für alle K ∈ R <strong>und</strong> alle 0 < p < ∞, dasswobei[∣∣∣χ[K,∞)E (X) − χ [K,∞) ( ̂X)] ∣ ≤ 3D X (K) pDarüberhinaus ist die PotenzD X (K) :=pp+1p+11d X (K) ∈ (0, sup f X] .optimal, das heißt, falls( [∣ ∣∣X E − ̂X ∣ p ]) 1p+1,[∣∣∣χ[K,∞)E (X) − χ [K,∞) ( ̂X)]∣(≤ C(X, K, p)[∣ ∣∣X E − ̂X ∣ p ]) 1p+1(5.3)für alle Zufallszahlen ̂X, kann die Potenzpp+1< q < ∞ ersetzt werden.pp+1nicht durch eine Potenz q mitii) Falls p 0 > 0 existiert, so dass Gleichung (5.3) für alle p 0 ≤ p < ∞, alle K ∈ R <strong>und</strong>alle Zufallsvariablen ̂X gilt, <strong>und</strong> falls ein B X > 0 existiert, so dass C(X, K, p) ≤B X , dann hat X eine beschränkte Dichte.Beweis. Zuerst soll Teil i) gezeigt werden. Sei dafür K ∈ R fest, 0 < p < ∞ <strong>und</strong> ̂Xeine Zufallsvariable, so dass[∣∣∣χ[K,∞)E (X) − χ [K,∞) ( ̂X)]∣ = ɛ35


für ein ɛ ∈ (0, 1], da die Chi-Funktion nur die Werte 0 oder 1 annehmen kann. Definiereweiter ɛ 1 := P(X ≥ K, ̂X < K) <strong>und</strong> ɛ 2 := P(X < K, ̂X ≥ K). Damit folgt, dass[ɛ = E |χ [K,∞) (X) − χ [K,∞) ( ̂X)|][]= E χ {X≥K, ̂X


=d X (K) p ɛ p+11. (5.5)p + 1Umformung (**) gilt, da X ∗ (s) ∈ [K, c 0 ) genau dann, wenn s ∈ [α − ɛ 1 , α]. Dies folgtdirekt aus der Definition von X ∗ (s), da X ∗ (α − ɛ 1 ) = inf {c ∈ R : P (X > c) ≤ α − ɛ 1 }<strong>und</strong> mit α − ɛ 1 = P(X ≥ K) − P(K ≤ X < c 0 ) = P(X ≥ c 0 ) ist X ∗ (α − ɛ 1 ) = c 0 .Analog erhält man X ∗ (α) = K. Danach wird benutzt, dass d X (K) ≤ |X∗ (s)−K||s−α(K)| , wasaus der Definition von d X (K) folgt <strong>und</strong> in den letzten beiden Umformungen werden dieGrenzen des Integrals verschoben sowie das Integral ausgerechnet.Um den zweiten Summanden abzuschätzen, findet man ein c 1 ∈ [−∞, K), so dassP(c 1 ≤ X < K) = ɛ 2 <strong>und</strong> deshalb auch λ ({c 1 ≤ X < K}) = ɛ 2 . Die weiteren Argumenteverlaufen analog zum ersten Summanden. Es folgtE [|X − K| p ] χ {X


[∣∣∣χ[K,∞)Ungleichung (5.7) wird nun nach ɛ = E (X) − χ [K,∞) ( ̂X)]∣ umgestellt[∣∣∣χ[K,∞)E (X) − χ [K,∞) ( ̂X)] ∣ ≤ 2 pAußerdem gelten die Ungleichungenp+1 (p + 1)1p+1( 1) pp+1 (d X (K)[∣ ∣∣X E − ̂X ∣ p ]) 1p+1.(5.8)2 pp+1 (p + 1)1p+1 ≤ 2e12e ≤ 3. (5.9)Die hintere der beiden Ungleichungen wird durch das Einsetzen des Wertes für e offensichtlich.Den vor<strong>deren</strong> Teil zeigt man wie folgt:( x2) 1x= e 1 ln( x x 2) = e g(x) maxx g(x)≤ efür g(x) = 1 x ln ( x2)<strong>und</strong> die Ungleichung zum Schluss gilt, da die e-Funktion monotonsteigend ist.Berechne das Maximum von g(x):An der Stelle x = 2e ist das Maximum, dadg(x)= 0dx⇒ 1 − ln ( )x2= 0x 2 ⇒ x = 2e.d 2 g(x)dx 2= 2 ln ( x2)− 3x 3⇒ d2 gdx 2 (2e) =−1(2e) 3 < 0.Mit g(2e) = 1 2e<strong>und</strong> x = p + 1 folgt( p + 1Weiter ist noch zu zeigen, dass2) 1p+1≤ e12eD X (K) :=⇒ 2pp+1 (p + 1)1p+1 ≤ 2e12e .1d X (K) ∈ (0, sup f X] . (5.10)38


Die Beschränktheit von d X (K) folgt aus der Definition <strong>und</strong> somit ist D X (K) > 0.Um die zweite Abschätzung zu zeigen, wird der Einfachheit halber angenommen, dassdie Verteilungsfunktion von X stetig <strong>und</strong> streng monoton ist. Somit gelten die vor <strong>und</strong>nach Definition 5.3 beschriebenen Eigenschaften.Es giltd X (K) = infs∈[0,1](∗)≥s≠α(K)infs∈[0,1]= infs∈[0,1]= infs∈[0,1](∗∗)= infs∈[0,1]= inf≥s∈[0,1]1sup f X.{ }|X ∗ (s) − K||s − α(K)|d∣ds X∗ (s)∣d∣ds (F ∗ ) −1 (s)∣d∣ds F −1 (s)∣∣ 1 ∣∣∣∣∣dF (s) ds 1∣f(s)∣In der obigen Umformung wird bei (*) benutzt, dass X ∗ (s) stetig <strong>und</strong> streng monotonist. Die folgenden beiden Schritte gelten, aufgr<strong>und</strong> der Eigenschaft, dass F ∗ die Umkehrfunktionvon X ∗ ist <strong>und</strong> da die kleinste Steigung von (F ∗ ) −1 im Betrag mit dervon F −1 übereinstimmt, weil die Funktionen durch eine vertikale Spiegelung ineinanderüberführbar sind. Mit dem Satz zur Ableitung der Umkehrfunktion folgt schließlich (**)(vgl. [15], S.117).Ist die Funktion F (x) nicht stetig <strong>und</strong> streng monoton, muss bei den Umformungen aufmögliche Sprünge geachtet werden, <strong>und</strong> darauf, dass die Verteilungsfunktion stückweisekonstant sein kann.(5.9) <strong>und</strong> (5.10) in (5.8) eingesetzt, ergibt die Behauptung von i).Die zweite Behauptung von i), die Optimalität der Potenzpp+1soll nicht bewiesen werden,sondern wird anhand eines Beispiels nach dem Beweis verdeutlicht.39


Für den Beweis von ii) sei δ > 0 <strong>und</strong> wähle ̂X, so dass ̂X = X − δ. Daraus folgt miteiner ähnlichen Umforumung wie im Beweis von Teil i)[∣∣∣χ[K,∞)E (X) − χ [K,∞) ( ̂X)]∣ = P(X ≥ K, X − δ < K) + P(X < K, X − δ ≥ K)= P(K ≤ X < K + δ),da P(X < K, X −δ ≥ K) = 0, so dass für ein p > p 0 <strong>und</strong> den weiteren Voraussetzungenaus Behauptung ii) gilt( [∣ ∣∣X P(K ≤ X < K + δ) ≤ C(X, K, p) E − ̂X ∣ p ]) 1p+1≤ B X (E [|δ| p ]) 1p+1 ≤ BX δ pp+1 .Lässt man p gegen unendlich gehen, da p beliebig groß gewählt werden darf, giltP(K ≤ X < K + δ) ≤ B X δ. (5.11)Sei nun N ⊂ R eine Nullmenge bezüglich des Lebesgue-Maßes <strong>und</strong> sei ɛ > 0. Da dasäußere Lebesgue-Maß (vgl. [12], Definition 1.46) von N ebenfalls Null ist, findet maneine Folge (I j ) j∈N , so dass N ⊂ ∪I j <strong>und</strong> ∑ |I j | ≤ ɛ. Für die Verteilung I X von X giltsomitI X ((a, b)) ≤ I X ([a, b)) ≤ B X |a − b|<strong>und</strong> damit istI X (N) ≤ I X (∪ j I j ) ≤ ∑ j∑I X (I j ) ≤ B X |I j | ≤ B X ɛ.jDa ɛ beliebig klein gewählt werden darf, impliziert diese Ungleichung I X (N) = 0 <strong>und</strong>deshalb ist I X absolutstetig (vgl. [12], Definition 7.30) bezüglich des Lebesgue-Maßes,da λ(N) = 0 → I X (N) = 0. Mit dem Radon-Nikodym Theorem (vgl [16], Satz 6.4)folgt, dass dann eine messbare Funktion f : R → [0, ∞) existiert, so dass∫I X (M) = f(x)dxM40


für alle messbaren M ⊆ R. Des Weiteren ist f integrierbar, da I X (R) = 1.Man definiere sich nun eine Funktion Φ : R → [0, 1], so dassΦ(t) =∫ t−∞f(x)dx.Es folgt Φ ′ (t) = f(t) (vgl. [17], Theorem 8.14). Außerdem istΦ ′ (t) = limh→∞Φ(t + h) − Φ(t)h≤ limh→∞B X hh = B X,da Φ(t+h)−Φ(t) = I X ((t, t + h)). Es folgt schließlich f(t) ≤ B X <strong>und</strong> die Behauptung.Es sei noch bemerkt, dass man entsprechende Ergebnisse für die Funktion χ (−∞,K] durchWahl des Komplements des Intervalls (K, ∞) erhält. Für χ (−∞,K) betrachtet man dieZufallsvariablen −X <strong>und</strong> − ̂X. Für χ (K,∞) benutzt man das Komplement <strong>und</strong> die negativenZufallsvariablen.□Beispiel 5.6 Sei Ω = [0, 1] ausgestattet mit dem Lebesgue-Maß sowie K = 1 <strong>und</strong> 2ɛ < 1. Wähle X(ω) = ω, dann ist die Dichte f X (x) = 1 beschränkt <strong>und</strong> deshalb auch(d 1X 2)= 1. Definiere⎧⎪⎨̂X =X, falls ω ∈ [0, 1 2 − ɛ 2 ) ∪ ( 1 2 + ɛ 2 , 1],X + ɛ 2 , falls ω ∈ [ 1 2 − ɛ 2 , 1 2 ],⎪⎩X − ɛ 2 , falls ω ∈ ( 1 2 , 1 2 + ɛ 2 ].Es folgt, dass[∣ ∣∣X E − ̂X ∣ p ][∣ ∣∣ ɛ= E ∣ p ]χ2 [12 − ɛ 2 , 1 2 + ɛ ](X) 2( ɛ p= P(X ∈ [2) 1 2 − ɛ 2 , 1 2 + ɛ )2 )=( ( 1)) pdX2 ɛp+1,2 p41


(da d 1 p (X 2)= 1 <strong>und</strong> P X ∈ [1− ɛ , 1 + ɛ )) = ɛ. Das Ergebnis stimmt bis auf eine2 2 2 2Konstante mit Gleichung (5.7) überein, so dass für dieses Beispiel der Exponentaus Behauptung i) von Satz 5.5 optimal ist.Satz 5.7 Sei X die Lösung der SDGL (2.1), K ∈ R <strong>und</strong> 0 < p < ∞. Weiter habeX T eine beschränkte Dichte <strong>und</strong> X δ T sei eine Approximation von X T mit maximalerSchrittweite δ > 0, so dass(E[∣ ∣XT − X δ T∣ p ]) 1/p≤ Cp |δ| θpp+1für ein θ > 0 <strong>und</strong> eine Konstante C p ≥ 0. Dann ist für alle K ∈ RE [∣ ∣χ [K,∞) (X T ) − χ [K,∞) (X δ T ) ∣ ∣ ] ≤ 3D XT (K) ppp+1 Cp+1p|δ| θpp+1 .Beweis. Folgt direkt aus Satz 5.5 i), indem E [∣ ∣ XT − XTδ ∣ p ]durch Cp |δ| pθ abgeschätztwird.Satz 5.8 Sei XTE die Euler-Approximation von X T (vgl. (2.2)), dann existiert für jedes0 < ɛ < 1/2 eine Konstante C ɛ , so dass für alle K ∈ R giltE [∣ ∣ χ[K,∞) (X T ) − χ [K,∞) (X E T ) ∣ ∣ ] ≤(D XT (K) ∨ √ )D XT (K) C ɛ |δ| 1 2 −ɛ .Beweis. Da das Euler-Verfahren starke Ordnung 1 2 besitzt, gilt für Satz 5.7 θ = 1 2 . Sei1 ≤ p < ∞, dann ist wegen D XT (K) > 0 folgende Ungleichung erfüllt: D XT (K) pp+1 ≤D XT (K) ∨ √ D XT (K) (dies zeigt man durch eine Fallunterscheidung: für D XT (K) ≥ 1√ist D XT (K) pp+1 ≤ DXT (K) <strong>und</strong> für 0 < D XT (K) < 1 ist D XT (K) pp+1 ≤ DXT (K) ).Wird weiter p = θ−ɛɛ= 1 2 −ɛɛ= 1 2ɛE [∣ ∣ χ[K,∞) (X T ) − χ [K,∞) (X δ T ) ∣ ∣ ] ≤ 3D XT (K) pmit C ɛ = 3C 1−2ɛp .− 1 gesetzt, wobei 0 < ɛ < θ, erhält manpp+1 Cp+1p|δ|p2(p+1)(≤ 3 D XT (K) ∨ √ )D XT (K)()C12ɛ −112ɛ −1+1p≤ 3 D XT (K) ∨ √ D XT (K)(≤ D XT (K) ∨ √ )D XT (K) C ɛ |δ| 1 2 −ɛ ,42|δ|Cp1−2ɛ |δ| 1 2 −ɛ12ɛ −12(2ɛ 1 −1+1)□


□Satz 5.9 Sei K ∈ R. Dann existiert ein m ∈ (0, 1), so dass für |δ| < m giltE [∣ ∣ χ[K,∞) (X T ) − χ [K,∞) (X E T ) ∣ ∣ ] ≤(D XT (K) ∨ √ )D XT (K) |δ| 1 2 − 2+M(− log|δ|) 1/3 ,wobei die Konstante M = M(x 0 , T, C T ) ∈ (0, ∞) aus [4], Satz A.1 genommen wurde.Beweis. Aus Satz 5.7 mit θ = 1 (starke Ordnung des Euler-Verfahrens) sowie der2Eigenschaft a p √p+1 ≤ a ∨ a für a > 0 <strong>und</strong> p ≥ 1 folgtE [∣ ∣ χ[K,∞) (X T ) − χ [K,∞) (XT δ ) ∣ ] ≤ 3D XT (K) p p+1p(≤ D XT (K) ∨ √ )D XT (K) 3e Mp2 ppp+1 |δ|2(p+1)(≤ D XT (K) ∨ √ )D XT (K) 3e Mp2 p|δ|2(p+1) , (5.12)p+1 Cp|δ| θpp+1wobei benutzt wurde, dass die Konstante C p = e Mp2 ist (vgl. [4], Satz A.1). Wähle jetztp, so dass4p(p + 1) 2 = − log |δ| (5.13)für |δ| ≤ m mit m = e −16 , damit p ≥ 1 gilt. Deshalb ist p 3 ≤ 4p(p + 1) 2 = − log |δ| <strong>und</strong>weiter p 2 ≤ (− log |δ|) 2/3 . Es folgt, da die Exponentialfunktion monoton steigend iste Mp2 ≤ e M(− log|δ|)2/3 = e (− log|δ|)M(− log|δ|)−1/3 = |δ| −M(− log|δ|)−1/3 (5.14)<strong>und</strong>12(p + 1)(5.13)=√p− log |δ| ≤ √ p −2 ≤√(− log |δ|) −2/3 = (− log |δ|) −1/3 . (5.15)Aus den letzten beiden Ungleichungen folgt3e Mp2 |δ|p2(p+1)(5.14)≤ 3 |δ| −M(− log|δ|)−1/3 |δ| 1 2 − 12(p+1)(5.15)≤3 |δ| −M(− log|δ|)−1/3 |δ| 1 −(− log|δ|)−1/32≤ 3 |δ| 1 2 − 1+M(− log|δ|) 1/3≤ |δ| 1 2 − 2+M(− log|δ|) 1/3 ,43


wobei der letzte Schritt wegen 3 |δ|(− log|δ|) 1/3 ≤ 1 gilt für |δ| < m = e −16 .Dies in (5.12) eingesetzt, ergibtE [∣ ∣χ [K,∞) (X T ) − χ [K,∞) (X E T ) ∣ ∣ ] ≤1(D XT (K) ∨ √ )D XT (K) |δ| 1 2 − 2+M(− log|δ|) 1/3 .Bemerkung 5.10 Betrachtet man in Satz 5.9 die p-ten Momente, so ändert sich ander Konvergenzordnung nichts, da∣ χ[K,∞) (X T ) − χ [K,∞) (X δ T ) ∣ ∣ =∣∣χ[K,∞) (X T ) − χ [K,∞) (X δ T ) ∣ ∣ p□für beliebige p > 0. Sind also die Voraussetzungen aus Satz 5.9 erfüllt, dann giltE [∣ ∣ χ[K,∞) (X T ) − χ [K,∞) (XT E ) ∣ p ]≤(D XT (K) ∨ √ )D XT (K) |δ| 1 2 − 2+M(− log|δ|) 1/3 . (5.16)5.2 Stochastische KoeffizientenIn diesem Abschnitt wird gezeigt, wie die starke Ordnung des Euler-Verfahrens zurSDGLdX t = a(ω, t, X t )dt + b(ω, t, X t )dW t , 0 ≤ t ≤ T, (5.17)bestimmt werden kann (vgl. [3], Theorem A). Dazu sei (Ω, F, P) wieder ein Wahrscheinlichkeitsraummit Filtration F <strong>und</strong> für die Funktionen a(ω, t, x) : Ω × [0, T ] × R d → R d ,b(ω, t, x) : Ω × [0, T ] × R d → R d gelten die folgenden Bedingungen:Definition 5.111. Für jedes x ∈ R d <strong>und</strong> ω ∈ Ω ist a(ω, ·, x) eine stetige Funktion in t <strong>und</strong> es existiertein C(ω), so dass|a(ω, t, x) − a(ω, s, x)| ≤ C(ω)(1 + |x|) √ t − s<strong>und</strong> für jedes p ≥ 2 ist E[(C(ω)) p ] = C 1 < ∞.2. Für jedes feste x ist a(·, ·, x) ein F t -adaptierter Prozess (vgl. [12], Definition 9.10).44


3. Für jedes fest t <strong>und</strong> ω ∈ Ω ist a(ω, t, ·) stetig differenzierbar <strong>und</strong>|a(ω, t, x) − a(ω, t, y)| ≤ C |x − y| ,wobei die Konstante C unabhängig von t <strong>und</strong> ω ist.Die gleichen Bedingungen werden auch für b angenommen.Später wird noch diese Folgerung aus Bedingung 3 benötigt:|a(ω, t, x)| ≤ |a(ω, t, x)−a(ω, t, 0)|+|a(ω, t, 0)| ≤ C |x|+|a(ω, t, 0)| ≤ C a (|x|+1), (5.18)da a(ω, t, 0) beschränkt ist <strong>und</strong> C a = max (C, |a(ω, t, 0)|).Die SDGL (5.17) lässt sich wie folgt als Integralgleichung schreibenX t = X 0 +∫ ta(ω, s, X s )ds +∫ t00b(ω, s, X s )dW s , 0 ≤ t ≤ T, (5.19)für gegebenes X 0 ∈ R. Für eine Partition π : 0 = t 0 < t 1 < ... < t n = T , wobeiδ = max 0≤k≤n−1 |t k+1 − t k | lautet das Euler-Verfahren̂X t = ̂X tk + a(ω, t k , ̂X tk )(t − t k ) + b(ω, t k , ̂X tk )(W t − W tk ), (5.20)mit t k < t ≤ t k+1 <strong>und</strong> ̂X 0 = X 0 . Es gilt der folgende Satz:Satz 5.12 Genügen a <strong>und</strong> b aus (5.17) den Bedingungen (1.-3.) aus Definition 5.11<strong>und</strong> E[|X t | p ] < ∞ für alle 0 ≤ t ≤ T , dann existiert eine von δ unabhängige KonstanteC ∈ (0, ∞), so dass[Esup0≤t≤TBeweis. Zu Beginn benutzt man die Abschätzung∣∣X t − ̂X t∣ ∣∣p ] ≤ Cδ p/2 . (5.21)|a(ω, t, X t ) − a(ω, s, X s )|∆-Ungl.≤ |a(ω, t, X t ) − a(ω, t, X s )|+ |a(ω, t, X s ) − a(ω, s, X s )|Bed. (1.) <strong>und</strong> (3.)≤ C |X t − X s | + C(ω)(1 + |X s |) |t − s| 1 2für s, t ∈ [0, T ], um den folgenden Erwartungswert abzuschätzenE [|a(ω, t, X t ) − a(ω, s, X s )| p ] ≤E[()C |X t − X s | + C(ω)(1 + |X s |) |t − s| 1 p ]245


[()≤2 p−1 E (C |X t − X s |) p + C(ω)(1 + |X s |) |t − s| 1 p ]2(∗)[()≤2(C p−1 p E [|X t − X s | p ] + E C(ω)(1 + |X s |) |t − s| 1 p ])2≤C 5 |t − s| p 2 . (5.22)Dies erreicht man, indem in (*) die beiden Summanden auf folgende Weise abgeschätztwerden:[∣∫ ∣∣∣ t∫ t∣ ∣∣∣ p]E [|X t − X s | p ] = E a(ω, u, X u )du + b(ω, u, X u )dW uss[∣∫ ∣∣∣ tp] [∣∫ ∣∣∣ t∣ ∣∣∣ p]}≤ 2{Ep−1 a(ω, u, X u )du∣ + E b(ω, u, X u )dW uss{ ∫(∗)t≤ 2 p−1 (t − s) p−1 E [|a(ω, u, X u )| p ] dus[∫ t] p/2}+ C Burk E |b(ω, u, X u )| 2 du(∗∗)≤s∫ t2 p−1 C 1 (t − s) p + 2 p−1 C Burk (t − s) p 2 −1 E [|b(ω, u, X u )| p ] duT ≥t−s≤ 2 p−1 C 1 T p/2 (t − s) p/2 + 2 p−1 C Burk C 2 (t − s) p/2≤ C 3 (t − s) p/2 (5.23)aufr<strong>und</strong> der Hölderungleichung für Integrale, Fubini (Vertauschung von Erwartungswert<strong>und</strong> Integral) <strong>und</strong> der Burkholder-Davis-G<strong>und</strong>y Ungleichung ([11], Theorem 3.28)in (*) für die Konstante C 3 = 2 p−1 C 1 T p/2 + 2 p−1 C Burk C 2 . Schritt (**) gilt wegen|a(ω, u, X u )| p 5.18≤ (C a (|X u | + 1)) p Vor.≤ C 1 . Die Umformung für b geht analog. Für denzweiten Summanden giltE[()C(ω)(1 + |X s |) |t − s| 1 p ]2≤ |t − s| p 2 E [(C(ω)) p ] E [(1 + |X s |) p ]s≤ C 4 |t − s| p 2 , (5.24)da E[|X s | p ] <strong>und</strong> E [(C(ω)) p ] beschränkt <strong>und</strong> die Zufallsvariablen unabhängig sind, sodass C 4 = E [(C(ω)) p ] E [(1 + |X s |) p ]. Somit ist Ungleichung (5.22) gezeigt, wobei dieKonstante C 5 = 2 p−1 (C 3 + C 4 ) unabhängig von δ ist.46


Weiter folgt für den Approximationsfehler, indem (5.20) umgeschrieben wird zûX s = ̂X 0 +i∑k=0{a(ω, t k , ̂X tk )(t k+1 − t k ) + b(ω, t k , ̂X}tk )(W tk+1 − W tk ) ,wobei t i < s ≤ t i+1 , dass mit der Schreibweise t ∗ u := max i=0,1,... {t i : t i ≤ u} <strong>und</strong> Gleichung(5.19)X s − ̂X s = X 0 +− ̂X 0 −X 0 = ̂X 0=∫ s==+{0∫ s0∫ s+0∫ s0∫ s0∫ s0a(ω, u, X u )du +i∑k=0∫ s0b(ω, u, X u )dW u{a(ω, t k , ̂X tk )(t k+1 − t k ) + b(ω, t k , ̂X}tk )(W tk+1 − W tk )a(ω, u, X u ) −{b(ω, u, X u ) −}i∑a(ω, t k , ̂X tk )1 tk


4∑=: C p I i , (5.26)i=1mit C p = 4 p−1 . In (*) wurde die Linearität des Erwartungswert <strong>und</strong> die Eigenschaftsup 0≤s≤t (f(s) + g(s)) ≤ sup 0≤s≤t f(s) + sup 0≤s≤t g(s) benutzt, wobei f, g : R → R.Weiter werden nun die Summanden einzeln abgeschätzt:[∫ sp]I 1 = E sup∣ Rudu1 ∣0≤s≤t 0[ (∫ s) ∣ p ]≤ E sup ∣ R1u du0≤s≤t[(∫ t) ∣ p ]= E ∣ R1u du≤≤0∫ tt p−1 E [∣ ∣Ru1 ∣ p ]du00∫ tC t,p Z u du, (5.27)0unter Benutzung der Hölderschen-Ungleichung für Integrale <strong>und</strong> Fubini in der vorletztenUngleichung für C t,p = t p−1 .Für den zweiten Summanden gilt mit n t ∈ N, so dass t nt ≤ t < t nt+1,[I 2 = E sup∣≤(5.22)≤≤≤0≤s≤t∫ s0p]Rudu2 ∣∫ tC t,p E [∣ ∣∣ R2u p]du0∫ tC t,p C 2 |u − t ∗ u| p/2 du0{ nt−1∑C t,p C 2k=0{∑ ntC t,p C 2k=0(∫ tk+1t k≤ C t,p C 2 (n t + 1)T δ p/2) ∫ }t(u − t ∗ u) p/2 du + (u − t nt ) p/2 dut nt}(t k+1 − t k ) max (u − t k) p/2u∈(t k ,t k+1 ]= C t,p,nt,T δ p/2 , (5.28)wobei die Umformung im ersten Schritt analog zu der von Gleichung I 1C t,p,nt = C t,p C 2 (n t + 1)T .geht <strong>und</strong>48


Außerdem ist[∫ s∣ ∣∣∣ p]I 3 = E sup∣ RudW 3 u0≤s≤t 0[ (∫ t) ]∣ p 2≤ C Burk E ∣ R3u 2du≤≤0∫ tC Burk t p 2 −1 E [∣ ∣∣ R3u p]du0∫ tC P,t Z u du (5.29)0für C P,t = C Burk t p 2 −1 . Die erste Ungleichung folgt aus der Burkholder-Davis-G<strong>und</strong>yUngleichung <strong>und</strong> danach wird erneut Hölder <strong>und</strong> Fubini benutzt.Um den letzten Summanden abzuschätzen, kombiniert man die Rechnungen vom dritten<strong>und</strong> zweiten Summanden.für C t,P,nt = C P,t (n t + 1)T .[I 4 = E sup∣≤0≤s≤t∫ s0R 4 udW u∣ ∣∣∣ p]∫ tC P,t E [∣ ∣∣ R4u p]du0≤ C P,t (n t + 1)T δ p/2= C t,P,nt,T δ p/2 (5.30)Die einzelnen Summanden aufaddiert <strong>und</strong> darauf die Gronwall-Ungleichung (vgl. [12],Lemma 26.9) angewendet, ergibt für eine von δ unabhängige Konstante C das gewünschteErgebnis (C ändert sich zwischen den Rechenschritten)Z t ≤ C∫ t=⇒ Z t ≤ Cδ p/2 +≤0Z u du + Cδ p/2∫ t0Cδ p/2 Ce ∫ tu Cds du∫ tCδ p/2 + C 2 δ p/2 e (t−u)C du0≤ Cδ p/2 . (5.31)□49


Kapitel 6MLMC für GreeksIn diesem Kapitel geht es um die Anwendung des MLMC Algorithmus auf die sogenanntenGreeks. Dazu wird zu Beginn beschrieben, was man unter den Greeks versteht.Im zweiten Abschnitt wird die Methode des pfadweisen Schätzens der Ableitung eingeführt<strong>und</strong> anhand von Beispielen deutlich gemacht. Im vierten Abschnitt werden dieBedingungen geklärt unter denen die pfadweise Methode angewandt werden darf. Dervorletzte Abschnitt beschäftigt sich dann konkret mit dem pfadweisen Schätzen desDeltas einer europäischen Version (vgl. [8], S.386-397), woraufhin zum Schluss mit Satz6.3 schon die ersten Voraussetzungen für das Anwenden des Komplexitätstheorems aufdas neue Problem geklärt werden.6.1 GreeksIn der Finanzwelt möchte man oft wissen, wie sensitiv sich ein entwickeltes Produktbezüglich seiner Variablen verhält. Mathematisch betrachtet, wird diese Sensitivitätdurch die Ableitung des Produkts nach der gewünschten Variablen bestimmt <strong>und</strong> durcheinen griechischen Buchstaben bezeichnet (deshalb Greeks). Ein Beispiel dafür wäre dieSensitivität einer europäischen Option bezüglich des unterliegenden Aktienkurses, dieDelta genannt wird. Benötigt werden die Greeks, um sich gegen bestimmte Risikenabzusichern (zu hedgen). Im Beispiel des Deltahedges sichert sich der Verkäufer dereuropäischen Option gegen eine Steigerung des Aktienkurses ab, indem er die Anzahlvon Delta Aktien kauft (vgl. [10], Kapitel 15.4).Anhand der europäischen Option wird deutlich, welche Sensitivitäten in der Regel eineRolle spielen. Der Optionspreis p hängt von den Variablen S 0 (Startpreis), K (Strike),50


T (Restlaufzeit), r (Zins) <strong>und</strong> σ (Volatilität) ab. Die Greeks dazu lauten:∆ := dpdS 0Γ := d2 pdS 2 0Θ := dpdTΛ := dpdσDeltaGammaThetaLambda.Die Ableitungen nach K <strong>und</strong> r werden nicht betrachtet, da diese beiden Variablen inder Regel als konstant angenommen werden.6.2 Pfadweises Schätzen der AbleitungIn diesem Abschnitt wird zuerst allgemein beschrieben, wie die Ableitung einer Zufallsvariablennach einem bestimmten Parameter bestimmt werden kann. Danach wird dieseMethodik auf das Beispiel der Greeks übertragen.Sei dafür (Ω, F, P) ein Wahrscheinlichkeitsraum <strong>und</strong> {Y (θ), θ ∈ I} eine Menge von Zufallsvariablen,wobei I ⊆ R ein Intervall ist. Hält man ω ∈ Ω fest, dann ist die Abbildungθ → Y (θ, ω) eine Funktion auf I <strong>und</strong> Y ′ (θ) = Y ′ (θ, ω) kann als die Ableitung dieserFunktion bezüglich θ bei festem ω interpretiert werden. Angenommen, die Ableitungexistiert mit Wahrscheinlichkeit 1, so lässt sich die pfadweise Ableitung von Y im Punktθ schreiben alsY ′ Y (θ + h) − Y (θ)(θ) = lim. (6.1)h→0 hDefiniert man sich den Erwartungswert von Y als α(θ) := E[Y (θ)], dann folgt für dieAbleitungα ′ (θ) := d dθ E [Y (θ)] = E [ ddθ Y (θ) ], (6.2)falls das Vertauschen von Erwartungswert <strong>und</strong> Ableitung erlaubt ist.Auf die MLMC Methode bezogen, entspricht Y dem Gesamtschätzer <strong>und</strong> θ einem Inputparameter,so dass das Bilden des Erwartungswertes nicht mehr notwendig ist. Willman jedoch MLMC <strong>und</strong> die pfadweise Methode verbinden, spielt es sehr wohl eineRolle, wann die pfadweise Ableitung von Y (θ) existiert <strong>und</strong> ob das Vertauschen vonAbleitung <strong>und</strong> Erwartungswert möglich ist. Die folgenden Beispiele verdeutlichen, dass51


typischerweise die pfadweise Ableitung Y ′ (θ) in jedem θ ∈ I mit Wahrscheinlichkeit 1existiert, aber deshalb die Abbildung θ → Y (θ) nicht differenzierbar auf I sein muss.6.3 BeispieleIn den folgenden Unterabschnitten werden Beispiele für bestimmte Greeks bezüglich unterschiedlicherOptionen gezeigt. Der Aktienkurs soll weiterhin durch eine geometrischBrownsche Bewegung dargestellt werden, so dassS(T ) = S(0)e (r− 1 2 σ2 )T +σ √ T Z , Z ∼ N(0, 1), (6.3)gilt (vgl. Bsp. 2.4) <strong>und</strong> S(0), r, σ, T sowie K positive Konstanten sind.6.3.1 Black-Scholes DeltaGesucht ist das Delta einer europäischen Call-Option. Da mit der Black-Scholes Formeleine explizite Formel für den Preis dieser Option existiert, könnte man einfach dieseFormel nach S(0) ableiten, um das Delta zu bestimmen. Doch in diesem Abschnitt sollder Weg mittels Simulation gezeigt werden.Der abgezinste Payoff dieser Option bestimmt sich durchY = e −rT [S(T ) − K] + .Mit der Kettenregel folgtdYdS(0) =Um den ersten Faktor zu bestimmen, benutzt mandY dS(T )dS(T ) dS(0) . (6.4)⎧⎪d⎨ 0, x < Kdx max(0, x − K) = ⎪ ⎩1, x > K,wobei die Ableitung im Punkt S(T ) = K nicht existiert. Da jedoch das Ereignis{S(T ) = K} Wahrscheinlichkeit 0 besitzt, ist Y fast sicher differenzierbar bezüglich52


S(T ) mit der AbleitungdYdS(T ) = e−rT 1 {S(T ) > K} .Für den zweiten Faktor gilt dS(T )= S(T )dS(0) S(0), da zwischen S(T ) <strong>und</strong> S(0) ein linearerZusammenhang herrscht. Der pfadweise Schätzer des Deltas ist alsodYdS(0)S(T )= e−rT 1 {S(T ) > K} (6.5)S(0)<strong>und</strong> wird durch Simulation von S(T ) geschätzt. Der Erwartungswert dieses Schätzersentspricht tatsächlich dem Black-Scholes Delta, so dass der Schätzer erwartungstreu ist.6.3.2 Pfadabhängiges DeltaAls Beispiel für ein pfadabhängiges Delta wird die asiatische Option benutzt. Der abgezinstePayoff istY = e −rT [ ¯S − K] + , ¯S =1mm∑S(t i ),für feste Zeitpunkte 0 < t 1 < ... < t m ≤ T . Für den pfadweisen Schätzer folgt mit dengleichen Argumenten wie im vorherigen Beispieli=1dYdS(0)= dYd ¯Sd ¯SdS(0)= e −rT 1 { } d ¯S ¯S > KdS(0)= e −rT 1 { } 1m∑ dS(t i )¯S > Km dS(0)i=1= e −rT 1 { ¯S > K} ¯SS(0) . (6.6)Da die Bedingungen aus dem noch folgenden Satz 6.1 erfüllt sind, ist auch dieserSchätzer erwartungstreu.6.3.3 Digitale Option <strong>und</strong> GammaDie digitale Option hat den abgezinsten PayoffY = e −rT 1 {S(T ) > K} .53


Bezüglich S(T ) ist Y überall differenzierbar, außer in S(T ) = K. Dies impliziert, dasssie mit Wahrscheinlichkeit 1 überall differenzierbar ist. Da jedoch Y eine stückweisekonstante Funktion ist, giltdYdS(T )0 = E= 0 <strong>und</strong> somit auchdY[ ] dY≠dS(0)dS(0)ddS(0) E[Y ]= 0. Somit gilt<strong>und</strong> damit ist der Schätzer nicht erwartungstreu, so dass die Methode des pfadweisenSchätzens für diesen Optionstyp keinen Sinn macht. Weiter kann man schlussfolgern,dass prinzipiell das pfadweise Schätzen von Gamma nicht möglich ist. Dies liegt daran,dass das Delta der meisten Optionen von einer ähnlichen Form ist wie der Payoff derdigitalen Option.6.4 Bedingungen für ErwartungstreueIm letzten Beispiel wurde deutlich, dass die pfadweise Methode bei unstetigen Payoffsnicht benutzt werden kann. Es werden nun Voraussetzungen beschrieben, unter denenGleichung (6.2) <strong>und</strong> somit Erwartungstreue gilt. Dafür sollen die gleichen Annahmengelten wie in Abschnitt 6.2. Außerdem wird vorausgesetzt, dass die Ableitung Y ′ (θ) fürjedes θ ∈ I mit Wahrscheinlichkeit 1 existiert.Wegen Gleichung (6.1) stellt sich die Frage, unter welchen Bedingungen die folgendeGleichung giltE[limh→0]Y (θ + h) − Y (θ)= lim Ehh→0[ Y (θ + h) − Y (θ)h]. (6.7)Es dreht sich also um das Problem, wann die Vertauschung von Grenzwert <strong>und</strong> Erwartungswertgestattet ist.Eine notwendige <strong>und</strong> hinreichende Bedingung dafür ist gleichmäßige Integrierbarkeit<strong>und</strong> stochastische Konvergenz des Differenzenquotienten h −1 [Y (θ + h) − Y (θ)] (vgl.[18], Definition 3.10, Proposition 3.11), jedoch werden Voraussetzungen gesucht, dieman in der Praxis leicht verifizieren kann.Dies erreicht man mit Hilfe der Gleichung dY = dY dS(T ), indem nun Bedingungenan die beiden Faktoren gestellt werden. Da der Wert der Optionen vondθ dS(T ) dθendlichvielen festen Zeitpunkten des unterliegenden Assets abhängen kann, wird ein Vektor54


X(θ) = (X 1 (θ), ..., X m (θ)) als Funktion des Parameters θ eingeführt, so dassY (θ) = f(S 1 (θ), ..., S m (θ)), (6.8)für eine Funktion f : R m → R. Natürlich ließe sich dieser Rahmen auch für Optionenauf mehrere Assets anwenden, <strong>deren</strong> Underlying von einem Zeitpunkt abhängt.Satz 6.1 Unter folgenden Bedingungen gilt Gleichung (6.2) bzw. Erwartungstreue:1. Zu jedem θ ∈ I existiert S i(θ) ′ mit Wahrscheinlichkeit 1 für alle i = 1, ..., m.2. P(S(θ) ∈ D f ) = 1 für alle θ ∈ I, wobei D f ⊆ R die Punkte beinhaltet, in denenf differenzierbar ist.3. f ist Lipschitz, das heißt es existiert eine Konstante k f , so dass für alle x, y ∈ R m|f(x) − f(y)| ≤ k f ‖x − y‖ .4. Es existieren Zufallsvariablen κ i , i = 1, ..., m, so dass für alle θ 1 , θ 2 ∈ I|S i (θ 2 ) − S i (θ 1 )| ≤ κ i |θ 2 − θ 1 |<strong>und</strong> E[κ i ] < ∞, i = 1, ..., m.Beweis. Aus den Bedingungen 1 <strong>und</strong> 2 folgt, dass Y ′ (θ) mit Wahrscheinlichkeit 1 existiert<strong>und</strong> sich aufgr<strong>und</strong> von Gleichung (6.8) unter Benutzung der Kettenregel schreibenlässt alsY ′ (θ) =m∑i=1dfds i(S(θ))S ′ i(θ). (6.9)Im Vergleich der Beispiele aus Kapitel 6.3.1 <strong>und</strong> 6.3.3 hat man jedoch gesehen, dassdies nicht genügt. Deshalb wird mehr als nur Stetigkeit gefordert.Bedingungen 3 <strong>und</strong> 4 implizieren fast sichere Lipschitz-Stetigkeit von Y in θ, da|Y (θ 2 ) − Y (θ 1 )| = |f(S(θ 2 ) − f(S(θ 1 )))|≤ k f ‖S(θ 2 ) − S(θ 1 )‖(∗) ∑ m≤ k f |S i (θ 2 ) − S i (θ 1 )|55i=1


∑ m≤ k f κ i |θ 2 − θ 1 |i=1≤ κ Y |θ 2 − θ 1 | (6.10)∑für κ Y = k mf i=1 κ i. Bei (*) wurde die Betragssummennorm (1-Norm) verwendet,da ‖x‖ 1≥ ‖x‖ pfür x ∈ R m <strong>und</strong> p ∈ N. Außerdem ist sofort klar, dass E[κ Y ] =k f∑ mi=1 E[κ i] < ∞. Gleichung (6.10) umgestellt, ergibt für θ 1 = θ <strong>und</strong> θ 2 = θ + hY (θ + h) − Y (θ)∣ h ∣ ≤ κ Y , (6.11)woraufhin der Satz von der majorisierten { Konvergenz } angewendet werden kann (vgl.Y (θ+1)−Y (θ)n[12], Korollar 6.26), da die Folgeabsolut beschränkt ist. Damit folgt,1ndass der Grenzwert für h → 0 <strong>und</strong> der Erwartungswert vertauscht werden können sowien∈NdE[Y (θ)] existiert. Somit gilt d E[Y (θ)] = E[Y ′ (θ)].dθ dθFordert man in Bedingung 4, dass E[κ 2 i ] < ∞, so ist E[κ 2 Y ] < ∞, woraufhin mit(6.11) folgt, dass<strong>und</strong> ebenfalls wegen (6.10) sowie h > 0E[(Y (θ + h) − Y (θ)) 2 ] ≤ E[κ 2 Y ]h 2□E[Y (θ + h) − Y (θ)] ≤ E[|Y (θ + h) − Y (θ)|] ≤ E[κ Y ]h.Deshalb giltVar[Y (θ + h) − Y (θ)] = E[(Y (θ + h) − Y (θ)) 2 ] − (E[Y (θ + h) − Y (θ)]) 2≤ E[κ 2 Y ]h 2 − (E[κ Y ]) 2 h 2= (E[κ 2 Y ] − (E[κ Y ]) 2 )h 2 ,also istVar[Y (θ + h) − Y (θ)] = O(h 2 ). (6.12)Wird umgekehrt vorausgesetzt, dass Gleichung (6.12) gilt <strong>und</strong> Y ′ (θ) mit Wahrscheinlichkeit1 existiert sowie E[Y (θ)] differenzierbar ist, dann folgtE[(Y (θ + h) − Y (θ)) 2 ] = Var[Y (θ + h) − Y (θ)] + (E[Y (θ + h) − Y (θ)]) 2 = O(h 2 )56


wegen[ ∫ 1]E[Y (θ + h) − Y (θ)] = E h Y ′ ((1 − x)t + x(t + h))dx0{∫ 1}maj. Konvergenz= h E[Y ′ ((1 − x)t + x(t + h))]dx0= O(h),da E[Y ′ ((1 − x)t [ + x(t + h))] < ∞.( ) ] 2Deshalb ist E Y (θ+h)−Y (θ)für h → 0 beschränkt <strong>und</strong>h[Y (θ+h)−Y (θ)h]ist gleichmäßigintegrierbar. In diesem Fall wäre also auch Ableitung <strong>und</strong> Erwartungswert in (6.2) vertauschbar.In der Praxis macht vor allem Bedingung 3 Probleme, da es einige Optionen gibt,<strong>deren</strong> Payofffunktion nicht stetig bezüglich des Parameters θ ist, beispielsweise im Fallvon θ = S(0) für eine digitale Option. Bedingung 4 ist automatisch erfüllt, sobaldder Aktienkurs durch eine geometrisch Brownsche Bewegung dargestellt wird, da S(θ)bezüglich aller Parameter Lipschitz ist. Dies lässt sich mit Hilfe des Mittelwertsatzesder Differentiation zeigen, da S(θ) stetig <strong>und</strong> differenzierbar ist. Die Bedingungen 1 <strong>und</strong>2 stellen in der Regel keine Probleme dar, weil im Falle einer geometrisch BrownschenBewegung S(θ) stets differenzierbar in allen Parametern ist <strong>und</strong> die meisten Optionspayofffunktionenhöchstens in endlich vielen Punkten unstetig sind, so dass sie mitWahrscheinlichkeit 1 differenzierbar sind.6.5 Approximation des DeltasEs ergibt sich nun die Fragestellung, wie die Methode der pfadweisen Ableitung für denProzess (6.13) bei Simulation mittels des Euler-Verfahrens (6.14), funktioniert.Zur Wiederholung: die stochastische DifferentialgleichungdS t = a(S t , t)dt + b(S t , t)dW (t) (6.13)soll also mittels des Euler-Verfahrens auf folgende Weise simuliert werdenŜ n+1 = Ŝn + a(Ŝn, t n )h + b(Ŝn, t n ) √ hZ n+1 , Ŝ 0 = S 0 , (6.14)57


wobei Z n ∼ N(0, 1) für alle n ∈ N <strong>und</strong> h die Zeitschrittweite ist (vgl. Kapitel 2.1).Seî∆ n = dŜndS 0, (6.15)also das Delta des simulierten Pfades. Durch Differenzieren beider Seiten von (6.14)nach S 0 erhält man die Rekursionsformel̂∆ n+1 = ̂∆ n + a ′ S(Ŝn, t n ) ̂∆ n h + b ′ S(Ŝn, t n ) ̂∆ n√hZn+1 , ̂∆0 = 1, (6.16)wobei mit a ′ S (Ŝn, t n ) =ddS na(Ŝn, t n ) <strong>und</strong> b ′ S (Ŝn, t n ) =ddS nb(Ŝn, t n ) die Ableitungen nachS n gemeint sind <strong>und</strong> diese natürlich auch existieren müssen. Welche speziellen Anforderungennoch an a : R × [0, T ] → R <strong>und</strong> b : R × [0, T ] → R gestellt werden müssen,wird im nächsten Abschnitt behandelt.Mitf(Ŝ1, ..., Ŝm)wird erneut der diskontierte Payoff einer Option beschrieben, so dass der gesuchteSchätzer, also die pfadweise Ableitung des Optionsdeltas, dargestellt werden kann alsm∑n=1dfds n(Ŝ1, ..., Ŝm) ̂∆ n .Die stochastische Differentialgleichung zu diesem Problem lautetd∆ t = a ′ S(S t , t)∆ t dt + b ′ S(S t , t)∆ t dW t , ∆ 0 = 1 (6.17)<strong>und</strong> ∆ t = dStdS 0. Kombiniert man (5.17) <strong>und</strong> (6.17), um die beiden Anfangswertproblemeals ein System darzustellen erhält man für 0 ≤ t ≤ T :dS t = a(S t , t)dt + b(S t , t)dW t (6.18)d∆ t = A(S t , t, ∆ t )dt + B(S t , t, ∆ t )dW t , (6.19)wobei A(S t , t, ∆ t ) = a ′ S (S t, t)∆ <strong>und</strong> B(S t , t, ∆ t ) = b ′ S (S t, t)∆ sowie gegebenen AnfangswertenS 0 <strong>und</strong> ∆ 0 = 1.58


6.6 Starke OrdnungUm mit der MLMC Methode das ∆ T zu schätzen, benötigt man die starke Ordnung desEuler-Verfahrens angewandt auf die SDGL (6.19). Dazu benutzt man Satz 5.12, wobeifür den stochastischen Koeffizienten ω die simulierte Lösung der SDGL (6.18) eingesetztwird. Die angepassten Voraussetzungen für die Funktionen a(t, S) : [0, T ] × R d → R d<strong>und</strong> b(t, S) : [0, T ] × R d → R d sehen wie folgt aus:Definition 6.21. Die Funktion a(S, t) ist stetig differenzierbar in beiden Variablen <strong>und</strong> es existiertein C(S) sowie ∆ ∈ R d , so dass|a ′ S(S, t) − a ′ S(S, s)| ≤ C(S)( 1|∆| + 1)√ t − s<strong>und</strong> für jedes p ≥ 2 ist E[(C(S)) p ] < ∞.2. Für jedes feste ∆ ist a ′ S (·, ·)∆ ein F t-adaptierter Prozess.3. Für alle t ∈ [0, T ] <strong>und</strong> S ∈ R d ist |a S (t, S)| < ∞.Die gleichen Bedingungen gelten natürlich auch für b. Weiter ist noch zu beachten,dass in (6.19) der exakte Wert für S t steht, dieser aber nur mit dem Euler-Verfahrenapproximiert wird. Deshalb ist der Fehler der Euler-Approximation (6.16) von folgenderSDGL gesucht:d ˜∆ t = a ′ S(Ŝt, t) ˜∆ t dt + b ′ S(Ŝt, t) ˜∆ t dW t , ˜∆0 = 1. (6.20)Es sei noch bemerkt, dass die Euler-Approximation der SDGL (6.19) wie folgt aussieht∆ n+1 = ∆ n + a ′ S(S n , t n )∆ n h + b ′ S(S n , t n )∆ n√hZn+1 , ∆ 0 = 1. (6.21)Der gewünschte Satz lautet also:Satz 6.3 Genügen die Funktionen a <strong>und</strong> b aus Gleichung (6.18) den Bedingungen ausDefinition 6.2 sowie der folgenden Lipschitzbedingung|f ′ S(S 1 , t) − f ′ S(S 2 , t)| ≤ C t (S 1 − S 2 )59


für alle f ∈ {a, b} <strong>und</strong> einer von t abhängigen Konstante C t ∈ R <strong>und</strong> weiter sei ̂∆ ausGleichung (6.16) die Euler Approximation der SDGL (6.19) <strong>und</strong> E[|X t | p ] < ∞ für alle0 ≤ t ≤ T , dann existiert eine von δ unabhängige Konstante C ∈ (0, ∞), so dass[Esup0≤t≤T∣∣∆ t − ̂∆ t∣ ∣∣p ] ≤ Cδ p/2 . (6.22)Beweis. Zunächst nutzen wir folgende Abschätzung, um den starken Fehler in zweiSummanden aufzuteilen:[∣E sup ∣∆ t − ̂∆∣ ] [∣∣p ∣t = E sup ∣∆ t − ∆ t + ∆ t − ̂∆∣ ]∣∣pt0≤t≤T0≤t≤T[≤ 2(Ep−1sup0≤t≤T] [∣∣ ∆t − ∆ t p+ E sup0≤t≤T∣∣∆ t − ̂∆ t∣ ∣∣p ]) . (6.23)Die Abschätzung des ersten Summanden folgt direkt aus Satz 5.12, da wegen A(S t , t, ∆ t ) =a ′ S (S t, t)∆ <strong>und</strong> den Voraussetzungen aus Definition 6.2, die Bedingungen aus Definition5.11 erfüllt sind. Es folgt nämlich aus Bedingung (1), dass a ′ S (S t, t) existiert <strong>und</strong>|A(S, t, ∆) − A(S, s, ∆)| ≤ |a ′ S(S, t) − a ′ S(S, s)| |∆| ≤ C(S)(1 + ∆) √ t − s.Für festes ∆ gilt Bedingung (2), weil A(·, ·, ∆) auch F t -adaptiert ist. Da A(S, t, ∆) linearin ∆ ist, gilt stetige Differenzierbarkeit in ∆ <strong>und</strong> für sup t,S |a ′ S (t, S)| = C folgt|A(S, t, ∆ 1 ) − A(S, t, ∆ 2 )| = |a ′ S(t, S)| |∆ 1 − ∆ 2 | ≤ C |∆ 1 − ∆ 2 | .Somit gilt[Esup0≤t≤T]∣ ∣∣∆ t − ∆ t p≤ Cδ p/2 . (6.24)∣ ∣∣∆tUm den zweiten Summanden E[sup 0≤t≤T − ̂∆∣ ∣∣ p]t zu berechnen, betrachtet man∆ t <strong>und</strong> ̂∆ t in der folgenden zeitstetigen Variante∆ t = ∆ tk +̂∆ t = ̂∆ tk +∫ tt ka ′ S(S η(τ) , η(τ))∆ η(τ) dτ +∫ tt ka ′ S(Ŝη(τ), η(τ)) ̂∆ η(τ) dτ +∫ tt kb ′ S(S η(τ) , η(τ))∆ η(τ) dW τ (6.25)∫ tt kb ′ S(Ŝη(τ), η(τ)) ̂∆ η(τ) dW τ , (6.26)60


wobei t ∈ [t k , t k+1 ] <strong>und</strong> η(τ) = max k=0,1,... {t k : t k ≤ τ}. Dies liefert wegen ∆ 0 = ̂∆ 0 = 1unter Vernachlässigung des Supremums[∣ ∣∣∆tE − ̂∆∣ ∣∣ p]t[∣∫ ∣∣∣ t= E a ′ S(S η(τ) , η(τ))∆ η(τ) dτ −0∫ t0∫ t0∫ ta ′ S(Ŝη(τ), η(τ)) ̂∆ η(τ) dτ∣ ∣∣∣ p]+ b ′ S(S η(τ) , η(τ))∆ η(τ) dW τ − b ′ S(Ŝη(τ), η(τ)) ̂∆ η(τ) dW τ00[∣∫ ∣∣∣ t≤ 2(Ep−1 a ′ S(S η(τ) , η(τ))∆ η(τ) − a ′ S(Ŝη(τ), η(τ)) ̂∆ p]η(τ) dτ∣0[∣∫ ∣∣∣ t∣ ∣∣∣ p])+ E b ′ S(S η(τ) , η(τ))∆ η(τ) − b ′ S(Ŝη(τ), η(τ)) ̂∆ η(τ) dW τ0( ∫(∗)t [∣≤ 2 p−1 t p−1 ∣∣a ′E S (S η(τ) , η(τ))∆ η(τ) − a ′ S(Ŝη(τ), η(τ)) ̂∆∣ ∣∣ p]η(τ) dτ∫ t [∣+C Burk t p 2 −1 ∣∣b ′E S (S η(τ) , η(τ))∆ η(τ) − b ′ S(Ŝη(τ), η(τ)) ̂∆∣ )∣∣ p]η(τ) dτ0( ∫ t∫ t)= 2 p−1 t p−1 E [|A(τ)| p ] dτ + C Burk t p 2 −1 E [|B(τ)| p ] dτ , (6.27)00wegen der Hölder-Ungleichung für Integrale, Fubini <strong>und</strong> der Burkholder-Davis-G<strong>und</strong>yUngleichung bei (*) (vgl. Umformungen (5.27) <strong>und</strong> (5.29)).Außerdem giltE [|A(τ)| p ] =[∣ ∣∣a ′E S (S η(τ) , η(τ))∆ η(τ) − a ′ S(Ŝη(τ), η(τ))∆ η(τ)≤+ a ′ S(Ŝη(τ), η(τ))∆ η(τ) − a ′ S(Ŝη(τ), η(τ)) ̂∆∣ ∣∣ p]η(τ)[∣ 2(E p−1 ∣∣a ′S (S η(τ) , η(τ)) − a ′ S(Ŝη(τ), η(τ)) ∣ p ∣ ∣ ]∆η(τ) p[∣∣∣∆η(τ)+ E − ̂∆∣ ∣∣p ∣ η(τ) ∣a′ S (Ŝη(τ), η(τ)) ∣ p ])[(∗)∣∣∣a ≤ 2(E p−1 ′S (S η(τ) , η(τ)) − a ′ S(Ŝη(τ), η(τ)) ∣ 2p] 1/2 [ ∣∣∆η(τ) ∣ ]E2p1/2[∣+ CaEp ∣∣∆η(τ)− ̂∆∣ ∣∣ p])η(τ)[ ∣∣∣Sη(τ) ≤ 2(C p−1 1 C p t E − Ŝη(τ) ∣ 2p] 1/2 [∣+ CaEp ∣∣∆η(τ)− ̂∆∣ ∣∣ p] )η(τ)Lipschitzbed.≤2 p−1 C 1 C p t δ p 2 + 2 p−1 C p aE[∣∣∣∆η(τ)− ̂∆ η(τ)∣ ∣∣ p], (6.28)61


wobei in (*) für den ersten Summanden die Hölder-Ungleichung (bzw. der Spezialfallder Cauchy-Schwarz Ungleichung) <strong>und</strong> für den zweiten Summanden die Voraussetzung|a ′ S (t, S)| = C a < ∞ benutzt wurde sowie im letzten Schritt die starke Ordnung ausDefinition 2.3. Mit dem Lemma von Gronwall folgt nunE [|A(τ)| p ] ≤ Cδ p 2 eCt(6.29)für eine von δ unabhängige Konstante C = max {2 p−1 C 1 C p t , 2 p−1 C p a}.Für B(τ) ergibt die analoge RechnungE [|B(τ)| p ] ≤ Cδ p 2 e Ct . (6.30)Diese beiden Ergebnisse in 6.27 eingesetzt, ergeben für eine sich ändernde von δ unabhängigeKonstante C[∣ ∣∣∆tE − ̂∆∣ ∣∣ p]t( ∫ t∫ t≤ 2 p−1 t p−1 Cδ p 2 e Ct dτ + C Burk t p 2 −100)Cδ p 2 e Ct dτ≤ Cδ p 2 . (6.31)Dies mit (6.24) in (6.23) eingesetzt, führt zum gewünschten Ergebnis.□62


Kapitel 7Anwendungen des MLMCAlgorithmusDie Vorbereitungen aus den vorherigen Kapiteln werden nun dazu benutzt, die MLMCMethode auf eine digitale Option anzuwenden (vgl. [5], Abschnitt 5). Dazu wird insbesondereSatz 5.9 benötigt, der die starke Ordnung des Euler-Verfahrens für nichtstetigeFunktionale angibt.Im zweiten Teil werden die Ergebnisse der digitalen Option sowie der Satz 5.12 zur starkenOrdnung für den Fall, dass die approximierte Lösung auch von einem stochastischenKoeffizienten abhängt, benutzt, um das Optionsdelta mittels MLMC zu schätzen.7.1 Digitale OptionDer diskontierte Payoff P einer digitalen Option zum Strike K bestimmt sich durchP = e −rT 1 ST ≥K = e −rT χ [K,∞) (S T ). (7.1)Er ist also e −rT , falls die Aktie am Fälligkeitsdatum größer gleich dem Strike ist <strong>und</strong>ansonsten null. Die Payofffunktion hat somit eine Unstetigkeitsstelle in S T = K. Umden MLMC Algorithmus anwenden zu können, benötigt man die schwache <strong>und</strong> starkeOrdnung der Approximation ̂P von P , die mit dem Euler-Verfahren angewandt auf dieSDGL (2.1) erstellt wird.Aus [1], Theorem 3.1 folgt, dass die schwache Ordnung 1 ist <strong>und</strong> damit gilt für dieBedingung i) im Komplexitätstheorem, dass α = 1. Das β aus Bedingung iii) wird mit63


Hilfe von Satz 5.9 <strong>und</strong> Bemerkung 5.10 bestimmt, denn daraus folgtfür C =E[ ∣∣χ[K,∞)(S E T ) − χ [K,∞) (S T ) ∣ ∣ 2] ≤ Ch 1 2 − 2+G(− log|h|) 1/3 (7.2)(D XT (K) ∨ √ )D XT (K) > 0, Schrittweite h <strong>und</strong> die Konstante G > 0 (da Mim Komplexitätstheorem für den Schrittweitenparameter steht). WegenVar[ ̂P − P ] ≤ E[( ̂P[− P ) 2 ] (7.1) ∣∣χ[K,∞)= e −2rT E (S T ) − χ [K,∞) (ST E ) ∣ 2]<strong>und</strong> (7.2) folgt, dass β h = 1 2 − 2+G(− log|h|) 1/3 = 1 2 − A(l log M) 1/3 mit A = G + 2 > 0. Dain der Voraussetzung von Satz 5.9 gefordert wird, dass h = M −l < m, folgt mit derEigenschaft, dass die Logarithmusfunktion streng monoton steigend istβ h = 1 2 − A(− log(M −l ∧ m)) 1/3= 1 2 − A(log (M −l ∧ m) −1 ) 1/3= 1 2 − A(log(M l ∨ m −1 )) 1/3= 1 2 − A(l log M ∨ (− log m)) 1/3= 1 2 − A(l log M ∨ B) 1/3 (7.3)für alle l = 0, 1, ..., L <strong>und</strong> B = − log m > 0 wegen m ∈ (0, 1). Das β h hängt also von derSchrittweite h bzw. dem Level l ab <strong>und</strong> ist somit nicht konstant wie in den vorherigenFällen. Eingesetzt in Bedingung iii) gilt für T = 1Var[Ŷl] ≤ c 2 N −1lh β l= c 2 N −1lM − l 2 + Al((l log M)∨B) 1/3 . (7.4)Für α = 1 <strong>und</strong> β = 1 erhält man daraufhin aus dem Komplexitätstheorem, dass2der Rechenaufwand durch c 4 ɛ − 5 2 beschränkt ist. Hierbei wurde der Anteil − 2+G(− log|h|) 1/3vernachlässigt, da er für kleine h gegen Null konvergiert, wegen lim h↓0 log h = −∞. DerMSE wird auf folgende Weise abgeschätzt:E[(Ŷ − E[P ])2 ] = E[( ̂P − P ) 2 ] + Var[Ŷ ] ≤ ɛ2 2 + ɛ2 Φ(ɛ), (7.5)264


mitwobei D, E > 0 <strong>und</strong>Φ(ɛ) := M −L(ɛ)4L(ɛ) :=⌈L(ɛ)∑M l 4 +(Dl 2 3 ∨E) , (7.6)l=0log( √ ⌉2c 1 ɛ −1 ).log MDie Abschätzung aus (7.5) für E[( ̂P − P ) 2 ] geht analog zum Beweis im Komplexitätstheorem.Für die Berechnung von Var[Ŷ ] wählt man wie in Teil c) des Beweises desKomplexitätstheorems⌈N l =⌈=2ɛ −2 c 2 h −(1−β)/2L(ɛ)2ɛ −2 c 2 h − 1 2 ( 1 2 +L(ɛ)( ) ⌉1 − M−(1−β)/2 −1 (β+1)/2 hlA((l log M)∨B) 1/3 )(1 − M − 1 2 ( 1 2 + AWeiter wird noch folgende Rechnung benötigt:) −1((l log M)∨B) 1/3 ) 12h( 3 2 − A1 Al2 ((l log M) ∨ B) =1 1/3 2 l ( (A −3 l log M) 1/3 ∨ A −1 B 1/3) −1l((l log M)∨B) 1/3 )⌉.(7.7)=l ( l −1/3 D ∧ E ∗) (7.8)mit D = 1 2 (A−3 log M) −1/3 > 0 <strong>und</strong> E ∗ = 1 2 AB−1/3 > 0. Da l −1/3 D fallend in l ist,existiert ein l 0 , so dass l −1/3 D ≤ E ∗ für l > l 0 . Deshalb ist⎧l ( l −1/3 D ∧ E ∗) =⎪⎨⎪⎩lE ∗ ≤ l 0 E ∗ := E, l ≤ l 0l 2/3 D, l > l 0≤ l 2/3 D ∨ E. (7.9)Damit folgtL(ɛ)Var[Ŷ ] ≤ ∑c 2 N −1lh β ll=065


L(ɛ)∑ 1 1.l=0= 1 2 ɛ2 M − L(ɛ)4∑L(ɛ)M l 4 +(Dl 2 3 ∨E)l=0= 1 2 ɛ2 Φ(ɛ), (7.10)Es sei bemerkt, dass()12 + A((l log M)∨B) 1/3L(ɛ)Afür beliebiges δ > 0. Um dies zu zeigen, benutzt man≤ 1 <strong>und</strong> M − ((l log M)∨B) 1/3 ≤ 1 in (*), wegen A, B, L(ɛ) > 0L(ɛ) ≤ log(√ 2c 1 ɛ −1 )log Mfür K 1 , K 2 > 0 sowie die Eigenschaft, dasslimɛ↓0ɛ δ Φ(ɛ) → 0 (7.11)+ 1 ≤ K 1 − K 2 log ɛL(ɛ)∑M l 4 +(Dl 2 3 ∨E) ≤ (L(ɛ) + 1)M L(ɛ)4 +(DL(ɛ) 2 3 ∨E) ,l=0da die Summanden monoton steigend in l sind. Es folgtɛ δ Φ(ɛ) = ɛ δ M −L(ɛ)4≤≤∑L(ɛ)M l 4 +(Dl 2 3 ∨E)l=0ɛ δ M −L(ɛ)4 (L(ɛ) + 1)M L(ɛ)4 +(DL(ɛ) 2 3 ∨E)ɛ δ (K 1 − K 2 log(ɛ))M (DL(ɛ) 2 3 ∨E)66


ɛ↓0−→ 0. (7.12)Dass dieser Grenzwert gegen 0 konvergiert, wird deutlich, wenn der Einfachheit halbernur die von ɛ abhängigen Terme betrachtet werden:ɛ δ log(ɛ −1 )M (− log ɛ) 2 3= e δ log ɛ e log(− log ɛ) e (− log ɛ) 2 3 log M)= exp(δ log ɛ + log(− log ɛ) + (− log ɛ) 2 3 log Mɛ↓0−→ 0, (7.13)da log ɛ schneller gegen −∞ konvergiert als die beiden an<strong>deren</strong> Summanden gegen +∞<strong>und</strong> außerdem lim x→−∞ e x = 0.7.2 Delta einer europäischen OptionEine Möglichkeit der Berechnung des Optionsdeltas wurde schon in Abschnitt 6.3.1gezeigt. Hier sollen jedoch die Erkenntnisse aus Abschnitt 7.1 benutzt werden, indemdie beiden Faktoren aus Gleichung (6.4)F :=dYdS(0) =dY dS(T )dS(T ) dS(0)(7.14)einzeln approximiert werden. Der erste Faktor F 1 :=dY = dS(T ) e−rT 1 {S(T ) > K} wirdmittels Simulation von S(T ) durch das Euler-Verfahren (6.14) erstellt, der zweite FaktorF 2 := dS(T ) mit Hilfe der Simulation von ∆(T ) durch (6.16), so dass man die beidendS(0)Schätzer ̂F 1 <strong>und</strong> ̂F 2 erhält.Um das Komplexitätstheorem anwenden zu können, benötigt man die starke <strong>und</strong> schwacheOrdnung des Gesamtschätzers ̂F = ̂F 1̂F2 . Die starken Ordnungen der beiden einzelnenFaktoren wurden in den Sätzen 5.9 <strong>und</strong> 5.12 hergeleitet. Der Beweis der schwachenOrdnungen würde den Rahmen dieser Diplomarbeit sprengen, deshalb wird in beidenFällen eine schwache Ordnung von 1 angenommen mit Bezug auf die Quellen [1] fürden Fall der Indikatorfunktion <strong>und</strong> [9], Abschnitt 1.4 für die SDE mit stochastischenKoeffizienten. Natürlich wird wieder vorausgesetzt, dass die Bedingungen aus Definition6.2 an a <strong>und</strong> b erfüllt sind <strong>und</strong> für die Simulation des Schätzers das Euler-Verfahrenmit Schrittweite h verwendet wird.Auch hier wird der Einfachheit halber angenommen, dass die schwache Ordnung des67


Gesamtschätzers 1 beträgt. Es gilt also∣∣E[ ̂F − F ] ∣ =∣∣E[̂F 1̂F2 − F 1 F 2 ] ∣= O(h). (7.15)Dies lässt sich damit begründen, dass die schwache Ordnung der beiden einzelnenSchätzer ̂F 1 <strong>und</strong> ̂F 2 ebenfalls 1 ist <strong>und</strong> wird auch durch Abbildung 7.3 bestätigt. EineAbschätzung von Gleichung (7.15) zum Beispiel mit Hölder ist zu ungenau <strong>und</strong> führtzu einer schwachen Ordnung von 1/2 (Beweis verläuft analog zu dem der starken Ordnung).Aufgr<strong>und</strong> dieser Annahme gilt für die Bedingung i) des Komplexitätstheoremsα = 1.Anstatt die starke Ordnung zu berechnen, wird jetzt sofort die Ordnung der quadratischenAbweichung berechnet, um daraus die Ordnung der Varianz zu bestimmen, diefür iii) des Komplexitätstheorems benötigt wird.E[| ̂F − F | 2 ] = E[|̂F 1̂F2 − F 1 F 2 | 2 ]= E[|(̂F 2 − F 2 )̂F 1 + (̂F 1 − F 1 )F 2 | 2 ]()≤ 2 E[|̂F 2 − F 2 | 2 |̂F 1 ‖ 2 ] + E[|̂F 1 − F 1 | 2 ]F22()≤ 2 E[|̂F 2 − F 2 | 4 ] 1/2 E[|̂F 1 ‖ 4 ] 1/2 + E[|̂F 1 − F 1 | 2 ]F22≤ K 3 E[|̂F 2 − F 2 | 4 ] 1/2 + K 4 E[|̂F 1 − F 1 | 2 ]= K(h + h 1 2 − 2+G(− log|h|) 1/3 )= O(h 1 2 − 2+G(− log|h|) 1/3 ), (7.16)für G > 0 <strong>und</strong> da 2E[|̂F 2 ‖ 4 ] 1/2 = K 3 beschränkt ist, so dass β = 1 2 − 2+G(− log|h|) 1/3 .Wie in Gleichung (7.5) wird nun der MSE abgeschätzt. Es gelte unter der AnnahmeT = 1L(ɛ) :=⌈log( √ ⌉2c 1 ɛ −1 ),α log Mso dass1√2ɛM −α < c 1 h α L ≤ 1 √2ɛ68


gilt. Deshalb ist analog zum Beweis im Komplexitätstheorem E[( ̂F − F ) 2 ] < ɛ2 . Außerdemist wie in Kapitel 7.12Var[Ŷ ] ≤ɛ22 Φ(ɛ)mit dem gleichen Φ(ɛ), wie in (7.6), da die starke Ordnung hier die gleiche ist. Somitist auchE[(Ŷ − E[P ])2 ] = E[( ̂P − P ) 2 ] + Var[Ŷ ] ≤ ɛ2 2 + ɛ2 Φ(ɛ). (7.17)2Für den Rechenaufwand erhält man mit α = 1 <strong>und</strong> β = 1 2log-Therme eine Schranke von c 4 ɛ − 5 2 .unter Vernachlässigung der7.3 ErgebnisseWeiter sollen nun die Ergebnisse des MLMC-Algorithmus im Falle einer geometrischBrownschen Bewegung (vgl. (4.2)) für den Aktienkurs präsentiert werden. Es sei nochbemerkt, dass Gleichung (6.19) daraufhin ebenfalls eine geometrisch Brownsche Bewegungwird, nämlichd∆ t = r∆ t dt + σ∆ t dW t .7.3.1 Digitale OptionDie Digitale Option besitzt die PayofffunktionP = exp(−0.05)1 ST ≥1.Der Preis dieser Option beträgt ger<strong>und</strong>et 0.5323 (vgl. [10], Abschnitt 22.7). Für ɛ =0.0005 ergab der MLMC-Alogrithmus einen Preis von 0.5322.Die Steigung der Samplevarianzen (oben links in Abbildung 7.1)beträgt ungefähr −0.5,so dass wie erwartet V l = O(h 1/2l) gilt, während die Erwartungswerte der Samples O(h)Konvergenz besitzen. Ersteres ist der Gr<strong>und</strong> dafür, dass eine weitaus höhere Anzahlan Samples erstellt werden muss, als im Beispiel der Europäischen oder AsiatischenOption. Die beiden rechten Grafiken zeigen, dass die Richardson Extrapolation hiergroße Vorteile hat.69


Abbildung 7.1: Ergebnisse Digitale OptionDie RMSE/ɛ Werte ergaben sich als 0.58 − 0.87 (MLMC) <strong>und</strong> 0.53 − 0.69 (MLMC mitRichardson Extrapolation).7.3.2 Delta der Europäischen OptionDer Wert des Deltas der Europäischen Option bestimmt sich in diesem Beispiel alsP = exp(−0.05)S(T )1 S(T )>1 .Er beträgt 0.6368 (vgl. [10], S.346) <strong>und</strong> ergab sich im Algorithmus als 0.6376 fürɛ = 0.0005. Der Wert ist größer als derjenige der digitalen Option, da der Payoff derdigitalen Option noch mit S(T ) multipliziert wird, was aufgr<strong>und</strong> der Indikatorfunktiongrößer als 1 ist.70


Aufgr<strong>und</strong> der ”Payofffunktion“ sind auch die Ergebnisse des Algorithmus aus Abbildung7.2 den Ergebnissen der Digitalen Option sehr ähnlich. Der RMSE/ɛ lag im Bereich von0.67 − 0.95 (MLMC) <strong>und</strong> 0.56 − 0.69 (MLMC mit Richardson Extrapolation).Abbildung 7.2: Ergebnisse Delta mit einem PfadIn der folgenden Abbildung 7.3 wurde nicht nur der Aktienkurs simuliert, sondern auchein Pfad für das Delta (vgl. Gleichung (7.14)).71


Abbildung 7.3: Ergebnisse Delta mit zwei PfadenDieses Verfahren bringt für den Fall des Deltas einer Europäischen Option keinen Vorteil.Es führt nur zu einer Verdopplung des Rechenaufwands. Außerdem ist die Steigungder Erwartungswertsamples (Grafik oben rechts) −1, wie im vorherigen Unterkapitelangenommen.72


Kapitel 8Zusammenfassung <strong>und</strong> AusblickIn dieser Arbeit wurde deutlich, dass die <strong>Multilevel</strong> <strong>Monte</strong> <strong>Carlo</strong> Methode eine signifikanteVerbesserung gegenüber der <strong>Monte</strong> <strong>Carlo</strong> Methode darstellt. Sie schafft esden Rechenaufwand zu verringern <strong>und</strong> in fast allen Fällen die gewollte Genauigkeit zuerreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerungdes Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nichtin allen Fällen die schwache Konvergenzordnung verdoppelt wurde.Im Falle der Optionssensitiväten ist eine Anwendung des MLMC-Algorithmus problematisch.Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstellebesitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. DieAnwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivitätals Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliertwerden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 amBeispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfadfür das Delta simuliert.Weitere Verbesserungsmöglichkeiten könnten in der Wahl von an<strong>deren</strong> varianzreduzierenden<strong>Methoden</strong> liegen oder durch Verwendung von Diskretisierungsverfahren mithöherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der GrößenordnungO(ɛ −2 ) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendemL erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet<strong>und</strong> der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese aufeine Größenordnung von O(ɛ 2 ) zu bringen, ist es nötig, O(ɛ −2 ) Pfade zu erstellen (sieheGleichung (3.6)), was den Rechenaufwand begründet.73


Anhang AProgrammierung mit VBA in ExcelDies ist das Excel Sheet von dem aus der MLMC-Algorithmus gesteuert wird. Gelbhinterlegt sind die Felder in denen die Inputwerte stehen.Abbildung A.1: Input <strong>und</strong> Output in ExcelAußerdem folgt noch der Programmcode, der mit VBA geschrieben wurde:74


Public Pi, T, u1, v1, r, sigma, SO, D0 As DoublePublic Strike As DoublePublic M, LL As IntegerPublic Payoff() As VariantPublic h As DoublePublic Differenz As VariantSub MLMC()'Deklaration des VariablentypsDim optionswahl As IntegerDim l As LongDim i As LongDim J As LongDim k As LongDim Nl As LongDim maxanzahl As LongDim start, test, lll As LongDim zahl As LongDim zahlen As DoubleDim h As DoubleDim num As DoubleDim NN, eps As DoubleDim var1, var2, summe As DoubleDim inkremente(), S1(), S2(), Liste(), Variance(), Anzahl(), Erwartung(), Vector() As VariantDim NlVector() As VariantDim methode As IntegerDim erweiterung As IntegerDim C, MSE, VarMSE As DoubleDim summe2 As Double'Setze bestimmte KonstantenPi = 4 * Atn(1)h = 0Nl = 10000maxanzahl = 3000000'Input aus Excel SheetT = Sheets("MC").Cells(4, 2)M = Sheets("MC").Cells(5, 2)LL = Sheets("MC").Cells(6, 2)eps = Sheets("MC").Cells(7, 2)optionswahl = Sheets("MC").Cells(9, 5)SO = Sheets("MC").Cells(8, 2)r = Sheets("MC").Cells(9, 2)sigma = Sheets("MC").Cells(10, 2)Strike = Sheets("MC").Cells(11, 2)optionswahl = Sheets("MC").Cells(9, 5)methode = Sheets("MC").Cells(16, 5)erweiterung = Sheets("MC").Cells(23, 5)D0 = 1'erstelle MatrizenReDim Anzahl(2, LL + 1)ReDim Payoff(1 + 2 * LL, maxanzahl)


ReDim Differenz(1 + LL, maxanzahl)ReDim Variance(1, LL + 1)ReDim Vector(1, LL + 1)ReDim NlVector(1, LL + 1)Randomize (0.0001)'erste große SchleifeFor l = 0 To LLAnzahl(1, l + 1) = Nl'lösche Erwartungsvektor vor jedem LaufReDim Erwartung(1, l + 1)h = M ^ (-l) * T'erstelle die ersten 10000 SamplesFor J = 1 To NlReDim inkremente(T / h, 2)ReDim S1(T / h + 1, 2)ReDim S2(T / h + 1, 2)'erstelle Vektor mi T/h ZufallszahlenIf l > 0 ThenFor i = 1 To T / hnum = Application.WorksheetFunction.NormSInv(Rnd)inkremente(i, 1) = num * h ^ (0.5)Next i'Summiere Inkremente zu Gruppen der Größe M --> inkremente für P(l-1)If methode = 1 ThenFor i = 1 To T / h / MFor k = 1 To Minkremente(i, 2) = inkremente(i, 2) + inkremente(M * (i - 1) + k, 1)Next kNext iEnd If'Fall l=0Elsenum = Application.WorksheetFunction.NormSInv(Rnd)inkremente(1, 1) = num * h ^ (0.5)End If'erstelle Pfad der Aktie (2 Pfade da im Falle l=1,2.... zwei Payoffs berechnet werden)If l > 0 ThenS1(1, 1) = SOS2(1, 1) = SO


For i = 1 To T / hS1(i + 1, 1) = S1(i, 1) + S1(i, 1) * r * h + S1(i, 1) * sigma * inkremente(i, 1)Next i'Falls MLMC, dann noch zweiten Payoff für summierte Inkremente berechnenIf methode = 1 ThenFor i = 1 To T / h / MS2(i + 1, 1) = S2(i, 1) + S2(i, 1) * r * h * M + S2(i, 1) * sigma * inkremente(i, 2)Next iEnd IfElseS1(1, 1) = SOFor i = 1 To T / hS1(i + 1, 1) = S1(i, 1) + S1(i, 1) * r * h + S1(i, 1) * sigma * inkremente(i, 1)Next iEnd If'Zweiten Pfad für Delta erstellen (aber mit gleichen Zufallszahlen)If optionswahl = 7 Or optionswahl = 8 ThenIf l > 0 ThenS1(1, 2) = D0S2(1, 2) = D0For i = 1 To T / hS1(i + 1, 2) = S1(i, 2) + S1(i, 2) * r * h + S1(i, 2) * sigma * inkremente(i, 1)Next iIf methode = 1 ThenFor i = 1 To T / h / MS2(i + 1, 2) = S2(i, 2) + S2(i, 2) * r * h * M + S2(i, 2) * sigma * inkremente(i, 2)Next iEnd IfElseS1(1, 2) = D0For i = 1 To T / hS1(i + 1, 2) = S1(i, 2) + S1(i, 2) * r * h + S1(i, 2) * sigma * inkremente(i, 1)Next iEnd IfEnd If'erstelle Matrix mit PayoffsCall PayoffBerechnen(optionswahl, methode, l, S1, S2, J, h)'ein Sample wurde erstelltNext J'Varianzen bestimmen (variable "zahl" aus Formatgründen)zahl = Anzahl(1, l + 1)Variance(1, l + 1) = Varianz(Differenz, l + 1, zahl)


'optimales Nl für alle l für MLMCIf methode = 1 ThenFor k = 0 To lNN = 0For i = 0 To lNN = NN + (Variance(1, i + 1) / (M ^ (-i) * T)) ^ (0.5)Next iNN = 2 * eps ^ (-2) * (Variance(1, k + 1) * (M ^ (-k) * T)) ^ (0.5) * NN'aufr<strong>und</strong>enIf NN > Ro<strong>und</strong>(NN, 0) ThenNN = Ro<strong>und</strong>(NN, 0) + 1ElseNN = Ro<strong>und</strong>(NN, 0)End IfAnzahl(2, k + 1) = NNNlVector(1, k + 1) = NN'merke Anzahl der Samples für den Schritt <strong>und</strong> Anzahl der neuen SamplesIf Anzahl(2, k + 1) > Anzahl(1, k + 1) ThenIf Anzahl(2, k + 1) > maxanzahl ThenVector(1, k + 1) = maxanzahl - Anzahl(1, k + 1)Anzahl(1, k + 1) = maxanzahlElseVector(1, k + 1) = Anzahl(2, k + 1) - Anzahl(1, k + 1)Anzahl(1, k + 1) = Anzahl(2, k + 1)End IfElseVector(1, k + 1) = 0End IfNext k'Optimales Nl für MCElseIf methode = 2 ThenNN = Variance(1, l + 1) * 2 / (eps ^ 2)If NN > Ro<strong>und</strong>(NN, 0) ThenNN = Ro<strong>und</strong>(NN, 0) + 1ElseNN = Ro<strong>und</strong>(NN, 0)End IfAnzahl(2, l + 1) = NNNlVector(1, l + 1) = NNIf Anzahl(2, l + 1) > Anzahl(1, l + 1) ThenIf Anzahl(2, l + 1) > maxanzahl ThenVector(1, l + 1) = maxanzahl - Anzahl(1, l + 1)Anzahl(1, l + 1) = maxanzahlElseVector(1, l + 1) = Anzahl(2, l + 1) - Anzahl(1, l + 1)


Anzahl(1, l + 1) = Anzahl(2, l + 1)End IfElseVector(1, l + 1) = 0End IfEnd If'erstelle restliche Samples'bei MLMC für alle lll, bei MC nur für das gegenwärtige lllIf methode = 1 Thenstart = 0ElseIf methode = 2 Thenstart = lEnd IfFor lll = start To lIf Vector(1, lll + 1) > 0 Thenh = M ^ (-lll) * TFor J = 1 + Anzahl(1, 1 + lll) - Vector(1, 1 + lll) To Anzahl(1, 1 + lll)ReDim inkremente(T / h, 2)ReDim S1(T / h + 1, 2)ReDim S2(T / h + 1, 2)'erstelle Vektor mi T/h ZufallszahlenIf lll > 0 ThenFor i = 1 To T / hnum = Application.WorksheetFunction.NormSInv(Rnd)inkremente(i, 1) = num * h ^ (0.5)Next i'Summiere Inkremente zu Gruppen der Größe M --> inkremente für P(l-1)If methode = 1 ThenFor i = 1 To T / h / MFor k = 1 To Minkremente(i, 2) = inkremente(i, 2) + inkremente(M * (i - 1) + k, 1)Next kNext iEnd IfElsenum = Application.WorksheetFunction.NormSInv(Rnd)inkremente(1, 1) = num * h ^ (0.5)End If'erstelle Pfad der Aktie (2 Pfade da im Falle l=1,2.... zwei Payoffs berechnet werden)If lll > 0 ThenS1(1, 1) = SOS2(1, 1) = SOFor i = 1 To T / h


S1(i + 1, 1) = S1(i, 1) + S1(i, 1) * r * h + S1(i, 1) * sigma * inkremente(i, 1)Next iIf methode = 1 ThenFor i = 1 To T / h / MS2(i + 1, 1) = S2(i, 1) + S2(i, 1) * r * h * M + S2(i, 1) * sigma * inkremente(i, 2)Next iEnd IfElseS1(1, 1) = SOFor i = 1 To T / hS1(i + 1, 1) = S1(i, 1) + S1(i, 1) * r * h + S1(i, 1) * sigma * inkremente(i, 1)Next iEnd IfIf optionswahl = 7 Or optionswahl = 8 ThenIf lll > 0 ThenS1(1, 2) = D0S2(1, 2) = D0For i = 1 To T / hS1(i + 1, 2) = S1(i, 2) + S1(i, 2) * r * h + S1(i, 2) * sigma * inkremente(i, 1)Next iIf methode = 1 ThenFor i = 1 To T / h / MS2(i + 1, 2) = S2(i, 2) + S2(i, 2) * r * h * M + S2(i, 2) * sigma * inkremente(i, 2)Next iEnd IfElseS1(1, 2) = D0For i = 1 To T / hS1(i + 1, 2) = S1(i, 2) + S1(i, 2) * r * h + S1(i, 2) * sigma * inkremente(i, 1)Next iEnd IfEnd If'erstelle Matrix mit PayoffsCall PayoffBerechnen(optionswahl, methode, lll, S1, S2, J, h)'ein Sample erstelltNext J'Varianzen bestimmenzahl = Anzahl(1, lll + 1)Variance(1, lll + 1) = Varianz(Differenz, lll + 1, zahl)End IfNext lll'Erwartungswerte der SamplesFor i = 0 To lFor J = 1 To Anzahl(1, i + 1)Erwartung(1, i + 1) = Erwartung(1, i + 1) + Differenz(i + 1, J)Next JErwartung(1, i + 1) = Erwartung(1, i + 1) / Anzahl(1, i + 1)


Next i'Konvergenzbedinung1If erweiterung = 1 ThenIf l >= 2 ThenIf methode = 1 Thenvar1 = max(Abs(Erwartung(1, l)) / M, Abs(Erwartung(1, l + 1)))ElseIf methode = 2 Thenvar1 = max(Abs(Erwartung(1, l) - Erwartung(1, l - 1)) / M, Abs(Erwartung(1, l + 1) - Erwartung(1, l)))End Ifvar2 = 1 / (2 ^ 0.5) * (M - 1) * epsIf var1 < var2 Thenzahlen = ll = LLEnd IfEnd IfEnd If'Konvergenzbedingung2If erweiterung = 2 ThenIf l >= 2 ThenIf methode = 1 Thenvar1 = Abs(Erwartung(1, l + 1) - Erwartung(1, l) / M)ElseIf methode = 2 Thenvar1 = Abs((Erwartung(1, l + 1) - Erwartung(1, l)) - (Erwartung(1, l) - Erwartung(1, l - 1)) / M)End Ifvar2 = 1 / (2 ^ 0.5) * ((M ^ 2) - 1) * epsIf var1 < var2 Then'Abbruch'MsgBox ("abbruch")zahlen = ll = LLEnd IfEnd IfEnd If'Ende äußere SchleifeNext l'Ergebnis <strong>und</strong> MSEIf zahlen > 0 ThenElsezahlen = l - 1End IfIf methode = 1 Then


summe = 0For i = 0 To zahlensumme = summe + Erwartung(1, i + 1)Next iIf erweiterung = 2 Thensumme = summe + (M - 1) ^ (-1) * Erwartung(1, zahlen + 1)End IfSheets("MC").Cells(14, 2) = summeElseIf methode = 2 Thensumme = 0summe2 = 0For i = 0 To zahlensumme2 = summe2 + Anzahl(1, i + 1)Next iIf erweiterung = 1 ThenFor i = 0 To zahlensumme = summe + Erwartung(1, i + 1) * Anzahl(1, i + 1)Next iEnd If'richardson für MLMCIf erweiterung = 2 ThenFor i = 1 To zahlensumme = summe + Anzahl(1, i + 1) * (Erwartung(1, i + 1) - Erwartung(1, i) / M)Next isumme = summe * M / (M - 1)summe = summe + Anzahl(1, 1) * Erwartung(1, 1)End IfSheets("MC").Cells(14, 2) = summe / summe2End If'MSEVarMSE = 0For i = 1 To zahlenVarMSE = VarMSE + Variance(1, i) / Anzahl(1, i)Next iIf methode = 1 ThenMSE = VarMSE + (Erwartung(1, zahlen + 1) / (M - 1)) ^ 2ElseIf methode = 2 ThenMSE = VarMSE + (Erwartung(1, zahlen + 1) / (M ^ 2 - 1)) ^ 2End IfCells(15, 2) = MSECells(18, 2) = zahlen'Grafik 1 (Varianz Payoffs)zahl = Anzahl(1, 1)Cells(2, 9) = Varianz(Payoff, 1, zahl)For i = 1 To zahlenCells(i + 2, 10) = Variance(1, i + 1)zahl = Anzahl(1, 1 + i)Cells(i + 2, 9) = Varianz(Payoff, 2 * i, zahl)Next i


'Grafik 2 (Erwartung Payoffs)Cells(2, 11) = Erwartung(1, 1)For i = 1 To zahlenCells(i + 2, 12) = Erwartung(1, i + 1)zahl = Anzahl(1, 1 + i)summe = 0For J = 1 To zahlsumme = summe + Payoff(2 * i, J)Next JCells(i + 2, 11) = summe / zahlNext i'Grafik 3 (Nl)For i = 0 To zahlenCells(i + 2, 14) = NlVector(1, i + 1)Next i'Grafik 4 (Computational Cost)C = 0If methode = 1 ThenC = NlVector(1, 1)For i = 1 To zahlenC = C + NlVector(1, i + 1) * (M ^ i + M ^ (i - 1))Next iElseIf methode = 2 ThenFor i = 0 To zahlenC = C + NlVector(1, i + 1) * M ^ iNext iEnd IfIf optionswahl = 7 Or optionswahl = 8 ThenC = 2 * CEnd IfCells(16, 2) = CEnd Sub----------------------------------------------------------------------------Function Varianz(Matrix As Variant, Zeile As Long, Laenge As Long) As DoubleDim i As LongDim Mittelwert As DoubleMittelwert = 0Varianz = 0For i = 1 To LaengeMittelwert = Mittelwert + Matrix(Zeile, i)Next iMittelwert = Mittelwert / LaengeFor i = 1 To LaengeVarianz = (Matrix(Zeile, i) - Mittelwert) ^ 2 + VarianzNext iVarianz = Varianz / (Laenge - 1)End Function


----------------------------------------------------------------------------Function PayoffEuler(hh As Double, SS As Variant, KK As Double) As DoubleIf SS(T / hh + 1, 1) > KK ThenPayoffEuler = (SS(T / hh + 1, 1) - KK) * Exp(-1 * r * T)ElsePayoffEuler = 0End IfEnd Function----------------------------------------------------------------------------Function PayoffAsian(hh As Double, SS As Variant, KK As Double) As DoubleDim Mittelwert As DoubleDim N, i As LongMittelwert = 0N = T / hhFor i = 1 To NMittelwert = Mittelwert + hh * 0.5 * (SS(i + 1, 1) + SS(i, 1))Next iIf Mittelwert > KK ThenPayoffAsian = Exp(-1 * r * T) * (Mittelwert - KK)ElsePayoffAsian = 0End IfEnd Function----------------------------------------------------------------------------Function PayoffLookback(hh As Double, SS As Variant, KK As Double) As DoubleDim minimum, beta As DoubleDim i As Longbeta = 0.5826minimum = SOFor i = 1 To T / hhIf SS(i * h + 1, 1) < minimum ThenSS(i * h + 1, 1) = minimumEnd IfNext iminimum = minimum * (1 - beta * sigma * hh ^ (0.5))PayoffLookback = (SS(T / hh + 1, 1) - minimum) * Exp(-1 * r * T)End Function


----------------------------------------------------------------------------Function PayoffDigital(hh As Double, SS As Variant, KK As Double) As DoubleIf SS(T / hh + 1, 1) > KK ThenPayoffDigital = 1 * Exp(-1 * r * T)ElsePayoffDigital = 0End IfEnd Function----------------------------------------------------------------------------Function PayoffDelta(hh As Double, SS As Variant, KK As Double) As DoubleIf SS(T / hh + 1, 1) > KK ThenPayoffDelta = (SS(T / hh + 1, 1) / SO) * Exp(-1 * r * T)ElsePayoffDelta = 0End IfEnd Function----------------------------------------------------------------------------Function PayoffDeltaAsian(hh As Double, SS As Variant, KK As Double) As DoubleDim Mittelwert As DoubleDim N, i As LongMittelwert = 0N = T / hhFor i = 1 To NMittelwert = Mittelwert + hh * 0.5 * (SS(i + 1, 1) + SS(i, 1))Next iIf Mittelwert > KK ThenPayoffDeltaAsian = Exp(-1 * r * T) * Mittelwert / SOElsePayoffDeltaAsian = 0End IfEnd Function----------------------------------------------------------------------------Function PayoffDelta2(hh As Double, SS As Variant, KK As Double) As DoubleIf SS(T / hh + 1, 1) > KK Then


PayoffDelta2 = SS(T / hh + 1, 2) * Exp(-1 * r * T)ElsePayoffDelta2 = 0End IfEnd Function----------------------------------------------------------------------------Function PayoffDelta2Asian(hh As Double, SS As Variant, KK As Double) As DoubleDim Mittelwert1, Mittelwert2 As DoubleDim N, i As LongMittelwert1 = 0Mittelwert2 = 0N = T / hhFor i = 1 To NMittelwert1 = Mittelwert1 + hh * 0.5 * (SS(i + 1, 1) + SS(i, 1))Mittelwert2 = Mittelwert2 + hh * 0.5 * (SS(i + 1, 2) + SS(i, 2))Next iIf Mittelwert1 > KK ThenPayoffDeltaAsian = Exp(-1 * r * T) * Mittelwert2ElsePayoffDeltaAsian = 0End IfEnd Function----------------------------------------------------------------------------Function max(ByVal x As Double, ByVal y As Double) As DoubleIf x > y Thenmax = xElsemax = yEnd IfEnd Function----------------------------------------------------------------------------Sub PayoffBerechnen(op As Integer, meth As Integer, laeng As Long, SS1 As Variant, SS2 As Variant, JJ As Long, hh As Double)'Payoffs für MLMCIf meth = 1 ThenIf op = 1 ThenIf laeng > 0 ThenPayoff(2 * laeng, JJ) = PayoffEuler(hh, SS1, Strike)Payoff(2 * laeng + 1, JJ) = PayoffEuler(hh * M, SS2, Strike)


Differenz(laeng + 1, JJ) = Payoff(2 * laeng, JJ) - Payoff(2 * laeng + 1, JJ)ElsePayoff(1, JJ) = PayoffEuler(hh, SS1, Strike)Differenz(laeng + 1, JJ) = Payoff(1, JJ)End IfElseIf op = 2 ThenIf laeng > 0 ThenPayoff(2 * laeng, JJ) = PayoffAsian(hh, SS1, Strike)Payoff(2 * laeng + 1, JJ) = PayoffAsian(hh * M, SS2, Strike)Differenz(laeng + 1, JJ) = Payoff(2 * laeng, JJ) - Payoff(2 * laeng + 1, JJ)ElsePayoff(1, JJ) = PayoffAsian(hh, SS1, Strike)Differenz(laeng + 1, JJ) = Payoff(1, JJ)End IfElseIf op = 3 ThenIf laeng > 0 ThenPayoff(2 * laeng, JJ) = PayoffLookback(hh, SS1, Strike)Payoff(2 * laeng + 1, JJ) = PayoffLookback(hh * M, SS2, Strike)Differenz(laeng + 1, JJ) = Payoff(2 * laeng, JJ) - Payoff(2 * laeng + 1, JJ)ElsePayoff(1, JJ) = PayoffLookback(hh, SS1, Strike)Differenz(laeng + 1, JJ) = Payoff(1, JJ)End IfElseIf op = 4 ThenIf laeng > 0 ThenPayoff(2 * laeng, JJ) = PayoffDigital(hh, SS1, Strike)Payoff(2 * laeng + 1, JJ) = PayoffDigital(hh * M, SS2, Strike)Differenz(laeng + 1, JJ) = Payoff(2 * laeng, JJ) - Payoff(2 * laeng + 1, JJ)ElsePayoff(1, JJ) = PayoffDigital(hh, SS1, Strike)Differenz(laeng + 1, JJ) = Payoff(1, JJ)End IfElseIf op = 5 ThenIf laeng > 0 ThenPayoff(2 * laeng, JJ) = PayoffDelta(hh, SS1, Strike)Payoff(2 * laeng + 1, JJ) = PayoffDelta(hh * M, SS2, Strike)Differenz(laeng + 1, JJ) = Payoff(2 * laeng, JJ) - Payoff(2 * laeng + 1, JJ)ElsePayoff(1, JJ) = PayoffDelta(hh, SS1, Strike)Differenz(laeng + 1, JJ) = Payoff(1, JJ)End IfElseIf op = 6 ThenIf laeng > 0 ThenPayoff(2 * laeng, JJ) = PayoffDeltaAsian(hh, SS1, Strike)Payoff(2 * laeng + 1, JJ) = PayoffDeltaAsian(hh * M, SS2, Strike)Differenz(laeng + 1, JJ) = Payoff(2 * laeng, JJ) - Payoff(2 * laeng + 1, JJ)ElsePayoff(1, JJ) = PayoffDeltaAsian(hh, SS1, Strike)Differenz(laeng + 1, JJ) = Payoff(1, JJ)End If


ElseIf op = 7 ThenIf laeng > 0 ThenPayoff(2 * laeng, JJ) = PayoffDelta2(hh, SS1, Strike)Payoff(2 * laeng + 1, JJ) = PayoffDelta2(hh * M, SS2, Strike)Differenz(laeng + 1, JJ) = Payoff(2 * laeng, JJ) - Payoff(2 * laeng + 1, JJ)ElsePayoff(1, JJ) = PayoffDelta2(hh, SS1, Strike)Differenz(laeng + 1, JJ) = Payoff(1, JJ)End IfElseIf op = 8 ThenIf laeng > 0 ThenPayoff(2 * laeng, JJ) = PayoffDelta2Asian(hh, SS1, Strike)Payoff(2 * laeng + 1, JJ) = PayoffDelta2Asian(hh * M, SS2, Strike)Differenz(laeng + 1, JJ) = Payoff(2 * laeng, JJ) - Payoff(2 * laeng + 1, JJ)ElsePayoff(1, JJ) = PayoffDelta2Asian(hh, SS1, Strike)Differenz(laeng + 1, JJ) = Payoff(1, JJ)End IfEnd If'Payoffs für MCElseIf meth = 2 ThenIf op = 1 ThenDifferenz(laeng + 1, JJ) = PayoffEuler(hh, SS1, Strike)ElseIf op = 2 ThenDifferenz(laeng + 1, JJ) = PayoffAsian(hh, SS1, Strike)ElseIf op = 3 ThenDifferenz(laeng + 1, JJ) = PayoffLookback(hh, SS1, Strike)ElseIf op = 4 ThenDifferenz(laeng + 1, JJ) = PayoffDigital(hh, SS1, Strike)ElseIf op = 5 ThenDifferenz(laeng + 1, JJ) = PayoffDelta(hh, SS1, Strike)ElseIf op = 6 ThenDifferenz(laeng + 1, JJ) = PayoffDeltaAsian(hh, SS1, Strike)ElseIf op = 7 ThenDifferenz(laeng + 1, JJ) = PayoffDelta2(hh, SS1, Strike)ElseIf op = 8 ThenDifferenz(laeng + 1, JJ) = PayoffDelta2Asian(hh, SS1, Strike)End IfEnd IfEnd Sub


Literaturverzeichnis[1] Bally, V.; Talay, D.: The law of the Euler scheme for stochastic differential equations,I: convergence rate of the distribution function, Probability Theory andRelated Fields, 104(1):43-60, 1995.[2] Bennet, Colin; Sharpley, Robert: Interpolation of Operators, Academic Press, 1988.[3] Cambanis, Stamatis; Hu, Yaozhong: Exact Convergence Rate of the Euler-Maruyama Scheme, with Application to Sampling Design, Stochastics: An InternationalJournal of Probability and Stochastic Processes, Volume 59, Issue 3 and4, pp. 211-240, 1996.[4] Avikainen, Rainer: Convergence Rates for Approximations of Functionals of SDEs.arXiv:0712.3626v1 [math.PR], 12/2007.[5] Avikainen, Rainer: On Irregular Functionals of SDEs and the Euler Scheme, Financeand Stochastics, Vol. 13, No. 3, pp. 381-401, 2009.[6] Giles, Michael B.: <strong>Multilevel</strong> <strong>Monte</strong> <strong>Carlo</strong> path simulation, Operations Research,Vol. 56, No. 3, pp. 607-617, 2008.[7] Giles, Michael B.: Improved multilevel <strong>Monte</strong> <strong>Carlo</strong> convergence using the Milsteinscheme, In: Keller, Alexander; Heinrich, Stefan; Niederreiter, Harald: <strong>Monte</strong> <strong>Carlo</strong>and Quasi-<strong>Monte</strong> <strong>Carlo</strong> Methods 2006, Springer, Berlin, 2008.[8] Glassermann, Paul: <strong>Monte</strong> <strong>Carlo</strong> Methods in Financial Engineering, Springer, NewYork, 2004.[9] Guyon, Julien: Euler Scheme and Tempered Distributions, Stochastic ProcessesAppl. 116, No. 6, 877-904, 2006.89


[10] Hull, John C.: Options, Futures and Other Derivatives, Pearson Prentice Hall, 6thedition, New Jersey, 2005.[11] Karatzas, Ioannis; Shreve, Steven E.: Brownian Motion and Stochastic Calculus,Springer, New York, 1988.[12] Klenke, Achim:: Wahrscheinlichkeitstheorie, Springer, Berlin, 2006.[13] Kloeden, Peter E.: Skript zur Vorlesung: Numerik stochastischer Differenzialgleichungen,Vorlesungsskript, Frankfurt, 2007.[14] Kloeden, Peter E.; Platen, Eckhard: Numerical Solution of Stochastic DifferentialEquations, Springer, 2nd ed. corr. print., Berlin, 1995.[15] Königsberger, Konrad: Analysis 2, Springer, 5. Auflage, Berlin, 2004.[16] Neininger, Ralph: Höhere Stochastik, Vorlesungsskript, Frankfurt, 2007.[17] Rudin, W.: Real and Complex Analysis, Second Edition, 1966, 1974.[18] Schmidli, Hanspeter: Wahrscheinlichkeitstheorie I, Vorlesungsskript, Köln, 2009.URL: http://www.mi.uni-koeln.de/ schmidli/vorl/Stoch1/mart.pdf (abgerufen 15.Oktober 2009)90

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!