Quantitatives Risikomanagement - Bergische Universität Wuppertal

January 14, 2018 | Author: Anonymous | Category: Mathematik, Statistik Und Wahrscheinlichkeitsrechnung
Share Embed Donate


Short Description

Download Quantitatives Risikomanagement - Bergische Universität Wuppertal...

Description

Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer Bergische Universität Wuppertal Dozent: M.Sc. Brice Hakwa 21. August 2011

Inhaltsverzeichnis 1 Einleitung

1

2 Copula 2.1 Definition der Copula . . . . . . . . . . . 2.2 Der Satz von Sklar . . . . . . . . . . . . . 2.3 Invarianz unter streng monoton steigenden 2.4 Beispiele für Copulas . . . . . . . . . . . . 2.4.1 Die Gauß-Copula . . . . . . . . . . 2.4.2 Die Gumbel-Copula . . . . . . . .

2 2 3 5 5 5 6

. . . . . . . . . . . . . . . . . . . . . . Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

3 Konzepte der Abhängigkeitsmodellierung 3.1 Lineare Korrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Definition der linearen Korrelation . . . . . . . . . . . . . . . . . . . . 3.1.2 Vor- und Nachteile der linearen Korrelation . . . . . . . . . . . . . . . Exkurs: Sphärische und elliptische Verteilungen . . . . . . . . . . . . . . . . . E.1 Sphärische Verteilungen . . . . . . . . . . . . . . . . . . . . . . . E.2 Elliptische Verteilungen . . . . . . . . . . . . . . . . . . . . . . . E.3 Korrelation und Kovarianz als natürliche Abhängigkeitsmaße in Welt elliptischer Verteilungen . . . . . . . . . . . . . . . . . . E.4 Kovarianz und elliptische Verteilungen im Risikomanagement . . 3.2 Alternative Abhängigkeitsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Komonotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1.1 Fundamentale Copulas . . . . . . . . . . . . . . . . . . . . . 3.2.1.2 Die Schranken von Fréchet . . . . . . . . . . . . . . . . . . . 3.2.2 Rangkorrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 Tail Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3.1 Definition der Tail Abhängigkeit . . . . . . . . . . . . . . . . 3.2.3.2 Tail-Abhängigkeitskoeffizienten für Beispiel-Copulas . . . . . 3.2.4 Konkordanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Irrtümer bzgl. Korrelation und 4.1 Irrtum 1 . . . . . . . . . . 4.2 Irrtum 2 . . . . . . . . . . 4.3 Irrtum 3 . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . . . . . . . . . . . . . . der . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7 7 7 7 9 9 10 11 12 14 14 15 15 16 17 18 20 21 23 23 24 25

5 Fazit

26

Literaturverzeichnis

27

1 Einleitung Diese Ausarbeitung thematisiert die Modellierung von Abhängigkeiten in Anlehnung an die Arbeit „Correlation And Depedency In Risk Management: Properties And Pitfalls“ von Embrechts, McNeil und Straumann. Die Modellierung von Abhängigkeiten zwischen Zufallsvariablen gehört zu den grundlegenden Aufgabenstellungen in wirtschaftsmathematischen Anwendungsbereichen. Mathematische Modelle finden dabei heutzutage nicht nur in der Finanz- und Versicherungsbranche Anwendung. Sie gewinnen auch in Industrie-Unternehmen mit integriertem Risikomanagement immer größere Bedeutung, da Risiken durch Zufallsvariablen beschrieben werden können und mithilfe von Abhängigkeitsmaßen das Zusammenspiel verschiedener solcher Risiken modelliert werden kann. Typischerweise wird zur Modellierung von Abhängigkeiten das Maß der linearen Korrelation herangezogen. Im Verlauf dieser Arbeit wird sich zeigen, dass mit der Verwendung der linearen Korrelation zur Beschreibung von Abhängigkeiten durchaus einige Vorteile einhergehen. Besonders im Hinblick auf bestimmte Verteilungsklassen erweist sie sich als sehr geeignet. Wie diese Ausarbeitung jedoch auch aufzeigt, ist bei der Verwendung der linearen Korrelation Vorsicht geboten. Es werden verschiedene Nachteile dieses Abhängigkeitsmaßes aufgezeigt, welche deutlich machen, dass andere Arten solcher Maße für bestimmte Anwendungsgebiete sinnvoller sein können. Einige alternative Abhängigkeitsmaße lassen sich mit Kenntnissen über sogenannte Copulas herleiten, weshalb in Kapitel 2 zunächst die Grundlagen dieses Themas angeführt werden. In dieser Ausarbeitung werden speziell vier solcher alternativer Maße vorgestellt; es handelt sich um: • Komonotonie • Rangkorrelation • Tail Abhängigkeit • Konkordanz Abschließend werden drei klassische Irrtümer bezüglich linearer Korrelation und der Abhängigkeit zwischen Zufallsvariablen präsentiert, die in der Arbeit von Embrechts, McNeil und Straumann zum Ausdruck kommen.

1

2 Copula Zu Beginn dieser Ausarbeitung sollen zunächst einmal wichtige Grundlagen geschaffen werden, die für das Verständnis der späteren Ausführungen von großer Bedeutung sind. Verschiedenste Maße zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen lassen sich mithilfe von Copulas formulieren. Aus diesem Grund werden die wichtigsten Aspekte der Copulas in diesem Abschnitt angeführt.

2.1 Definition der Copula Gegeben seien n Zufallsvariablen X1 , . . . , Xn . Die Abhängigkeit zwischen diesen Zufallsvariablen wird bekanntermaßen vollständig durch ihre gemeinsame Verteilungsfunktion F beschrieben.1 F (x1 , . . . , xn ) = P (X1 ≤ x1 , . . . , Xn ≤ xn ) Geht man beispielsweise davon aus, dass mit den Zufallsvariablen X1 , X2 zwei Risiken modelliert werden sollen, so lässt sich mithilfe der gemeinsamen Verteilungsfunktion F z.B. die wichtige Frage klären, „wie hoch die Wahrscheinlichkeit ist, gleichzeitig sowohl beim Risiko X1 einen Verlust von höchstens x1 als auch beim Risiko X2 einen Verlust von höchstens x2 zu erleiden“.2 Die grundsätzliche Idee ist es also, die Modellierung der Abhängigkeit zwischen Zufallsvariablen in geeigneter Weise auf die gemeinsame Verteilungsfunktion zurückzuführen. Dafür wird zunächst der folgende Satz benötigt. Satz 2.1. 3 Sei X eine Zufallsvariable mit zugehöriger Verteilungsfunktion F . Sei weiterhin F −1 die Quantilfunktion zu F , also F −1 (α) = inf {x | F (x) ≥ α}, wobei α ∈ (0, 1). Dann gilt 1. Für jede standard-gleichverteilte Zufallsvariable U ∼ U (0, 1) ist F −1 (U ) ∼ F . 2. Wenn F stetig ist, so ist die Zufallsvariable F (X) standard-gleichverteilt, also F (X) ∼ U (0, 1). Unter der Voraussetzung, dass die X1 , . . . , Xn stetige Randverteilungsfunktionen F1 , . . . , Fn besitzen, kann man den Vektor X = (X1 , . . . , Xn )0 mithilfe des Punktes zwei aus dem obigen Satz derart transformieren, dass jede Komponente eine standard-gleichverteilte Randverteilung besitzt. Benötigt wird hierfür eine Transformation T : Rn → Rn , die das Tupel (x1 , . . . , xn )0 abbildet auf (F1 (x1 ), . . . , Fn (xn ))0 . Dann gilt: F (x1 , . . . , xn ) = P (F1 (X1 ) ≤ F1 (x1 ), . . . , Fn (Xn ) ≤ Fn (xn )) = C(F1 (x1 ), . . . , Fn (xn )). Dabei stellt C die gemeinsame Verteilungsfunktion des transformierten Vektors (F1 (X1 ), . . . , Fn (Xn ))0 dar. Man nennt C die Copula des Zufallsvektors (X1 , . . . , Xn )0 .4

1

Vgl. [2] S. 4 [1] S. 265 3 Vgl. [2] S. 4 4 Vgl. [2] S. 4 2

2

Definition 2.1. 5 Eine n-dimensionale Copula ist eine Verteilungsfunktion eines Zufallsvektors X ∈ Rn , deren Randverteilungen alle (0,1)-gleichverteilt sind.

Bemerkung 2.1. Äquivalent zur obigen Definition kann eine Copula definiert werden als Funktion C : [0, 1]n → [0, 1] mit drei Eigenschaften: 1. C(x1 , . . . , xn ) ist monoton steigend in jeder Komponente xi . 2. C(1, . . . , 1, xi , 1, . . . , 1) = xi ∀ i ∈ {1, . . . , n}, xi ∈ [0, 1]. 3. Für alle (a1 , . . . , an ), (b1 , . . . , bn ) ∈ [0, 1]n , mit ai ≤ bi gilt: 2 P i1 =1

...

2 P

(−1)i1 +...+in C(x1i1 , . . . , xnin ) ≥ 0,

in =1

mit xj1 = aj und xj2 = bj ∀ j ∈ {1, . . . , n}. Diese Summe kann interpretiert werden als: P (a1 ≤ X1 ≤ b1 , . . . , an ≤ Xn ≤ bn ) ≥ 0. Es kann also festgehalten werden, dass die Idee bei Verwendung einer Copula ist, die gemeinsame Verteilungsfunktion F , welche die Abhängigkeitsstrutktur vollständig wiederspiegelt, in zwei Komponenten aufzuteilen. Die Copula ermöglicht eine sehr flexible Modellierung da hier die Verteilung der einzelnen Zufallsvariablen über die eindimensionalen Randverteilungen festgelegt werden kann, während der Copula einzig die Rolle zukommt, die Abhängigkeit zwischen den Zufallsvariablen zu definieren.

2.2 Der Satz von Sklar Der Satz von Sklar ist der wohl bedeutendste Satz in Bezug auf Copulas. Seine Bedeutung für die Abhängigkeitsmodellierung mittels Copulas soll in diesem Abschnitt verdeutlicht werden. Satz 2.2.

6

1. Sei F eine multivariate Verteilungsfunktion mit Randverteilungsfunktionen F1 , . . . , Fn . So existiert eine Copula C : [0, 1]n → [0, 1], sodass für alle x1 , . . . , xn ∈ R gilt F (x1 , . . . , xn ) = C(F1 (x1 ), . . . , Fn (xn )). Die Herleitung hierfür wurde bereits in Abschnitt 2.1 erläutert. Falls F1 , . . . , Fn stetig sind, so ist die Copula C sogar eindeutig bestimmt. 2. Seien nun umgekehrt eine Copula C sowie die eindimensionalen Verteilungsfunktionen F1 , . . . , Fn gegeben, dann ist die durch F (x1 , . . . , xn ) = C(F1 (x1 ), . . . , Fn (xn )). definierte Verteilungsfunktion eine multivariate Verteilung mit den vorgegebenen Randverteilungen F1 , . . . , Fn . Im Folgenden sollen die beiden zentralen Aussagen dieses Satzes erläutert werden.7 5

Vgl. [2] S. 4 Vgl. [1] S. 266 7 Vgl. [1] S. 266 6

3

Der erste Teil des Satzes gibt an, dass es möglich ist eine beliebige multivariate Verteilung in ihre Randverteilungen einerseits und in eine Copula andererseits aufzuteilen.

eindimensionale Randverteilungen

F 1 ,…,F n multivariate Verteilungsfunktion

F Copula

C

Abbildung 2.1: Visualisierung des Satzes von Sklar (1.) Der Satz von Sklar gibt jedoch lediglich an, dass die oben dargestellte Überführung möglich ist. Wie dies umgesetzt werden kann, wird hingegen nicht deutlich. Es ist jedoch klar, dass bei gegebener multivariater Verteilungsfunktionen die eindimensionalen Randverteilungen bestimmt werden können. Um bei bekannter multivariater Verteilung F , sowie der Randverteilungen F1 , . . . , Fn zu einer Copula C zu gelangen, sind folgende Überlegungen möglich. Sind nämlich Zufallsvariablen X1 , . . . , Xn mit zugehörigen Verteilungsfunktionen F1 , . . . , Fn gegeben und sei ui = P (Xi ≤ xi ) = Fi (xi ) und daher ui ∈ [0, 1] für alle i ∈ {1, . . . , n}, so folgt: C(u1 , . . . , un ) = F (F1−1 (u1 ), . . . , Fn−1 (un )). Der zweite Teil des Satzes stellt quasi eine Umkehrung des ersten Teiles dar. Hier bietet der Satz von Sklar eine Möglichkeit, aus n gegebenen einzelnen Verteilungen und einer Copula eine gemeinsame Verteilungsfunktion zu konstruieren.8 Dies kann einfach umgesetzt werden, indem man die einzelnen Verteilungsfunktionen F1 , . . . , Fn in die gegebene Copula C einsetzt. Die dadurch erhaltene Funktion F ist dann eine gemeinsame Verteilungsfunktion, die tatsächlich die F1 , . . . , Fn als Randverteilungen besitzt.

eindimensionale Randverteilungen

F 1 ,…,F n multivariate Verteilungsfunktion

F Copula

C

Abbildung 2.2: Visualisierung des Satzes von Sklar (2.) „Aus Sicht des Risikomanagements ist die Aussage 2. einer der Hauptgründe, die für den Einsatz von Copulas sprechen, denn sie gestattet es, die Modellierung des gemeinsamen Risikos [modelliert durch Zufallsvariablen] in zwei getrennte Schritte aufzuteilen: • Modellierung der Einzelrisiken, d.h. der Verteilungen F1 , . . . , Fn • Wahl eines geeigneten Copula-Modells C, das alle Informationen über die Abhängigkeiten zwischen den Einzelrisiken enthält.“ 9 8 9

Vgl. [1] S. 266 [1] S. 266-267

4

Fasst man dabei die Risiken mithilfe von Copulas zusammen, geht keinerlei Information über die Einzelrisiken verloren, da die Einzelverteilungen gemäß Satz 2.2 als Randverteilungen erhalten bleiben.10

2.3 Invarianz unter streng monoton steigenden Transformationen Copulas besitzen eine Eigenschaft, die für praktische Anwendungen sehr nützlich ist. Die Abhängigkeitsstruktur, welche durch eine Copula ausgedrückt wird, ist invariant unter streng monoton steigenden, stetigen Transformationen T : R → R der Randverteilungen.11 Satz 2.3. 12 Sei C die Copula zu (X1 , . . . , Xn )0 . Dann ist C für alle streng monoton steigenden, stetigen Transformationen T1 , . . . , Tn ebenfalls die Copula zu (T1 (X1 ), . . . , Tn (Xn ))0 . Bemerkung 2.2. 13 Falls sämtliche Randverteilungen von X stetig sind, kann im obigen Satz auf die Stetigkeit der Transformationen verzichtet werden. Diese Eigenschaft der Copulas bietet - besonders im Hinblick auf die Modellierung von Risiken - enorme Vorteile. Hat man z.B. die Abhängigkeit von Verlusten mehrerer Einzelrisiken mittels einer Copula modelliert und verwendet dabei absolute Euro-Beträge, so kann bei dem Übergang zu einem Modell in Dollar-Beträgen weiterhin dieselbe Copula verwendet werden. Die Randverteilungen, die die Verteilungen der Einzelrisiken modellieren, müssen hingegen in der Regel an die neuen Skalen angepasst werden.14

2.4 Beispiele für Copulas In diesem Abschnitt sollen zwei klassische Beispiele für häufig verwendete Copulas vorgestellt werden.15 Zur Vereinfachung werden dabei ausschließlich zweidimensionale Copulas betrachtet.16 Sind also zwei Zufallsvariablen X und Y mit zugehörigen Verteilungsfunktionen F1 und F2 gegeben. Sei u1 = P (X ≤ x) = F1 (x) und u2 = P (Y ≤ y) = F2 (y), also u1 , u2 ∈ [0, 1]. Wie in Abschnitt 2.2 gezeigt wurde gilt dementsprechend: C(u1 , u2 ) = F (F1−1 (u1 ), F2−1 (u2 )). 2.4.1 Die Gauß-Copula Bei der Gauß-Copula sind die Randverteilungen F1 und F2 als univariate Normalverteilungen vorgegeben. Die gemeinsame Verteilung F , stellt hier die bivariate Normalverteilung dar. Definition 2.2. Sei Φρ die Verteilungsfunktion der bivariaten Normalverteilung N2 (0, Ψ), wobei   1 ρ Ψ= ρ 1

10

Vgl. [1] S. 267 Vgl. [2] S. 6 12 Vgl. [2] S. 6 13 Vgl. [2] S. 6 14 Vgl. [2] S. 267 15 Für weitere Beispiele verweisen wir auf [1]. 16 Vgl. [1] S. 268-271 11

5

die Korrelationsmatrix mit Korrelationskoeffizienten ρ = ρ(X, Y ) = √

Cov(X,Y ) Var(X)·Var(Y )

darstellt.

Es bezeichne weiterhin Φ die Verteilungsfunktion der univariaten Normalverteilung. Dann ergibt sich die Gauß-Copula gemäß (*) als: CρGa (u1 , u2 ) = Φρ (Φ−1 (u1 ), Φ−1 (u2 )). Dies lässt sich formulieren als: R Φ−1 (u ) R Φ−1 (u ) CρGa (u1 , u2 ) = −∞ 1 −∞ 2

√1 2π

1−ρ

exp 2



−(s21 −2ρs1 s2 +s22 ) 2(1−ρ2 )



ds1 ds2 .

Die Darstellung der Gauß-Copula in einer geschlossenen Form ist also nicht möglich. Zur Berechnung bedarf es daher Methoden der numerischen Integration. Sind anders herum die Gauß-Copula sowie zwei normalverteilte Risiken X und Y mit den Verteilungsfunktionen F1 und F2 und Korrelationskoeffizient ρ gegeben, so ergibt sich: F (x, y) = CρGa (F1 (x), F2 (y)). Dabei stellt F nun die multivariate Normalverteilung dar. „Das heißt, die Gauß-Copula ist genau diejenige Copula, die mehrere univariate Normalverteilungen zu einer multivariaten Normalverteilung zusammenführt.“ 17 Das heißt: Φρ (x, y) = CρGa (Φ(x), Φ(y)). 2.4.2 Die Gumbel-Copula Ein weiteres oft verwendetes Beispiel für eine Copula ist die sogenannte Gumbel-Copula. Definition 2.3.

18

Für einen Parameter Θ ∈ (0, 1] ist die Gumbel-Copula definiert durch:   Θ  1 1 Gu Θ Θ CΘ (u1 , u2 ) = exp − (−log u1 ) + (−log u2 ) ) .

Im Gegensatz zu der im vorigen Abschnitt vorgestellten Gauß-Copula existiert für die GumbelCopula also eine explizite Darstellungsweise, welche die Berechnung ohne Einsatz aufwändiger numerischer Integrationsmethoden ermöglicht. Wird die Abhängigkeit zwischen Zufallsvariablen mittels der Gumbel-Copula modelliert, ist es mithilfe des Parameters Θ möglich, sämtliche positiven Abhängigkeitsstrutkturen zwischen Unabhängigkeit (Θ = 1) und perfekter Abhängigkeit (Θ → 0) abzudecken.

17 18

[1] S. 269 Vgl. [2] S. 5

6

3 Konzepte der Abhängigkeitsmodellierung In diesem Hauptkapitel werden verschiedene Konzepte der Abhängigkeitsmodellierung zwischen Zufallsvariablen vorgestellt. Dabei werden für jedes Maß zunächst die nötigen Definitionen sowie wichtige Eigenschaften angeführt, um anschließend wesentliche Unterschiede zwischen den verschiedenen Abhängigkeitsmaßen sowie deren jeweilige Vor- und Nachteile deutlich zu machen.

3.1 Lineare Korrelation Das wohl am häufigsten verwendete Maß zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen stellt die Korrelation dar. Die Idee dieses Maßes ist es, die Stärke des linearen Zusammenhangs zwischen zwei Zufallsvariablen in Form einer Maßzahl - dem Korrelationskoeffizienten - auszudrücken. 3.1.1 Definition der linearen Korrelation Definition 3.1. Der Pearsonsche bzw. lineare Korrelationskoeffizient zweier Zufallsvariablen X und Y (mit 0 < Var(X) < ∞ und 0 < Var(Y ) < ∞), ist definiert als: Cov(X, Y ) ρ(X, Y ) = p Var(X) · Var(Y ) „Die Korrelation ist also die durch das Produkt der Standardabweichungen normierte Kovarianz; es gilt stets ρ(X, Y ) ∈ [−1, 1].“ 19 In Abhängigkeit des Korrelationskoeffizienten werden drei spezielle Fälle unterschieden: • Ist ρ(X, Y ) = 0, so spricht man von unkorrelierten Zufallsvariablen. Es besteht also kein linearer Zusammenhang zwischen X und Y . • Im Fall ρ(X, Y ) = +1 handelt es sich um perfekte lineare Abhängigkeit im positiven Sinn. • Gilt hingegen ρ(X, Y ) = −1, so liegt perfekte lineare Abhängigkeit im negativen Sinn vor. Bemerkung 3.1. Um von dem Fall zweier Zufallsvariablen X und Y auf den allgemeineren Fall von n Zufallsvariablen X = (X1 , . . . , Xn )0 überzugehen, werden zwei Matrizen eingeführt. Die Kovarianzmatrix Cov(X) bzw. die Korrelationsmatrix ρ(X) enthält an Position (i, j) den Eintrag Cov(Xi , Xj ) bzw. ρ(Xi , Xj ).

3.1.2 Vor- und Nachteile der linearen Korrelation Die Tatsache, dass die lineare Korrelation derart häufig als Abhängigkeitsmaß eingesetzt wird, hat mehrere Gründe.20 Zunächst einmal kann festgehalten werden, dass der Korrelationskoeffizient in der Regel sehr einfach zu bestimmen ist, da die Berechnung der zweiten Momente für viele bivariate Verteilungen sehr einfach ist. Dahingegen ist die Bestimmung vieler der im weiteren Verlauf der Ausarbeitung vorgestellten Maße komplizierter.

19 20

[1] S. 250 Vgl. [2] S. 7

7

Zudem kann die Bestimmung der Korrelation von linear transformierten Zufallsvariablen sehr elegant erfolgen, wie folgende Ausführungen zeigen.21 Seien a, c ∈ R \ {0} und b, d ∈ R. Dann ist Cov(aX + b, cY + d) = ac · Cov(X, Y ) und daher ρ(aX + b, cY + d) =

a c · · ρ(X, Y ) |a| |c|

Das bedeutet insbesondere, dass die Korrelation invariant unter positiven affinen Transformationen ist, da im Falle a, c > 0 gilt: ρ(aX + b, cY + d) = ρ(X, Y ). Ein weiterer Grund für die Beliebtheit der Korrelation ist, dass für multivariate sphärische und elliptische Verteilungen die gesamte Abhängigkeitsstruktur zweier Zufallsvariablen vollständig durch die Korrelation beschrieben werden kann.22 Insbesondere gilt für eine elliptisch verteilte Zufallsvariable X also, dass sie endliche Varianz besitzt - also V ar(X) < ∞ - sodass der lineare Korrelationskoeffizient für elliptische Verteilungen wohldefiniert ist. Zu dieser Klasse von Verteilungen zählt unter anderem die multivariate Normalverteilung, die aufgrund ihrer vielseitigen Anwendungsbereiche den Einsatz des Korrelationskoeffizienten als Abhängigkeitsmaß oftmals sehr sinnvoll macht. Wie man zu dieser zentralen Aussage gelangt wird in dem nachfolgenden Exkurs verdeutlicht. Jedoch gehen mit der Verwendung der Korrelation als Abhängigkeitsmaß auch einige Probleme und Irrtümer einher.23 Besitzt eine Zufallsvariable X eine Verteilung, bei der die Varianz nicht endlich ist, wie es z.B. bei den „heavy-tailed“ Verteilungen der Fall ist, so ist der Korrelationskoeffizient nicht definiert. Diese Eigenschaft schränkt die Anwendbarkeit der Korrelation als Abhängigkeitsmaß ein und verursacht beispielsweise dann Probleme, wenn Verteilungen mit hohen Wahrscheinlichkeiten für extreme Ereignisse vorliegen. Ein großer Nachteil der Korrelation ist, dass diese lediglich den linearen Zusammenhang zwischen Zufallsvariablen misst, sodass nichtlineare Abhängigkeiten nicht erkannt werden. Dies hat zur Folge, dass ρ(X, Y ) = 0 nicht unbedingt bedeutet, dass die beiden Zufallsvariablen X und Y unabhängig sind, jedoch kann ein linearer Zusammenhang ausgeschlossen werden. Sind X und Y hingegen unabhängig, so besteht überhaupt kein Zusammenhang zwischen diesen beiden Zufallsvariablen, also auch kein linearer. Es ist klar, dass dann stets ρ(X, Y ) = 0 gilt. Der einzige Fall, in dem Unkorreliertheit mit Unabhängigkeit einhergeht ist, falls sowohl die gemeinsame Verteilung, als auch die Randverteilungen normalverteilt sind. Des Weiteren ist anzumerken, dass die Korrelation, wie oben gezeigt, zwar invariant unter positiven affinen Transformationen ist, jedoch nicht unter nichtlinearen streng monoton steigenden Transformationen T : R → R. Das bedeutet, dass i.A. ρ(T (X), T (Y )) 6= ρ(X, Y ) ist. In Kapitel 2.2 wurde bereits gezeigt, dass diese Eigenschaft für Copulas hingegen sehr wohl gilt. Die nachfolgende Abbildung 3.1 fasst das bedeutendste Problem in Bezug auf die Verwendung der Korrelation als Abhängigkeitsmaß zusammen. Obwohl sowohl dem linken, als auch dem rechten Plot die selben Randverteilungen und die gleiche Korrelation zugrunde liegen, ist deutlich zu erkennen, dass sich die Abhängigkeitsstrukturen unterscheiden. Dies bedeutet, dass es für zwei Zufallsvariablen X und Y , deren Verteilungen und Korrelationskoeffizient bekannt sind i.A., eine Vielzahl von Verteilungsmodellen gibt, die die geforderten Randverteilungen sowie die vorgegebene Korrelation erfüllen.24 Unter Verwendung der Korrelation allein, kann also die Abhängigkeit zwischen Zufallsvariablen i.A. also nicht exakt beschrieben werden. 21

Vgl. Vgl. 23 Vgl. 24 Vgl. 22

[1] [1] [2] [1]

S. S. S. S.

254 254 7-8 und [1] S. 254 254

8

Abbildung 3.1: Realisationen zweier Zufallsvariablen mit identischer Randverteilung und gleicher Korrelation, aber unterschiedlicher Abhängigkeitsstruktur.25 Exkurs: Sphärische und elliptische Verteilungen Wie in Abschnitt 3.1.2 bereits angesprochen, ist es für den Spezialfall sphärisch bzw. elliptisch verteilter Zufallsvariablen möglich, die komplette Abhängigkeitsstruktur mittels der linearen Korrelation auszudrücken. Um deutlich zu machen, warum die Korrelation für diese Verteilungen ein sinnvolles Maß zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen bietet, ist es erforderlich diese näher zu betrachten. E.1 Sphärische Verteilungen Sphärische Verteilungen stellen eine Erweiterung der multivariaten Normalverteilung Nn (0, I) dar. Sie bilden also eine Klasse symmetrischer Verteilungen für unkorrelierte Zufallsvariablen (Kovarianzmatrix entspricht Einheitsmatrix) mit Mittelwert null.26 Definition 3.2. 27 Ein Zufallsvektor X = (X1 , . . . , Xn )0 hat eine sphärische Verteilung, wenn für jede orthogonale Matrix U ∈ Rn×n (also U 0 U = U U 0 = In×n ) die folgende Gleichung erfüllt ist. d

U X = X2 d

Bemerkung 3.2. A = B bedeutet dabei „A besitzt dieselbe Verteilung wie B“. Definition 3.3. 28 Für alle t ∈ Rn ist die charakteristische Funktion ψ : Rn → C einer ndimensionalen Zufallsvariablen X definiert als: ψX (t) = E(exp(it0 X))

Die charakteristische Funktion sphärischer Verteilungen nimmt eine sehr einfache Form an, denn 25

Quelle: [3] S.16 Vgl. [2] S. 8 27 Vgl. [2] S. 8 28 Vgl. [2] S. 8 26

9

+ 0 2 2 es existiert eine Funktion γ : R+ 0 → R0 , sodass ψ(t) = γ(t t) = γ(t1 + . . . + tn ). Die Funktion γ wird auch als charakteristischer Generator der sphärischen Verteilung bezeichnet.29 Man schreibt daher auch:

X ∼ Sn (γ). Bemerkung 3.3.

30

• Es gilt zu beachten, dass sphärische Verteilungen i.A. Verteilungen unkorrelierter - nicht jedoch unabhängigier - Zufallsvariablen darstellen. • Die multivariate Normalverteilung ist die einzgie Verteilung unter den sphärischen Verteilungen, bei der die Zufallsvariablen auch unabhängig sind. d

• X ∼ Sn (γ) ist äquivalent zu X = RU , wobei U auf der Einheitskugel Sn−1 = {x ∈ R|x0 x = 1} gleichverteilt ist und R ≥ 0 eine von U unabhängige Zufallsvariable darstellt. Sphärische Verteilungen können also interpretiert werden als n-dimensionale Gleichverteilungen auf Umgebungen mit verschiedenen Radien.

E.2 Elliptische Verteilungen P Elliptische Verteilungen stellen eine Erweiterung der multivariaten Normalverteilung Nn (µ, ) dar. Mathematisch gesehen ergeben sich die elliptischen Verteilungen als affine Transformationen sphärischer Verteilungen im Rn .31 P Sie bilden also eine Klasse symmetrischer Verteilungen mit Mittelwert µ und Kovarianzmatrix . Definition 3.4. 32 Sei eine affine Transformation T : Rn → Rn , x 7→ Ax + µ, A ∈ Rn×n , µ ∈ Rn gegeben. Ein Zufallsvektor X ∈ Rn hat eine elliptische Verteilung, falls X = T (Y ), wobei Y ∼ Sn (γ). Die charakteristische Funktion ist gegeben als: P ψ(t) = E(exp(it0 X)) = E(exp(it0 (AY + µ)) = exp(it0 µ)exp(i(A0 t)0 Y ) = exp(it0 µ)γ(t0 t), P mit = AA0 . Dass ein Zufallsvektor X eine elliptische Verteilung besitzt, wird folgendermaßen ausgedrückt: P X ∼ En (µ, , γ). Bemerkung 3.4.

33

• Die Kenntnis über die Verteilung von X bestimmt lediglich den Parameter µ in eindeutiger P Weise. und γ sind hingegen lediglich bis auf eine positive Konstante bestimmt. P • Es ist möglich so zu wählen, dass sie die Kovarianzmatrix von X darstellt. Sei dazu P P d X ∼ En (µ, , γ), sodass X = AY + µ, mit = AA0 und Y ∼ Sn (γ). Laut Bemerkung 2.3 d

gilt daher Y = RU , wobei U auf der Einheitskugel Sn−1 gleichverteilt ist und R ≥ 0 eine von U unabhängige Zufallsvariable darstellt. Falls E(R2 ) < ∞, so ist: 29

Vgl. Vgl. 31 Vgl. 32 Vgl. 33 Vgl. 30

[2] [2] [2] [2] [2]

S. S. S. S. S.

8 9 9 9 9

10

∗ E(X) = µ 0

2

P

2

) ) ∗ Cov(X) = AA E(R = E(R , da Cov(U ) = n n P gewährleistet man Cov(X) = .

In×n n .

u Durch Wahl von γ˜ = γ( n/E(R 2) )

• Das bedeutet, dass eine elliptische Verteilung eindeutig definiert wird durch Kenntnis des Mittelwerts, der Kovarianzmatrix und des charakteristischen Generators. Dies heißt insbesondere, dass die Varianz einer elliptisch verteilten Zufallsvariable X endlich ist. Aus diesem Grund ist der lineare Korrelationskoeffizient für elliptische Verteilungen wohldefiniert.

E.3 Korrelation und Kovarianz als natürliche Abhängigkeitsmaße in der Welt elliptischer Verteilungen In diesem Abschnitt werden einige Gründe angeführt, die deutlich machen, dass die Korrelation und die Kovarianz in gewisser Hinsicht „natürliche Abhängigkeitsmaße“ in der Welt elliptischer Verteilungen sind.34 Eine sehr nützliche Eigenschaft der elliptischen Verteilungen ist, dass bei Kenntnis des Mittelwerts, der Kovarianzmatrix und des charakteristischen Generators einer elliptisch verteilten Zufallsvariablen X die entsprechenden Parameter für Linearkombinationen, die Randverteilungen und bedingte Verteilungen von X leicht zu bestimmen sind. Die folgenden Eigenschaften fassen dies zusammen:35 • Jede Linearkombination eines elliptisch verteilten Zufallsvektors ist selbst wieder elliptisch verteiltPund besitzt dabei sogar den selben charakteristischen Generator. P 0 Sei dafür X ∼ m×n m En (µ, , γ), B ∈ R und b ∈ R , so ist BX + b ∼ Em (Bµ + b, B B , γ). Die X1 , . . . , Xn sind alle symmetrisch verteilte Zufallsvariablen des selben Typs. Letzteres d bedeutet Xi = aXj + b mit a > 0 und b ∈ R. • Die Randverteilungen elliptischer Verteilungen sind ebenfalls  elliptisch und auch sie besitzen P X1 den selben charakteristischen Generator. Sei also X = ∼ En (µ, , γ), mit X1 ∈ Rp X2   µ1 q und X2 ∈ R , wobei p + q = n ist. Sei weiterhin E(X) = µ = , mit µ1 ∈ Rp und µ2 P P  P P P q 11 P12 . Dann ist X1 ∼ Ep (µ1 , 11 , γ) sowie X2 ∼ Eq (µ2 , 22 , γ). µ2 ∈ R und = P 21

22

P

• Sei die Kovarianzmatrix als positiv definit vorausgesetzt. Dann ist die bedingte Verteilung X1 unter X2 auch elliptisch verteilt - im Gegensatz zu den beiden oberenP Punkten allerdings i.A. mit einem anderen charakteristischen Generator: X |X ∼ E (µ , ˜ ). Dabei ist 11.2 , γ P P−1 P P P 1 P2−1 P p 1.2 µ1.2 = µ1 + 12 22 (X2 − µ2 ) und 11.2 = 11 − 12 22 21 . Lediglich für den Spezialfall der multivariaten Normalverteilung, bei der Unkorreliertheit der Unabhängigkeit entspricht, bleibt der Generator auch hier gleich. Da sämtliche Randverteilungen vom selben Typ sind, wird eine elliptische Verteilung in eindeutiger Weise durch den Mittelwert, die Kovarianzmatrix sowie die Kenntnis über den Verteilungstyp bestimmt. Oder anders ausgedrückt: die gesamte Abhängigkeitsstruktur einer stetigen, elliptischen Verteilung ist eindeutig festgelegt durch die Korrelationsmatrix und den Verteilungstypen.36 Das bedeutet, dass für stetige und elliptisch verteilte Zufallsvariablen jegliche Form von Abhängigkeit zwischen diesen Zufallsvariablen komplett über die Korrelation beschrieben werden kann. Diese 34

Vgl. [2] S. 10 Vgl. [2] S. 10 36 Vgl. [2] S. 11 35

11

zentrale Folgerung macht die besondere Stellung der Korrelation in der Welt der elliptischen Verteilungen deutlich - sie stellt hier das ideale Abhängigkeitsmaß dar. E.4 Kovarianz und elliptische Verteilungen im Risikomanagement Ein weiterer bedeutender Aspekt elliptischer Verteilungen ist, dass diese die Umsetzung vieler mathematischer Standard-Modelle zulassen. Neben dem Einsatz in der Finanzmathematik macht man sich diese Eigenschaft auch im Bereich des Risikomanagements zu nutzen, da elliptische Verteilungen den Einsatz des Value-at-Risk als Risikomaß ebenso unterstützen, wie beispielsweise die Portfoliooptimierung nach Markowitz.37 Um zu veranschaulichen warum die Verwendung des Value-at-Risk in der Welt elliptischer Verteilungen sehr sinnvoll ist, betrachten wir im Folgenden einen elliptisch verteilten Zufallsvektor X = (X1 , . . . , Xn )0 , wobei Xi für ein Risiko i steht. Es ist nun möglich eine Menge linearer Portfolios Z aus diesen Risiken zusammenzustellen: {Z =

n P

λi Xi |λi ∈ R}.

i=1

Die Verteilungsfunktion von Portfolio Z ist gegeben durch FZ und der Value-at-Risk dieses Portfolios lässt sich zu vorgegebener Wahrscheinlichkeit α bekanntermaßen berechnen als: V aRα (Z) = FZ−1 (α) = inf{z ∈ R|FZ (z) ≥ α}. Für die weiteren Überlegungen sind zunächst zwei Definitionen nötig. Definition 3.5.

38

Ein Risikomaß ist eine Funktion ζ mit: X 7→ ζ(X).

Das heißt ein Risikomaß ordnet jedem Risiko X eine reelle Zahl zu.

Definition 3.6. 39 Ein kohärentes Risikomaß ζ (nach Artzner, Delbaen, Eber und Heath) ist ein Risikomaß mit folgenden Eigenschaften: 1. Positivität: Für jede positive Zufallsvariable X ≥ 0 gilt: ζ(X) ≥ 0. Einem Risiko, welches niemals zu Gewinnen führt, wird immer ein nichtnegativer Wert zugeordnet. 2. Subadditivität: Für zwei Zufallsvariablen X und Y gilt: ζ(X + Y ) ≤ ζ(X) + ζ(Y ). Fasst man zwei Risiken zu einem Portfolio aus ebendiesen Risiken zusammen, so entsteht niemals zusätzliches Risiko. Durch den Diversifikationseffekt vermindert sich das Risiko des Portfolios potentiell. 3. Positive Homogenität: Für jedes λ ≥ 0 ist: ζ(λX) = λζ(X). Ist ein Verlust λ-mal so groß wie ein anderer Verlust, so wird das Risiko auch λ-mal so stark bewertet.

37

Vgl. [2] S. 11 Vgl. [1] S. 103 39 Vgl. [2] S. 13 38

12

4. Translationsinvarianz: Für jedes a ∈ R gilt: ζ(X + a) = ζ(X) + a. Erhöht (bzw. vermindert) sich der Verlust um einen konstanten Faktor a, so erhöht (bzw. vermindert) sich der Risikowert um denselben Wert. Es ist sofort ersichtlich, dass die Eigenschaften kohärenter Risikomaße sehr wünschenswert sind, da sie ein Risikomaß sehr realitätsnah werden lassen. Nun ist es so, dass der Value-at-Risk i.A. kein kohärentes Risikomaß darstellt, da er die Subadditivitätsbedingung nicht erfüllt. Für elliptische Verteilungen ist jedoch auch diese Eigenschaft erfüllt (denn: X und Y elliptisch ⇒ X + Y elliptsch) und der VaR bildet tatsächlich ein kohärentes Risikomaß mit den wünschenswerten Eigenschaften aus Definition 3.6.40 Der Beweis hierfür kann [2] entnommen werden. Es ist klar, dass man nur dann einen möglichst genauen und realistischen Wert für den Value-at-Risk erhält, wenn man in der Lage ist die Abhängigkeiten der Realität auch im Modell möglichst genau zu beschreiben. Dies ist - wie gezeigt wurde - mit dem linearen Korrelationskoeffizienten als Abhängigkeitsmaß jedoch nur für elliptische Verteilungen gegeben. Die Verwendung des Value-at-Risk als Risikomaß für das oben definierte Portfolio Z ist in der Welt elliptisch verteilter Risiken also äußerst sinnvoll.41 Zur Abhängigkeitsmodellierung nicht-elliptischer Verteilungen sollte der lineare Korrelationskoeffizient jedoch nicht verwendet werden.

40 41

Vgl. [1] S. 104 Vgl. [2] S. 12

13

3.2 Alternative Abhängigkeitsmaße Im Abschnitt zur linearen Korrelation wurde deutlich, dass sich Abhängigkeiten zwischen elliptisch verteilten Zufallsvariablen in idealer Weise unter Verwendung des linearen Korrelationskoeffizienten beschreiben lassen. In diesem Fall ist es also (beispielsweise mit einer Monte-Carlo-Simulation) möglich den Value-at-Risk zuverlässig anhand der Randverteilungen und der Korrelation zu bestimmen. Im Allgemeinen hat man es aber nicht mit elliptisch verteilten Zufallsvariablen zu tun. Gesucht sind also weitere Maße, die es erlauben die tatsächliche Abhängigkeitstruktur zwischen Zufallsvariablen genauer zu beschreiben. Diese anderen Maße lassen sich in unterschiedlicher Art und Weise mithilfe von Copulas formulieren. Der Value-at-Risk kann dann ebenfalls mithilfe einer MonteCarlo-Simulation bestimmt werden und zwar anhand der Randverteilungen und der zugehörigen Copula. Auswirkungen auf den Value-at-Risk Für den Value-at-Risk bedeutet das zunächst, dass dann auch Abhängigkeiten Beachtung finden, die durch den linearen Korrelationskoeffizienten nicht erfasst wurden. Die rein intuitive Folge daraus: Gegenüber einer Berechnung mit der linearen Korrelation verstärken sich positive Abhängigkeiten und negative Abhängigkeiten schwächen sich noch weiter ab. Der Value-at-Risk wird also bei positiven Abhängigkeiten größer, weil in dem Wert nun auch noch das Risiko beachtet wird, was der lineare Korrelationskoeffizient nicht erfasst hat. Das ist also durchaus wünschenswert, wenn man an einem möglichst realitätsnahen Modell interessiert ist um nicht von unerkannten Risiken überrascht zu werden. Im Folgenden werden einige solche alternative Abhängigkeitsmaße vorgestellt. 3.2.1 Komonotonie Zunächst wird mit der Komonotonie ein sehr allgemeines Maß für perfekte Abhängigkeit betrachtet. Definition 3.7. Zwei Risiken X und Y werden komonoton genannt, wenn es eine Zufallsvariable Z und zwei monoton steigende Funktionen f1 und f2 gibt, sodass X = f1 (Z) und Y = f2 (Z) gilt. Wenn f1 eine monoton steigende Funktion ist und f2 monoton fällt, so spricht man von kontramonotonen Zufallsvariablen. Konkret bedeutet dies, dass die Entwicklung der beiden Risiken komplett von einem einzigen gemeinsamen Faktor abhängt. Im Fall der Komonotonie können sich diese Risiken also niemals ausgleichen, so dass man dies als „extremste“ Form der positiven Abhängigkeit bezeichnen kann.42 Steigt hingegen das eine Risiko bei zwei kontramonotonen Risiken, so fällt das andere, so dass man hier von extremster negativer Abhängigkeit sprechen kann. Bemerkung 3.5. Sind X und Y komonotone Zufallsvariablen, dann gilt V aRα (X + Y ) = V aRα (X) + V aRα (Y ).43

42 43

Vgl. [1] S. 102 Vgl. [2] S. 27

14

3.2.1.1 Fundamentale Copulas Komonotonie und Kontramonotonie lassen sich - zumindest im zweidimensionalen Fall - durch bestimmte Copulas modellieren. Zusammen mit der Unabhängigkeits-Copula bilden diese zwei Copulas die Gruppe der fundamentalen Copulas. Im Folgenden werden die fundamentalen zweidimensionalen Copulas vorgestellt. Definition 3.8. Die Komonotonie-Copula Co wird für alle (u1 , u2 ) ∈ [0, 1]2 definiert durch: Co (u1 , u2 ) = min(u1 , u2 ). Definition 3.9. Die Kontramonotonie-Copula Cu wird für alle (u1 , u2 ) ∈ [0, 1]2 definiert durch: Cu (u1 , u2 ) = max(u1 + u2 − 1, 0). Die Richtigkeit der beiden Copulas garantiert uns der nachfolgende Satz, für dessen Beweis wir auf [2] verweisen. Satz 3.1.

44

Sei Cu (bzw. Co ) eine zu dem Zufallsvektor (X1 , X2 )0 gehörige Copula. Dann existieren zwei monotone Funktionen f1 und f2 und eine Zufallsvariable Z, so dass (X1 , X2 )0 = (f1 (Z), f2 (Z))0 mit f1 steigend und f2 fallend (bzw. f1 und f2 beide steigend). Wie man unschwer erkennt, entspricht dies genau unserer Definition von Komonotonie und Kontramonotonie. Die Copulas erzeugen also wirklich diese Abhängigkeitsstrukturen. Definition 3.10. Die Unabhängigkeits-Copula Cid wird für alle (u1 , u2 ) ∈ [0, 1]2 definiert durch: Cid (u1 , u2 ) = u1 · u2 . Für stochastisch unabhängige Zufallsvariablen X1 und X2 ist dies wirklich die richtige Copula, da nach dem Satz von Sklar Cid (u1 , u2 ) = Cid (F1 (x1 ), F2 (x2 )) = F (x1 , x2 ) gilt und außerdem für zwei unabhängige Zufallsvariabeln X1 und X2 bekanntermaßen F (x1 , x2 ) = F1 (x1 ) · F2 (x2 ) = u1 · u2 . gilt. 3.2.1.2 Die Schranken von Fréchet Mit Hilfe dieser drei Copulas lassen sich also die drei Extremfälle der Abhängigkeitsmodellierung (komplette negative Abhängigkeit, Unabhängigkeit und komplette positive Abhängigkeit) darstellen. Dadurch stehen sie zu vielen anderen Copulas in einer interessanten Beziehung. Als Beispiel hierfür sei die Beziehung zur Gumbel-Copula aus Abschnitt 2.4.2 genannt, die gewissermaßen zwischen der Unabhängigkeitscopula Cid und der Komonotonie-Copula Co interpoliert.45 44 45

[2] S. 14 Vgl. [1] S. 270

15

Eine wichtige weitere solche Beziehung liefern die Fréchet Schranken. Diese werden hier zunächst wieder allgemein (d.h. nicht nur für den zweidimensionalen Fall) definiert. Satz 3.2. Für jede n-dimensionale Copula C(u1 , ..., un ) gilt max{u1 + ... + un + 1 − n , 0} ≤ C(u1 , ..., un ) ≤ min{u1 , ..., un } Bemerkung 3.6. Im zweidimensionalen Fall gilt also genau Cu ≤ C(u1 , u2 ) ≤ Co , d.h. dass alle anderen Copulas zwischen der Kontramonotonie-Copula und der Komonotonie-Copula liegen. Für höhere Dimensionen sind die Schranken ähnlich zu interpretieren, jedoch ist die untere Schranke keine Copula mehr - die obere Schranke hingegen schon.46 Zusammenfassend ist Komonotonie bzw. Kontramonotonie ein Abhängigkeitsmaß, das sehr viel allgemeiner definiert ist als z.B. die Korrelation und damit nicht nur lineare sondern jede Form von (perfekter) Abhängigkeit erkennt. Das Maß ist zudem kompatibel mit der Copula-Theorie, so dass es möglich ist die gemeinsame Verteilungsfunktion von zwei (oder mehreren) komonotonen Risiken mit bekannten Randverteilungen zu berechnen. 3.2.2 Rangkorrelation Ein weiteres Abhängigkeitsmaß ist die Rangkorrelation. Wie diese genau definiert ist und welche Vorteile sie gegenüber der linearen Korrelation bietet, soll in diesem Abschnitt kurz erläutert werden. Definition 3.11. Seien X und Y Zufallsvariablen mit den Verteilungsfunktionen F1 und F2 und F ihre gemeinsame Verteilungsfunktion. Der Spearmansche Rangkorrelationskoeffizient von X und Y ergibt sich als ρS (X, Y ) = ρ(F1 (X), F2 (Y )) wobei ρ den linearen Korrelationskoeffizienten bezeichnet. Neben dem Spearmanschen Rangkorrelationskoeffizienten existiert der Kendallsche Rangkorrelationskoeffizient. Beide haben - wie wir später sehen werden - ähnliche Eigenschaften. Definition 3.12. Seien (X1 , Y1 )0 und (X2 , Y2 )0 zwei unabhängige Paare von Zufallsvariablen und F jeweils ihre gemeinsame Verteilungsfunktion. Der Kendallsche Rangkorrelationskoeffizient ergibt sich dann als ρτ (X, Y ) = P [(X1 − X2 )(Y1 − Y2 ) > 0] − P [(X1 − X2 )(Y1 − Y2 ) < 0]. Bemerkung 3.7. • Wenn n > 2 Zufallsvariablen betrachtet werden sollen, werden die paarweisen Korrelationen - genau wie bei der linearen Korrelation - in eine n × n-Matrix geschrieben. • Während die lineare Korrelation den Grad linearer Abhängigkeit zwischen Zufallsvariablen misst, sind sowohl der Kendallsche als auch der Spearmansche Rangkorrelationskoeffizient in der Lage, den Grad monotoner Abhängigkeiten zu messen.

46

Vgl. [3] S.20

16

Der folgende Satz liefert die wichtigsten Eigenschaften der Rangkorrelation und verdeutlicht die Unterschiede zur linearen Korrelation. Satz 3.3.

47

Seien X und Y Zufallsvariablen mit den Randverteilungen F1 und F2 , gemeinsamer Verteilungsfunktion F und Copula C. Dann gilt: 1. ρS (X, Y ) = ρS (Y, X) und ρτ (X, Y ) = ρτ (Y, X) 2. X und Y unabhängig ⇒ ρS (X, Y ) = ρτ (X, Y ) = 0 3. −1 ≤ ρS (X, Y ), ρτ (X, Y ) ≤ +1 R1R1 4. ρS (X, Y ) = 12 · 0 0 (C(x, y) − x · y) dxdy 5. ρτ (X, Y ) = 4 ·

R1R1 0

0

C(u, v) dC(u, v) − 1

6. ρS und ρτ sind invariant unter streng monotonen Transformationen T : R → R, d.h. ( δ(X, Y ) falls T steigend δ(T (X), Y ) = δ ∈ {ρS , ρτ } −δ(X, Y ) falls T fallend 7. ρS (X, Y ) = ρτ (X, Y ) = 1 ⇔ C = Co 8. ρS (X, Y ) = ρτ (X, Y ) = −1 ⇔ C = Cu Die Punkte 1, 2 und 3 sind Eigenschaften, die wir bereits von dem linearen Korrelationskoeffizienten kennen. Interessant sind daher vor allen Dingen die übrigen Punkte, die allesamt wünschenswerte Eigenschaften an ein Abhängigkeitsmaß darstellen, welche der lineare Korrelationskoeffizient nicht erfüllen kann. Der größte Vorteil der Rangkorrelation gegenüber der linearen Korrelation ist, dass die beiden Rangkorrelationskoeffizienten ausschließlich von der zu den Zufallsvariablen gehörigen Copula abhängen (Eigenschaft 4 bzw. 5) und daher auch sie invariant unter streng monotonen Transformationen sind. Des Weiteren ermöglichen die Eigenschaften 7 und 8 eine elegante Messung perfekter Abhängigkeit. Der größte Nachteil ist, dass es sich im Gegensatz zur linearen Korrelation, die unmittelbar von der Varianz und der Kovarianz abhängt, bei den Rangkorrelationskoeffizienten nicht um eine momentbasierte Korrelation handelt. 3.2.3 Tail Abhängigkeit Eine Fragestellung, die im Risikomanagement von großer Bedeutung ist, beschäftigt sich damit, die Wahrscheinlichkeit für das gleichzeitige Eintreten mehrerer extremer Ereignisse anzugeben. Anders als bei den bisher vorgestellten Maßzahlen, bei denen das Ziel war die gesamte Abhängigkeit zwischen zwei Zufallsvariablen X und Y auszudrücken, geht es im Rahmen der Tail Abhängigkeit vielmehr darum Maßzahlen für die Abhängigkeit von extremen Ereignissen zu bestimmen.48 Wie Abbildung 3.2 verdeutlicht, geht es also um die Frage, wie die Abhängigkeitsstruktur in den Randbereichen einer Verteilung in Form einer geeigneten Maßzahl formuliert werden kann.

47 48

[2] S. 16 Vgl. [1] S. 280

17

Abbildung 3.2: Realisationen zweier Zufallsvariablen mit identischer Randverteilung und gleicher Korrelation, aber unterschiedlicher Abhängigkeitsstruktur. Die Tails sind anhand der Kreise zu erkennen.49 3.2.3.1 Definition der Tail Abhängigkeit Seien im Folgenden also zwei Zufallsvariablen X und Y (die beispielsweise Risiken modellieren) sowie deren stetige Randverteilungen F1 und F2 gegeben. Man interessiert sich für die bedingte Wahrscheinlichkeit P (X ≤ a|Y ≤ b), dass Risiko X höchstens zu einem Verlust von a führt, unter der Bedingung, dass Risiko Y höchstens einen Verlust von b erleidet.50 Das kann bekanntlich folgendermaßen formuliert werden: P (X ≤ a|Y ≤ b) =

P (X ≤ a, Y ≤ b) . P (Y ≤ b)

Bei bekannter Copula C von X und Y ist es nach dem Satz von Sklar möglich, eine gemeinsame Verteilungsfunktion F zu finden, die F1 und F2 als Randverteilungen besitzt: P (X ≤ a|Y ≤ b) =

C(F1 (a), F2 (b)) . F2 (b)

O.B.d.A. treten die Ereignisse X ≤ a bzw. Y ≤ b mit derselben Wahrscheinlichkeit α ein d.h.: α = P (X ≤ a) = F1 (a) und α = P (Y ≤ b) = F2 (b). Aufgrund der Stetigkeit der Randverteilungen folgt damit: a = F1−1 (α) und b = F2−1 (α). Es gilt also: P (X ≤ a|Y ≤ b) =

C(F1 (F1−1 (α)), F2 (F2−1 (α))) C(α, α) = . −1 α F2 (F2 (α))

Wird nun der Grenzwert für α → 0 gebildet (falls dieser existiert), so ergibt sich ergibt sich der untere Tail-Abhängigkeitskoeffizient als Grenzwert.

49 50

Quelle: [3] S.4 Vgl. [1] S. 280

18

Definition 3.13. 51 Seien X und Y zwei stetige Zufallsvariablen. Bei bekannter Copula C ergibt sich der untere Tail-Abhängigkeitskoeffizient als: C(α, α) , α→0 α

λL = lim wenn der Grenzwert existiert und λL ∈ [0, 1] ist.

Mit Hilfe des unteren Tail-Abhängigkeitskoeffizienten können nun Aussagen über die Wahrscheinlichkeit gemacht werden, dass Risiko X höchstens zu einem Verlust von a führt, unter der Bedingung, dass Risiko Y höchstens einen Verlust von b erleidet. Ist es hingegen das Ziel, Aussagen über die Wahrscheinlichkeit zu erhalten, dass das Risiko X einen sehr hohen Verlust erleidet (X > a) unter der Bedingung, dass auch Risiko Y einen hohen Verlust verursacht hat (Y > b), so wird der obere Tail-Abhängigkeitskoeffizient benötigt. Dieser kann sehr ähnlich hergeleitet werden. Jedoch wird zunächst einmal die Aussage des folgenden Satzes benötigt. Satz 3.4.

52

Seien zwei Zufallsvariablen X und Y gegeben. Dann gilt: P (X > a|Y > b) = 1 − P (X ≤ a) − P (Y ≤ b) + P (X ≤ a, Y ≤ b).

Damit folgt unmittelbar: P (X > a|Y > b) =

P (X > a, Y > b) 1 − P (X ≤ a) − P (Y ≤ b) + P (X ≤ a, Y ≤ b) = . P (Y > b) 1 − P (Y ≤ b)

Äquivalent zu den obigen Ausführungen ist dann wieder: α = P (X ≤ a) = F1 (a) und α = P (Y ≤ b) = F2 (b). und aufgrund der Stetigkeit der Randverteilungen somit: a = F1−1 (α) und b = F2−1 (α). Also in Copula-Schreibweise: 1 − P (X ≤ a) − P (Y ≤ b) + P (X ≤ a, Y ≤ b) | {z } | {z } | {z } α

α

C(α,α)

1 − P (Y ≤ b) | {z }

.

α

Wird der Grenzwert für α → 1 gebildet (falls dieser existiert), so ergibt sich ergibt sich der obere Tail-Abhängigkeitskoeffizient als Grenzwert. Definition 3.14. 53 Seien X und Y zwei stetige Zufallsvariablen. Bei bekannter Copula C ergibt sich der obere Tail-Abhängigkeitskoeffizient als: 1 − 2α + C(α, α) , α→1 1−α

λU = lim

falls der Grenzwert existiert und λU ∈ [0, 1] ist.

51

Vgl. [1] S. 281 Vgl. [1] S. 283 53 Vgl. [1] S. 281 52

19

Bemerkung 3.8.

54

• λL = 0 bedeutet asymptotische Unabhängigkeit im unteren Tail. • λU = 0 bedeutet asymptotische Unabhängigkeit im oberen Tail. • λL ∈ (0, 1] weist auf Abhängigkeit im unteren Tail hin. • λU ∈ (0, 1] weist auf Abhängigkeit im oberen Tail hin. • Je größer λL (bzw. λU ) ist, desto größer ist die Abhängigkeit im unteren (bzw. oberen) Tail. Bemerkung 3.9.

55

• Die Tail Abhängigkeit hängt ausschließlich von der Copula ab. Die Invarianz unter streng monoton steigenden Transformationen überträgt sich daher, genau wie bei der Rangkorrelation, von der Copula auf die Tail Abhängigkeit. • Die Abhängigkeiten in den Tails werden durch verschiedene Copulas in unterschiedlicher Art und Weise modelliert. So existieren beispielsweise Copulas, welche Abhängigkeit im unteren Tail besitzen und solche, die im unteren Tail asymptotische Unabhängigkeit modellieren. Bei der Wahl eines geeigneten Copula-Modells ist das Tail-Verhalten der entsprechenden Copula ein entscheidender Auswahlfaktor, insbesondere dann, wenn die Wahrscheinlichkeit für gemeinsam auftretende extreme Ereignisse relativ groß ist. 3.2.3.2 Tail-Abhängigkeitskoeffizienten für Beispiel-Copulas Wie in Bemerkung 3.9 beschrieben wurde, kann die Tail-Abhängigkeit für verschiedene Copulas sehr unterschiedlich ausfallen. In diesem Abschnitt sollen einige Tail-Abhängigkeitskoeffizienten beispielhaft dargestellt werden.56 Die Unterschiede in der Modellierung der Tails bei den verschiedenen Copulas werden dadurch ersichtlich. Unabhängigkeits-Copula: Für die Unabhängigkeits-Copula gilt: λL = 0 und λU = 0. Dies ist nicht weiter verwunderlich, da es bedeutet, dass die Unabhängigkeits-Copula auch asymptotische Unabhängigkeit in den Tails modelliert. Komonotonie-Copula: Für die Komonotonie-Copula gilt: λL = 1 und λU = 1. Auch dies ist logisch, da es bedeutet, dass die Komonotonie-Copula auch asymptotisch totale Abhängigkeit erzeugt. Kontramonotonie-Copula: Für die Kontramonotonie-Copula gilt: λL = 0 und λU = 0. Sie modelliert also asymptotische Unabhängigkeit.

54

Vgl. [1] S. 281 Vgl. [4] S. 48 56 Vgl. [1] S. 281 und [2] S. 18-19 55

20

Gauß-Copula: Ist der Korrelationskoeffizient ρ 6= |1|, so gilt für die Gauß-Copula: λL = 0 und λU = 0. Das bedeutet aber, dass selbst dann, wenn zwei Risiken durch die Gauß-Copula mit extrem starker Korrelation (aber ρ 6= |1|) gekoppelt sind, extreme Verluste nahezu unabhängig in den beiden Risiken eintreten. „Insofern eignet sich die Gauß-Copula nicht zur Modellierung von Risiken, die eine Tail-Abhängigkeit besitzen.“ 57 Gumbel-Copula: Für die Gumbel-Copula mit Parameter Θ ∈ (0, 1] gilt: λL = 0 und λU = 2 − 2Θ . Während im unteren Tail also asymptotische Unabhängigkeit vorliegt, liegt im oberen Tail für Θ < 1 asymptotische Abhängigkeit vor. Für Θ → 0 strebt der obere Tail-Abhängigkeitskoeffizient gegen 1. 3.2.4 Konkordanz Die Konkordanz zeichnet sich durch eine etwas andere Sichtweise auf Abhängigkeiten zwischen Zufallsvariablen X und Y aus als es bei den bisher vorgestellten Maßen der Fall war. Hier geht es nicht darum die Stärke der Abhängigkeit festzustellen, sondern einzig und allein darum anzugeben ob die Abhängigkeit zwischen X und Y positiv oder negativ ist. Im Falle positiver Abhängigkeit spricht man von Konkordanz, bei negativer Abhängigkeit hingegen von Diskordanz.58 Grundsätzlich stellt sich an dieser Stelle die Frage, wie eine positive (bzw. negative) Abhängigkeit überhaupt definiert werden kann. Aus den bisherigen Ausführungen dieser Arbeit könnte man sich vorstellen, dass beispielsweise positive Abhängigkeit genau dann vorliegt, wenn ρ(X, Y ) > 0 (oder ρS (X, Y ) > 0 bzw. ρτ (X, Y ) > 0) ist. In der Regel wird positive (bzw. negative) Abhängigkeit jedoch anders definiert. Zwei solcher Konzepte werden im Folgenden vorgestellt.59 Definition 3.15. 60 Zwei Zufallsvariablen X und Y werden positiv quadrant abhängig (PQA) genannt, wenn für alle x, y ∈ R gilt: P (X ≤ x, Y ≤ y) ≥ P (X ≤ x) · P (Y ≤ y). Bemerkung 3.10.

61

• Positive quadrant Abhängigkeit ist ein geeignetes Konzept um positive Abhängigkeit zwischen Zufallsvariablen X und Y auszudrücken, da X und Y mit höherer Wahrscheinlichkeit beide große (bzw. kleine) Werte annehmen als im Falle der Unabhängigkeit zwischen X und Y. • Wird die Ungleichung in Definition 3.15 umgekehrt, so spricht man von negativ quadrant abhängigen Zufallsvariablen.

57

[1] S. 281 Vgl. [2] S. 59 Vgl. [2] S. 60 Vgl. [2] S. 61 Vgl. [5] S. 58

20 20 20 145

21

Definition 3.16. 62 Zwei Zufallsvariablen X und Y werden positiv assoziiert (PA) genannt, wenn für alle reellwertigen, messbaren Funktionen g1 und g2 , die monoton steigend in beiden Komponenten sind und für die die nachfolgenden Erwartungswerte definiert sind, gilt: E(g1 (X, Y ) · g2 (X, Y )) ≥ E(g1 (X, Y )) · E(g2 (X, Y )). Bemerkung 3.11.

63

• Die obige Definition für (PA) ist äquivalent zu: Cov(g1 (X, Y ), g2 (X, Y )) ≥ 0. Dies macht deutlich, dass auch die Positive Assoziation ein geeignetes Konzept darstellt, um positive Abhängigkeit zwischen Zufallsvariablen X und Y zu beschreiben. • Wird die Ungleichung in Definition 3.16 umgekehrt, so spricht man von negativ assoziierten Zufallsvariablen. Bemerkung 3.12.

64

• Sowohl (PQA), als auch (PA) sind, genau wie die Rangkorrelation und die Tail Abhängigkeit, invariant unter monoton steigenden Transformationen. • (PQA) und (PA) sind stärkere Bedingungen an die Abhängigkeit zwischen Zufallsvariablen als die bereits bekannten Korrelationskoeffizienten. Dies wird auch durch die folgende Darstellung geschildert, die ebenfalls ausdrückt, dass Komonotonie die stärkste Form von Konkordanz bzw. positiver Abhängigkeit ist: Komonotonie ⇒ (PA) ⇒ (PQA) ⇒ ρ(X, Y ) ≥ 0, ρS (X, Y ) ≥ 0, ρτ (X, Y ) ≥ 0

62

Vgl. [2] S. 20 Vgl. [5] S. 144 64 Vgl. [2] S. 21 63

22

4 Irrtümer bzgl. Korrelation und Abhängigkeit Abschließend sollen in diesem Kapitel drei bekannte Irrtümer bzgl. Korrelation und Abhängigkeit klargestellt werden. Dazu wird - mit Hilfe des Wissens aus den vorherigen Kapiteln - zu jedem dieser Irrtümern ein Gegenbeispiel konstruiert. Hierbei werden immer zwei Zufallsvariablen X und Y mit Randverteilungen F1 und F2 und gemeinsamer Verteilungsfunktion F betrachtet.

4.1 Irrtum 1 „Die gemeinsame Verteilungsfunktion F kann mithilfe der Randverteilungen F1 und F2 und der Korrelation zwischen den Zufallsvariablen X und Y bestimmt werden.“ Betrachtet man bloß elliptische Verteilungen oder die multivariate Normalverteilung so stellt man fest, dass diese Aussage hier durchaus gilt. Problematisch wird es aber wenn man diese spezielle Gruppe von Verteilungen verlässt. Wie Abbildung 3.1 schon zeigen konnte ist es möglich zwei Paare von Zufallsvariablen mit identischen Randverteilung und gleicher Korrelation zu entwerfen, deren Abhängigkeitsstruktur sich unterscheidet. Ein konkretes Beispiel hierfür ist das folgende. Beispiel 4.1.

65

Wir betrachten hierfür zwei verschiedene gemeinsame Verteilungen mit Gamma(3,1)-Randverteilungen (G3,1 ) und derselben Korrelation ρ = 0, 7. Diese Eigenschaften können wir sowohl mit der Gaußals auch mit der Gumbel-Copula erreichen, wenn wir die Parameter ρ bzw. θ (Vgl. Abschnitt 2.4) geeignet wählen. So erhalten wir FGa (x, y) = C Ga ρ (G3,1 (x), G3,1 (y)) FGu (x, y) = CθGu (G3,1 (x), G3,1 (y)) mit ρ = 0, 71 und θ = 0, 54. Diese Werte kann man anhand einer stochastischen Simulation errechnen.66 Aus Abschnitt 3.2.3.2 wissen wir, dass die beiden Copulas unterschiedliche Tail-Abhängigkeiten besitzen. Während die Gauß-Copula keine Tail-Abhängigkeiten aufweist, ist die Gumbel-Copula für θ < 1 asymptotisch abhängig. Um das zu verdeutlichen betrachten wir die bedingte Wahrscheinlichkeit P [X > u|Y > u] mit u = V aR0,99 (X) = V aR0,99 (Y ) = G−1 3,1 (0, 99) unter den beiden Modellen. Nach einer empirischen Schätzung gilt ungefähr PFGa [X > u|Y > u] = 1/3 PFGu [X > u|Y > u] = 3/4. Es zeigt sich also, dass es im Gumbel-Modell deutlich wahrscheinlicher ist, dass auch das zweite Risiko die Schwelle u überschreitet, wenn sie vom ersten Risiko überschritten wurde. Es gibt also weniger Diversifikation im Gumbel-Modell.67

65

Vgl. [2] S. 22 [2] S. 22 67 [2] S. 23 66

23

Analytisch eine Aussage über den VaR der Summe X + Y unter den beiden Modellen zu treffen ist schwierig, aber anhand von Simulationen lässt sich belegen, dass das Gumbel-Modell eine höhere Anzahl an großen Resultaten für den VaR liefert.68 Gerade wenn es um die Einschätzung von extremen Verlusten geht, gibt es also einen entscheidenden Unterschied zwischen den beiden Modellen, der sich in den Randverteilungen und der Korrelation nicht bemerkbar macht.

4.2 Irrtum 2 „Seien F1 und F2 gegeben. Die lineare Korrelation zwischen X und Y kann - bei einer geeigneten Spezifikation von F - alle Korrelationen zwischen -1 und 1 annehmen.“ Diese Aussage ist nicht wahr, wie das folgende Gegenbeispiel beweist. Beispiel 4.2.

69

Sei X ∼ LN (0, 1) und Y ∼ LN (0, σ 2 ) mit σ > 0. Wir sind nun an dem minimalen Wert ρmin und dem maximalen Wert ρmax interessiert, den die Korrelation unter diesen Randverteilungen annehmen kann. Da ρmin = ρ(eZ , e−σZ ) und ρmax = ρ(eZ , eσZ ) mit Z ∼ N (0, 1) gilt, lassen sich diese Werte analytisch bestimmen als: e−σ − 1 ρmin = p (e − 1) · (eσ2 − 1) eσ − 1 ρmax = p (e − 1) · (eσ2 − 1) Die folgende Grafik zeigt die Werte von ρmin und ρmax für verschiedene σ-Werte. 1

minimale Korrelation maximale Korrelation

0,8 0,6

Korrelation

0,4 0,2 0 1

2

3

4

-0,2 -0,4 -0,6 -0,8 -1

sigma

Abbildung 4.1: ρmin und ρmax für verschiedene σ-Werte.70

68

[2] S. 23 Vgl. [2] S. 24 70 Vgl. [2] S. 25 69

24

5

Dieses Beispiel zeigt damit eindeutig, dass nicht immer alle Werte zwischen -1 und 1 erreicht werden können. Es zeigt aber sogar noch etwas mehr, denn man sieht, dass limσ→∞ ρmin = limσ→∞ ρmax = 0. So wie wir X und Y gewählt haben sind diese jedoch komonoton (oder kontramonoton) und damit im stärksten Sinne abhängig. Wir sehen also wie ungeeignet die Korrelation in diesem Fall als Abhängigkeitsmaß ist: Trotz extremer Abhängigkeit liegt die Korrelation für hohe σ ganz nah bei 0.

4.3 Irrtum 3 „Der Value-at-Risk eines linearen Portfolios X + Y wird am größten, wenn ρ(X, Y ) maximal ist, also wenn X und Y komonoton sind.“ Dass diese Aussage falsch ist, wird schnell klar, wenn wir zwei Sachverhalte betrachten, die sich im Laufe der Ausarbeitung gezeigt haben. Laut Bemerkung 3.5 gilt für zwei komonotone Zufallsvariablen V aRα (X + Y ) = V aRα (X) + V aRα (Y ). Außerdem wissen wir, dass der Value-at-Risk für nicht-elliptische Verteilungen die Subadditivitäts-Eigenschaft nicht erfüllt, d.h. es existieren zwei Zufallsvariablen X und Y so dass V aRα (X + Y ) > V aRα (X) + V aRα (Y ). Für elliptische Verteilungen hingegen gilt die Subadditivitäts-Eigenschaft und damit auch die obige Aussage. Eine obere Schranke für den Value-at-Risk bei nicht-elliptischen Verteilungen zu finden ist aber auch möglich, dafür verweisen wir auf [2]. Abschließend wollen wir noch ein Beispiel betrachten, bei dem sich der Value-at-Risk besonders interessant verhält. Beispiel 4.3.

71

Seien X und Y zwei unabhängige Zufallsvariablen mit derselben Verteilung F1/2 = 1 − x−1/2 , x ≥ 1. Hierbei handelt es sich um eine extreme heavy-tailed Verteilung ohne endlichen Mittelwert. Nun betrachten wir die zwei Risiken X + Y (unabhängig) und 2 · X(komonoton). Man kann abschätzen, dass √ 2· z−1 P [X + Y ≤ z] = 1 − < P [2X ≤ z] z für z > 2. Daraus folgt dann V aRα (X + Y ) > V aRα (2X) = V aRα (X) + V aRα (Y ). Das bedeutet, dass in diesem Fall aus Sicht des VaR Unabhängigkeit schlechter ist, als perfekte positive Abhängigkeit - ganz unabhängig von der Wahl von α. Es gibt also hier keinerlei Diversifikationseffekt, sondern es ist sogar besser zwei „gleiche“ Risiken einzugehen.

71

Vgl. [2] S. 29

25

5 Fazit Ziel dieser Ausarbeitung war es, in Anlehnung an die Arbeit Embrechts’, McNeils und Straumanns einen Überblick über verschiedene Möglichkeiten zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen zu bieten. Einleitend wurde das Konzept der linearen Korrelation vorgestellt und betont, dass diese lediglich für elliptische Verteilungen ein besonders geeignetes Maß darstellt, da innerhalb dieser Verteilungsklasse die gesamte Abhängigkeitsstruktur zweier Zufallsvariablen vollständig durch den linearen Korrelationskoeffizienten beschrieben werden kann. Da der Klasse elliptischer Verteilungen auch die multivariate Normalverteilung zugeordnet ist, und diese vielseitige Anwendungsbereiche bietet, ist der Einsatz des linearen Korrelationskoeffizienten als Abhängigkeitsmaß oftmals sehr sinnvoll. Darüber hinaus wurde deutlich gemacht, dass das Risikomaß Value-at-Risk, welches i.A. nicht kohärent ist, für elliptische Verteilungen tatsächlich ein kohärentes Risikomaß darstellt und somit viele wünschenswerte Eigenschaften erfüllt. Die Ausführungen zeigen weiterhin, dass für den Fall, dass die Zufallsvariablen - deren Abhängigkeit zu modellieren ist - keiner elliptischen Verteilung unterliegen, andere Abhängigkeitsmaße als die lineare Korrelation geeigneter sind. Deren Unterschiede sowie Vor- und Nachteile gegenüber der linearen Korrelation wurden im Rahmen dieser Arbeit aufgezeigt, sodass sich dem Leser eine breite Übersicht über geeignete Abhängigkeitsmaße für verschiedene Modellierungen in der Praxis bietet. Das abschließende Kapitel verdeutlicht noch einmal, dass mit der intuitiven Gleichsetzung der Begriffe Abhängigkeit und Korrelation einige Irrtümer einhergehen und daher gerade bei nichtelliptischen Verteilungen Vorsicht geboten ist.

26

Literaturverzeichnis

[1] Cottin, Claudia und Döhler, Sebastian (2009): Risikoanalyse: Modellierung, Beurteilung und Management von Risiken mit Praxisbeispielen, Vieweg+Teubner [2] Embrechts, Paul und McNeil, Alexander und Straumann, Daniel (1999): Correlation and Dependence in Risk Management: Properties and Pitfalls, unbekannt [3] Neslehova, Johanna (2006): Eine Einführung in Copulas, unbekannt [4] Niehof, Martin (2009): Modellierung von stochastischen Abhängigkeiten mittels Copulas, unbekannt [5] Pham, Hoang (2003): Handbook of Reliability Engineering, Springer

27

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF