Aufsätze

Ansätze zur Ermittlung des Gesamtbankrisikos

Banken gehen im Rahmen ihrer Funktion als Finanz- beziehungsweise
Risikointermediär hohe Transformationsrisiken ein. Für eine
erfolgreiche Geschäftstätigkeit ist deshalb ein umfassendes
Risikomanagementsystem, welches Risiken misst, steuert und
kontrolliert, unumgänglich. Im Allgemeinen wird Risiko im engeren
Sinne als die Gefahr einer negativen Abweichung des realisierten
Objektwertes von seinem Zielwert, zum Beispiel dem Erwartungswert,
bezeichnet. Ein in der Praxis weit verbreitetes Risikomaß ist der
Value at Risk (VaR), der eine Wertgrenze darstellt, die nur mit einer
geringen Wahrscheinlichkeit alpha nach unten überschritten wird.
Formal entspricht dies dem alpha-Quantil der entsprechenden
Wertverteilung.1) Ein alternatives Downside-Risikomaß ist das Lower
Partial Moment One, das im Unterschied zum VaR nicht nur einen Punkt,
sondern einen spezifischen linken Abschnitt der Verteilungsfunktion
berücksichtigt.2)
\
Typische Verteilungseigenschaften der Risikoarten
\
Nicht zuletzt aufgrund der Vorgaben durch die Regulierung ermitteln
Banken derzeit ihre Risiken kategorisiert in den Risikoarten
Marktrisiko, Kreditrisiko und operationelles Risiko.3) Dabei lassen
sich folgende typische Verteilungseigenschaften angeben:4)
\
- Die zur Ermittlung des Marktrisikos unterliegende Renditeverteilung
(Fm) wird in der Regel als symmetrisch angenommen. Empirische
Untersuchungen haben gezeigt, dass die oftmals in der Praxis
unterstellte Normalverteilung den zu beobachtenden Fat Tails nicht
gerecht wird und deshalb t- oder auch Normal-Mixture-Verteilungen
vorzuziehen sind.
\
- Renditen aus kreditrisikobasierten Geschäften werden durch eine
linksschiefe Verteilungsfunktion (Fc) beschrieben. Möglichen hohen
Verlusten, die allerdings mit recht geringer Wahrscheinlichkeit
eintreten, stehen begrenzte positive Renditen gegenüber. Zur
Modellierung werden unter anderem Beta- und Weibull-Verteilungen
eingesetzt.
\
- Bei den operationellen Risiken sind verschiedene Ausgestaltungen der
Verteilungsfunktion (Fo) denkbar. Bei der Fokussierung auf
operationelle Schäden (Ausschluss von Chancen) ist wiederum eine
linksschiefe Verteilung plausibel, deren Masse auf den negativen
Bereich beschränkt ist und bei der seltene hohe Verluste häufigen
niedrigen Verlusten gegenüberstehen. Die drei Verteilungen der
einzelnen Risikoarten sind gemäß mathematischem Vokabular die
Randverteilungen der gemeinsamen multivariaten Verteilung. In
Abbildung 1 werden die Dichtefunktionen der Randverteilungen
schematisch dargestellt.
\
Ziele der Ermittlung des Gesamtbankrisikos
\
Die Notwendigkeit der Gesamtrisikoermittlung leitet sich aus
fundamentalen Zielen der Banksteuerung ab, zu deren Verfolgung eine
isolierte Betrachtung der einzelnen Risikoarten nicht ausreicht,
sondern eine adäquate Aggregation unter Berücksichtigung von
Diversifikationseffekten erforderlich ist. Im Folgenden werden drei
solcher Ziele vorgestellt.5)
\
- Eine Bank muss auch unter extremen Marktbedingungen ausreichend
Kapital aufweisen, um auftretende Verluste fast immer absorbieren zu
können. Dem Ziel der Kapitaldeckung nachzukommen heißt formal, dass
das zur Verlustdeckung gehaltene Kapital größer sein muss als das
alpha-Quantil der Verteilung des Gesamtgewinnes. Ein alpha in Höhe von
0,1 Prozent bedeutet, dass die Bank für 99,9 Prozent aller denkbaren
Ergebnisrealisationen genügend Kapital aufweist. Zur
Operationalisierung muss folglich die Gesamtgewinnverteilung oder
wenigstens deren alpha-Quantil ermittelt werden. Da Banken ihr
Überleben mit hoher Wahrscheinlichkeit sichern wollen, ist von einem
sehr kleinen alpha auszugehen.6)
\
- Um im Rahmen der Gesamtbanksteuerung das Kapital effizient auf die
Geschäftsbereiche (BU) verteilen zu können, ist eine Bewertung der
Bereiche in Form eines Rendite-Risiko-Profils durchzuführen. Dafür
muss unter Berücksichtigung von Diversifikation der marginale
Risikobeitrag zum Gesamtrisiko und folglich zunächst das Gesamtrisiko
selbst ermittelt werden. Dieses Ziel der Allokation referenziert vor
allem auf die Effizienz und Wettbewerbfähigkeit der Bank unter
normalen Marktbedingungen. Bei Rückgriff auf den VaR als Risikomaß
wäre somit ein größeres alpha als beim Ziel der Kapitaldeckung zu
verwenden.
\
- Um sich im Rahmen der Dynamischen Finanzanalyse ein Bild über die
langfristige Überlebenssicherung der Bank und die generelle Stärke im
Vergleich zu den Wettbewerbern zu machen, sind sämtliche wesentliche
Geschäftsaktivitäten unter Berücksichtigung externer Einflussfaktoren
in einem Modell so zusammenzuführen, dass eine Schätzung des
zukünftigen Risikopotenzials der Bank erfolgen kann.7)
\
Kriterien und zielabhängige Kriteriengewichtung
\
Um Verfahren zur Ermittlung des Gesamtbankrisikos konsistent zu
beurteilen und auf die Erfüllung der drei Ziele zu prüfen, werden die
folgenden Kriterien angewendet.8)
\
1. Das Kriterium der Stichhaltigkeit prüft die theoretische Fundierung
des Vorgehens und die korrekte Abbildung des Risikos. Entscheidend
ist, inwieweit die getroffenen Annahmen mit der Realität
übereinstimmen und welche Folgen etwaige Verletzungen haben.
\
2. Die Praktikabilität zielt auf eine reibungslose Implementierung,
Datenbeschaffung, Datenverarbeitung sowie die Handhabung und das
geforderte Knowhow ab und berücksichtigt die Wirtschaftlichkeit9).
Dieses Kriterium ist generell schwierig zu prüfen, da im Einzelfall
die unternehmensindividuellen Voraussetzungen einen entscheidenden
Einfluss haben.
\
3. Die innerbetriebliche Akzeptanz misst Transparenz, wahrgenommene
Fairness und Vermittlungsfähigkeit der Verfahren und berücksichtigt
Anreizwirkungen, die durch die Implementierung entstehen.
\
Die Gewichtung der Kriterien bei der Beurteilung hängt von dem Ziel
ab, das mit der Gesamtrisikoermittlung verfolgt wird. Für das Ziel der
Kapitaldeckung ist Stichhaltigkeit vor Praktikabilität und Akzeptanz
das entscheidende Kriterium, da Verfahrensungenauigkeiten bei der hier
zu betrachtenden Extremsituation (formalisiert durch ein kleines
alpha) signifikante Auswirkungen haben können und die katastrophalen
Folgen bei Zahlungsunfähigkeit einer Bank zu berücksichtigen sind. Das
Ziel der Allokation ist eng mit der innerbetrieblichen Steuerung und
daher mit Anreizwirkungen verbunden, weshalb auf eine hohe Akzeptanz
zu achten ist.
\
Aufgrund der Wichtigkeit der Funktionsfähigkeit des Systems ist ferner
der Praktikabilität mehr Beachtung zu schenken als der
Stichhaltigkeit. Diese Gewichtung kann auch damit gerechtfertigt
werden, dass unter normalen Marktbedingungen (formalisiert durch ein
vergleichsweise großes alpha) Abschnitte der Randverteilung von
Bedeutung sind, welche generell weniger sensitiv auf Verfahrensfehler
reagieren. Im Rahmen der Überlebenssicherung sind die Kriterien
Stichhaltigkeit und Praktikabilität gleichermaßen zu beachten.
Aufgrund der Langfristigkeit der Betrachtung würden sich Schätzfehler
durch Modellierungsungenauigkeiten potenzieren. Andererseits ist
aufgrund der Komplexität von dynamischen Gesamtbankmodellen auf hohe
Praktikabilität zu achten. Da die Ergebnisse nur für einen kleinen
Adressatenkreis bestimmt sind und kaum Einfluss auf das tägliche
Geschäft haben, ist das Kriterium der Akzeptanz weniger bedeutend. Für
jedes Ziel muss bei jedem Kriterium ein gewisses Mindestmaß erfüllt
sein. Abbildung 2 visualisiert die zielabhängige Gewichtung der
Kriterien.
\
Verfahren zur Ermittlung des Gesamtbankrisikos
\
Bei den Verfahren zur Bestimmung des Gesamtbankrisikos sind Bottom-up-
und Top-down-Ansätze zu unterscheiden.10) Bottom-up-Verfahren
ermitteln das Gesamtbankrisiko unmittelbar aus den Einzelpositionen,
ohne vorher über Risikoarten zu aggregieren. Eine Bestimmung der
Randverteilungen ist jedoch zur Erfüllung regulatorischer
Anforderungen (Ausweis des Markt-, Kredit- und operationellen Risikos)
zusätzlich erforderlich. Dieser Umstand und der hohe Rechenaufwand
machen Bottom-up-Ansätze für den Einsatz in der Praxis wenig
attraktiv. Aus diesem Grund widmet sich dieser Beitrag ausschließlich
der Analyse der Top-down-Ansätze, die das Gesamtbankrisiko aus bereits
aggregierten Daten ermitteln, ohne auf die einzelnen Positionen des
Bankportfolios abzustellen. Die ersten beiden der hier vorgestellten
Verfahren gehen dabei von vorliegenden Randverteilungen aus, während
bei Risikofaktormodellen im Vorfeld nicht über Risikoarten, sondern -
auf Basis von Risikofaktoren über Geschäftsbereiche aggregiert wird.
\
Varianz-Kovarianz-Verfahren: Dieses Verfahren verzichtet auf die
Ermittlung der Gesamtgewinn- beziehungsweise Gesamtrenditeverteilung
und schätzt stattdessen nur deren Quantil mit Hilfe der bereits
ermittelten Quantile1) der Randverteilungen und der linearen
Korrelation zwischen den Risikoarten. Ersetzt man in der klassischen
Formel zur Ermittlung der Standardabweichung eines Portfolios die
einzelnen Standardabweichungen durch die entsprechenden VaRs, so
erhält man folgende Formel als einfache Berechnungsgrundlage für den
Gesamtbank-VaR:
\
Hierbei bezeichnet [VaR] den VaR-Vektor der Randverteilungen und [K]
die Korrelationsmatrix, welche die Abhängigkeit der Wertrealisationen
untereinander beschreibt. Bei Annahme perfekt positiver Korrelationen
kann der aggregierte VaR durch einfache Addition berechnet werden;
dies entspricht dem Verfahren der Regulierung und impliziert eine
konservative Wertobergrenze.12)
\
Diese Art der Berechnung des VaR führt nur in Spezialfällen zum
korrekten Ergebnis. Grundvoraussetzung dafür ist, dass die
Randverteilungen vom gleichen Typ sind. Wie oben beschrieben,
unterscheiden sich jedoch die Verteilungen der einzelnen Risikoarten
erheblich.13)
\
Unterschiedliche Verteilungen je nach Risikoarten
\
Aggregation mit Copula-Funktionen: Bei diesem Aggregationsverfahren
werden die einzelnen Randverteilungen zu einer multivariaten
Verteilung verbunden und daraus die Gesamtverteilung ermittelt.14) Die
Copula-Funktion gibt dabei den Zusammenhang zwischen der multivariaten
Verteilung und den Randverteilungen der Risikoarten an. Der Satz von
Sklar besagt, dass jede gemeinsame Verteilung durch eine Copula und
die Randverteilungen beschrieben werden kann.15) Angewandt auf die
vorliegende Problematik bindet die Copula C gemäß folgender Formel die
drei Randverteilungsfunktionen zu ihrer gemeinsamen
Verteilungsfunktion FG:
\
Mit Copula-Funktionen können so auch gemeinsame Verteilungen
modelliert werden, die nicht über Randverteilungen gleichen Typs
verfügen. Die Gesamtverteilung wird einerseits durch die
Randverteilungen erklärt, die alle Informationen über die einzelnen
Risikoarten enthalten und andererseits durch die Copula, die alle
Informationen über den Zusammenhang zwischen den bereits aggregierten
Positionen beinhaltet.
\
Über die lineare Korrelation hinaus
\
Der Zusammenhang, der durch eine Copula beschrieben wird, geht
erheblich weiter als die lineare Korrelation, die nur bei elliptischen
multivariaten Verteilungen zu einer eindeutigen Zusammenführung der
Randverteilungen ausreicht.16) So können insbesondere
Randabhängigkeiten, die das gemeinsame Verhalten der Randverteilungen
in den tails angeben, explizit modelliert werden, wobei die Wahl der
Copula-Funktion eine entscheidende Rolle spielt.
\
Die Normal-Copula unterstellt zum Beispiel eine Abhängigkeitsstruktur
wie bei einer multivariaten Normalverteilung und erfordert damit zur
Aggregation neben den Randverteilungen nur noch die
Korrelationsmatrix.17) Die t-Copula ermöglicht im Vergleich zur
Normal-Copula das Abbilden von positiven Randabhängigkeiten. Dafür
muss als zusätzlicher Parameter die Anzahl der Freiheitsgrade
geschätzt werden. Ferner können Archimedische Copula-Funktionen
Abhängigkeitsmuster mit differierender unterer und oberer
Randabhängigkeit erzeugen.
\
Bei den Schätzverfahren lassen sich parametrische, semi-parametrische
und nichtparametrische Verfahren unterscheiden. Aufgrund der hohen
Datenanforderungen bei Letzteren, scheinen parametrische Ansätze für
die Praxis am zweckmäßigsten. Hierbei ist im Vorhinein festzulegen,
welche Copula-Familien berücksichtigt und damit welche Parameter
geschätzt werden sollen. Die Ermittlung der Gesamtverteilung ist bei
Copulas im Allgemeinen nur mit Hilfe einer Monte-Carlo-Simulation
möglich.18)
\
Identifikation von Risikofaktoren
\
Risikofaktormodelle: Risikofaktormodelle ermitteln das
Gesamtbankrisiko durch die Identifikation von Risikofaktoren und nicht
über die Aggregation der Risikoarten. Dahinter steht die Idee, dass
sich das Gesamtrisiko durch die Sensitivitäten (Vektor {L57442}i) des
Gewinns einzelner BUs gegenüber den Veränderungen von ausgewählten
Risikofaktoren (Vektor {L57464}) erklären lässt.19) Denkbare
Risikofaktoren sind zum Beispiel Zinssätze, Credit-Spreads,
Aktienkurse oder makroökonomische Größen wie die Inflationsrate. Die
Sensitivitäten können durch Regressionsverfahren empirisch bestimmt,
zum Teil analytisch hergeleitet oder durch Expertenurteile geschätzt
werden.
\
Im linearen Grundmodell von Alexander/Pézier (2003) wird der Gewinn Pi
eines Geschäftsbereiches beschrieben als
\
Dabei ist {L57447}i der erwartete Gewinn und {L949}i das Residuum,
also die nicht durch die Risikofaktoren erklärte Gewinnstreuung der BU
i. Der Gesamtbankgewinn ergibt sich als Summe der einzelnen Gewinne.
Aus den Varianzen der Risikofaktoren lässt sich die Varianz der
Gesamtgewinnverteilung ermitteln und damit das Gesamtbankrisiko: Mit
Hilfe der Kovarianzmatrix R für die Risikofaktoren und der
Kovarianzmatrix E für die Residuen20) kann die Kovarianzmatrix V, die
ihrerseits alle Kovarianzen zwischen den Gewinnen Pi der BUs enthält,
wie folgt berechnet werden:
\
Die Spalten der Matrix B bestehen aus den Sensitivitätsvektoren der
einzelnen BUs gegenüber den Risikofaktoren. Addiert man die Einträge
in V, so erhält man die Varianz des Gesamtbankgewinns, welche sich
multiplikativ mittels eines so genannten Skalierungsfaktors {L57463}
in den VaR transformieren lässt.21)
\
Die angegebene analytische Berechnung des VaR unterstellt eine
elliptische gemeinsame Verteilung der Risikofaktoren. Deshalb ist
dieses lineare Modell für eine kurz- bis mittelfristige Betrachtung
unter normalen Marktumständen entwickelt worden. Für extreme
Marktbedingungen ist das Grundmodell zu modifizieren. So kann der
lineare Zusammenhang zwischen Gewinnen und Risikofaktoren durch andere
funktionale Zusammenhänge, zum Beispiel quadratischer Natur, ersetzt
werden. Ferner bietet sich die Schätzung der Korrelationen auf Basis
von ausschließlich extremen Bewegungen an. Fat Tails bei den
Verteilungen ist zum Beispiel durch Annahme einer t-Verteilung
Rechnung zu tragen. Das Gesamtrisiko beziehungsweise der
Skalierungsfaktor kann dann nur durch eine Simulation und nicht mehr
analytisch ermittelt werden.22)
\
Analyse der Verfahren
\
Das Varianz-Kovarianz-Verfahren weist in Bezug auf die Stichhaltigkeit
erhebliche Mängel auf. Die Annahme einer elliptischen Gesamtverteilung
ist nicht haltbar, da die Randverteilungen völlig unterschiedlicher
Natur sind. Die Verwendung der linearen Korrelation als
Abhängigkeitsmaß ist ebenfalls nur bei elliptischer Verteilung
unproblematisch. Zudem ist das Verfahren unvermeidlich an die
Schwächen des VaR-Konzeptes gebunden. Copula-Funktionen erlauben
sowohl eine kohärente Aggregation von beliebigen Randverteilungen ohne
die Annahme einer multivariaten elliptischen Verteilung, als auch die
Verwendung von besser geeigneten Zusammenhangsmaßen als dem linearen
Korrelationskoeffizienten. Da der VaR nur mit Hilfe einer Simulation
bestimmt werden kann, ist die Stichhaltigkeit auch von der Qualität
dieser Simulation abhängig. Durch dieses Verfahren ergibt sich jedoch
der Vorteil, dass alternative Risikomaße berechnet und aus der
Gesamtgewinnverteilung weitere Informationen abgeleitet werden können.
\
Das lineare Risikofaktor-Grundmodell stellt Zusammenhänge stark
vereinfacht da und weist in Bezug auf Verteilungsannahmen ähnliche
Mängel wie das Varianz-Kovari-anz-Verfahren auf. Allerdings werden die
Risikofaktoren-Verteilungen aufgrund ihrer geringen Schiefe durch eine
elliptische Verteilung besser approximiert als die Renditeverteilungen
im Varianz-Kovarianz-Verfahren. Die Stichhaltigkeit hängt stark von
Art und Anzahl der Risikofaktoren und der Schätzbarkeit der
Sensitivitäten ab und steht so in einem direkten Zusammenhang mit der
Praktikabilität. Gelingt es, alle wesentlichen Modellparameter zu
identifizieren, kann das lineare Modell für normale Marktverhältnisse
das Gesamtrisiko ausreichend genau abbilden.23)
\
Die Verbesserungsmaßnahmen, die im erweiterten Modell den extremen
Marktbedingungen gerecht werden sollen, weisen ebenfalls starke
Vereinfachungen auf. Kritisch sind vor allem die Simulation des
Skalierungsfaktors und die Frage, wie stabil dieser ist, sowie die
Verwendung von Korrelationen zur Abbildung der Abhängigkeiten zwischen
den Risikofaktoren.24) Das Modell und somit auch die Stichhaltigkeit
sind jedoch grundsätzlich beliebig erweiterbar.
\
Hinsichtlich der Praktikabilität ist zum Varianz-Kovarianz-Verfahren
festzuhalten, dass es einfach installierbar und handhabbar ist, da der
Gesamtbank-VaR analytisch ohne hohen Rechenaufwand ermittelt werden
kann. Problematisch hingegen ist die Bestimmung der Korrelationen
zwischen den Renditen, die zwar technisch einfach ist, für die aber
gerade in Bezug auf das operationelle Risiko (noch) keine ausreichend
langen Zeitreihen vorliegen.25) Die größte Schwierigkeit bei der
Aggregation mit Copulas ist die Auswahl der richtigen Copula aus der
Vielzahl an Möglichkeiten. Hierfür sind sehr umfangreiche Zeitreihen
nötig, die in ausreichender Länge noch nicht vorliegen.
\
Handhabbarkeit prüfen
\
Rosenberg/Schuermann (2005) stellen bei ihren Untersuchungen
allerdings fest, dass der Einfluss der Copula-Wahl relativ gering
ist.26) Zur Ermittlung des Risikomaßes sind Simulationen notwendig,
die größere Rechenleistung voraussetzen. Generell sind Copulas
aufgrund ihrer Abstraktheit schwieriger zu handhaben und verlangen
tiefere statistische Kenntnisse als die anderen Verfahren. Auf den
ersten Blick scheint die Implementierung des Risikofaktormodells am
aufwendigsten, da die meisten Parameter ermittelt werden müssen.
Gerade für die Sensitivitäten und Korrelationskoeffizienten sind
Analysen von umfassenden Zeitreihen erforderlich. Es ist jedoch zu
berücksichtigen, dass Banken Erfahrungen im Umgang mit solchen
Verfahren haben, da sie unter anderem bei der Ermittlung der
Randverteilungen eingesetzt werden. Außerdem liegen Zeitreihen für
makroökonomische Risikofaktoren in größerem Umfang vor27) als für
interne Zusammenhänge, die für Copula-Verfahren benötigt werden. Die
Handhabung und erforderliche Rechenleistung ist stark abhängig von der
Anzahl der Risikofaktoren und der Komplexität des Modells.
\
Auf besonders hohe Akzeptanz wird aufgrund des Bekanntheitsgrades und
der leichten Verständlichkeit das Varianz-Ko-varianz-Verfahren stoßen.
Jedoch kann die mangelnde theoretische Fundierung auch Ablehnung und
das Gefühl von Willkür hervorrufen. Copulas sind in vielen Banken noch
relativ unbekannt. Die nötige Transparenz und das damit verbundene
Vertrauen muss noch geschafften werden. Problematisch wäre es zum
Beispiel, wenn schon die Wahl der Copula-Funktion einen signifikanten
Einfluss auf Ressourcenallokation beziehungsweise eine auf
Rendite/Risiko bezogene Erfolgsmessung undvergütung haben sollte.
Risikofaktormodelle sind in Risikomanagementsystemen bereits vorhanden
und damit bekannt.
\
Gerade die einfachen linearen Modelle sind intuitiv nachvollziehbar
und schärfen den Blick auf Gesamtbankrisikoebene für die
entscheidenden Risikofaktoren. Je komplexer und intransparenter die
Modelle werden, desto geringer wird ihre Akzeptanz sein. Da die
Randverteilungen teilweise selbst durch Risikofaktormodelle ermittelt
werden, wird ein Verfahren, das das Gesamtrisiko direkt durch ein
solches Modell ermittelt, auf höhere Akzeptanz stoßen, als ein
Verfahren, das erst einzelne Risikoarten ermittelt und diese dann
später aggregiert. Abbildung 3 fasst noch einmal die Stärken und
Schwächen der Verfahren zusammen.28)
\
Zielabhängige Beurteilung der vorgestellten Verfahren
\
Für das Kapitaldeckungsziel ist hohe Stichhaltigkeit und die
Berücksichtigung extremer Marktbedingungen das entscheidende
Kriterium. Nur Copula-Funktionen können diesen hohen Ansprüchen
gerecht werden und sollten trotz geringer Praktikabilität eingesetzt
werden.29) Um anfängliche Akzeptanzprobleme zu überwinden, könnte das
Varianz-Kovarianz-Verfahren die Einführungsphase begleiten.
\
Für das Allokationsziel ist aufgrund der Konsequenzen für die
innerbetriebliche Steuerung eine hohe Akzeptanz unverzichtbar. Da
ferner normale Marktbedingungen abgebildet werden sollen, ist ein
lineares Risikofaktormodell ein geeignetes Verfahren.30)
Copulabasierte Verfahren sollten langfristig dieses Ziel mit abdecken,
um eine doppelte Ressourcenbindung zu verhindern. Dafür müssen sie
zunächst durch Verwendung für das Kapitaldeckungsziel an Akzeptanz und
Praktikabilität gewinnen.
\
Für das Ziel der langfristigen Überlebenssicherung sind dynamische
Modellierungen notwendig, die von keinem der vorgestellten Verfahren
geleistet werden. Eine Dynamisierung der Risikofaktormodelle scheint
geeignet, einen Kompromiss zwischen Praktikabilität und
Stichhaltigkeit zu finden.
\
Wirtschaftlichkeit
\
Bei der praktischen Umsetzung ist zu prüfen, ob der gleichzeitige
Einsatz mehrerer Verfahren wirtschaftlich vorteilhaft ist.
Mittelfristig wird hier empfohlen, Copula-Verfahren zu implementieren,
da diese auch mit der Anforderung der Regulierung, einzelne
Risikoarten getrennt auszuweisen, vereinbar sind. Die
Hauptproblemfelder des Verfahrens, die fehlende Datenbasis zur
Parameterkalibrierung, der hohe Rechenaufwand und eine fehlende
Akzeptanz, dürften im Laufe der Zeit durch wachsende Zeitreihen,
technischen Fortschritt und steigenden Bekanntheitsgrad überwindbar
sein. Möglich ist auch, dass sich langfristig die Idee durchsetzt,
direkt auf Gesamtbankebene die Gewinnschwankungen durch die
Risikofaktoren abzubilden, um so den Blick für die eigentlichen
Ergebnistreiber zu schärfen.
\
Auch Kombinationen der beiden Verfahren sind denkbar, indem die
Abhängigkeit der Risikofaktoren durch Copulas modelliert wird oder im
Rahmen eines Copula-Modells die Randverteilungen durch
Risikofaktormodelle abgebildet werden. Zunehmend verschwinden wird
sicher das Zurückgreifen auf nicht haltbare Verteilungsannahmen oder
eine schlichte, konservative Schätzung des Gesamtbankrisikos durch
Vernachlässigung von Diversifikationseffekten auf höheren Ebenen.
Diese vereinfachende Risikomessung stellt langfristig kein adäquates
Instrument zur Erreichung bankinterner Ziele dar.

Prof. Dr. Dr. h. c. Andreas Pfingsten , Institut für Kreditwesen, Finance Center Münster, Universität Münster
Noch keine Bewertungen vorhanden


X