Aufsätze

Interne Ratingverfahren - Mehrwert für das Risikomanagement

Die Ausfallwahrscheinlichkeit eines Kreditnehmers zählt im Risikomanagement von Kreditinstituten zu den wichtigsten Risikogrößen. Um etwa den erwarteten Verlust (EL - Expected Loss) eines Kreditportfolios bestimmen zu können, wird für jeden einzelnen Kreditnehmer sowohl dessen Ausfallwahrscheinlichkeit (PD - Probability of Default) als auch die Verlustquote beim Auftreten eines Ausfalls (LGD - Loss Given Default) prognostiziert.

Verfahren zur Bonitätsbeurteilung beziehungsweise zur Vorhersage der PD bezeichnet man im Allgemeinen als Rating. Interne Ratingverfahren sind Modelle, die speziell auf dem Portfolio eines Kreditinstituts entwickelt wurden. Die Basis dafür bilden institutsspezifische historische Informationen. Das Verständnis über die Funktionsweise solcher Verfahren ist ebenfalls für die Kreditnehmer von großer Bedeutung, da sowohl die generelle Kreditvergabe als auch die Konditionen von der Bonitätseinstufung abhängig sind.

Motivation für interne Ratingverfahren

Im Rahmen von "Basel II" wurden konkrete gesetzliche Anforderungen an die methodische Entwicklung zur Berechnung von Risikoklassifikatoren gesetzt. Das Ziel ist die Sicherung der Risikotragfähigkeit der Kreditinstitute. Ein zusätzlicher Anreiz der auf internen Ratings basierenden Ansätze (IRBA - Internel Ratings Based Approach) ist das Potenzial zur Entlastung des Eigenkapitals.

Der aktuelle Beschluss des Baseler Ausschusses für Bankenaufsicht1) sieht ab 2013 strengere Eigenkapitalvorschriften für die Kreditwirtschaft vor. Das "Basel III" genannte Regelpaket fordert eine deutliche Erhöhung der Kernkapitalquote. Dies kann entweder durch die Ausgabe neuer Aktien oder die Bildung von Gewinnrücklagen erfolgen. Es gibt jedoch Befürchtungen, dass die Institute zur Erfüllung der Anforderungen ihr Kreditvolumen verringern werden, etwa durch eine restriktivere Kreditvergabe an risikoärmere Kunden mit guten Ratings. Aus Kundensicht ist es somit wesentlich, die eigene Kreditwürdigkeit durch ein ratingorientiertes Management zu optimieren.

Fehlende Bonitätseinstufungen am Markt

Neben den aufsichtsrechtlichen Anforderungen an die Entwicklung und Implementierung von internen Ratingverfahren ist ein weiterer Motivationsgrund, dass für einen Großteil von mittelständischen Firmen keine Bonitätseinstufungen am Markt verfügbar sind. Dieser Punkt ist insbesondere für Automobilbanken oder Mittelstandsfinanzierer relevant. Ebenfalls können die wertvollen eigenen Erfahrungen mit den Kunden in der Vergangenheit nur durch interne Verfahren nutzbar gemacht werden.

Die methodischen Ansätze zur Entwicklung eines Ratingverfahrens lassen sich in verschiedene Klassen einteilen. Hier sind heuristische, kausalanalytische und statistische Modelle zu nennen.2) Heuristische Modelle basieren auf dem Expertenwissen und den Erfahrungen von Kreditanalysten sowie auf subjektiven Einschätzungen. Hingegen bilden bei kausalanalytischen Modellen ökonomische Theorien die Grundlage zur Einschätzung der Bonität. Infolge der aufsichtsrechtlichen Vorgaben von "Basel II" rücken insbesondere auch die institutsspezifischen, statistischen Verfahren in den Fokus. Am weitesten verbreitet sind Regressionsmodelle und dabei in erster Linie das auf der logistischen Regression beruhende Logit-Modell. Ebenfalls finden teilweise Modelle aus der Survival Analysis3) Anwendung.

Funktionsweise und Modellentwicklung eines internen Ratingverfahrens

Die Funktionsweise eines statistischen Ratingverfahrens basiert auf der Heterogenität der einzelnen Kreditnehmer. Unterschiede im Hinblick auf die zukünftige Zahlungsfähigkeit können in den Unternehmensdaten der Kreditnehmer festgestellt werden. Statistische Verfahren nutzen diese Erkenntnisse aus, um eine Bonitätseinstufung zu ermitteln. Dies geschieht mit Hilfe verschiedener bonitätsrelevanter Informationen, den sogenannten Risikofaktoren.

Die wesentlichen Risikofaktoren stammen dabei aus unterschiedlichen Quellen. Insgesamt dominieren die quantitativen Kriterien. Bilanzkennzahlen lassen auf die wirtschaftliche und finanzielle Lage eines Unternehmens schließen. Weiterhin liefern institutsspezifische Erfahrungen mit einem Kunden meist klare Hinweise auf das zukünftige Zahlungsverhalten. Externe Auskünfte können ebenso einen relevanten Einfluss auf die PD-Prognose haben. Schließlich verschaffen sich Kreditinstitute auch mit den als "Soft Facts" bezeichneten qualitativen Kriterien zur Unternehmensführung einen Überblick über die zukünftige Lage ihrer Kreditnehmer.

Die Entwicklung eines Ratingverfahrens kann grundsätzlich in zwei wesentliche Schritte eingeteilt werden. Von Bedeutung sind einerseits die Generierung einer geeigneten Datengrundlage und andererseits die Entwicklung des statistischen Modells auf dieser Datengrundlage. Ein Ratingverfahren darf hierbei kein rein mathematisches Modell sein. In jeder einzelnen Phase sind fachliche Plausibilisierungen empfehlenswert und vorzunehmen. Ferner sollen während des gesamten Entwicklungsprozesses die Anwender (Kreditanalysten) mit ihrem Expertenwissen einbezogen werden. Dadurch steigt die Qualität des Verfahrens, und gleichzeitig wird die notwendige Akzeptanz erhöht.

Daten als Fundament statistischer Prognosemodelle

Das Fundament eines jeden statistisch entwickelten Prognosemodells bildet eine umfangreiche Datenhistorie. Bei den IRB-Ansätzen ist für den Risikoparameter PD eine Datenhistorie von mindestens fünf Jahren erforderlich.4) Den verwendeten Zeitraum zur Modellentwicklung nennt man Kalibrierungszeitraum. Zusätzlich zu den Ausfallereignissen müssen Daten zu verschiedensten bonitätsrelevanten Risikofaktoren zur Verfügung stehen, aus denen das mathematische Modell später eine Einschätzung der Zahlungsfähigkeit generiert. In der Regel besitzen die Kreditinstitute mittlerweile eigene qualitätsgesicherte Datenhistorien, die sowohl aufsichtsrechtlichen als auch statistischen Anforderungen genügen. Dazu haben sie in den letzten Jahren effiziente und standardisierte Prozesse zur Erfassung sowie Speicherung dieser Daten etabliert.

Der Datenqualität kommt eine besondere Bedeutung zu. Dabei muss zunächst eine konsistente Befüllung der Datenfelder gewährleistet sein. Eine mögliche Fehlerquelle ist die manuelle Eingabe von Daten. Ebenso kann die Migration von Datenbanken im Rahmen von Systemwechseln zu Inkonsistenzen in den Zeitreihen führen. Interne Kontrollsysteme helfen bei der Sicherstellung einer kontinuierlich hohen Datenqualität.

Zum Aufbau einer institutseigenen Ausfallhistorie ist eine eindeutige und in der Praxis anwendbare Ausfalldefinition notwendig. Es werden zwei Zustände eines Kreditnehmers unterschieden: ausgefallen oder nicht ausgefallen (aktiv). Hierfür sind in § 125 der Solvabilitätsverordnung5) Vorgaben gemacht, wann ein Kreditinstitut einen Kunden als ausgefallen betrachten muss.

Da mit einem Ratingverfahren vorhergesagt werden soll, ob ein Kreditnehmer in der Zukunft ausfällt respektive aktiv bleibt, muss zunächst der Prognosezeitraum für diese Vorhersage festgelegt werden. In der Regel bezieht sich die Prognose nach "Basel II" auf den Zeitraum von einem Jahr. Somit ist für jeden Kunden eindeutig zu bestimmen, ob er ausgehend von einem bestimmten Zeitpunkt in den nächsten zwölf Monaten ausgefallen ist oder nicht. Diese Zeitspanne wird auch Performance- oder Beobachtungszeitraum genannt.

Die Datenfelder der Stichprobe enthalten sowohl Ausfallinformationen für den Beobachtungszeitraum als auch die jeweils aktuellsten Risikofaktoren. Üblicherweise wird die Stichprobe in eine Kalibrierungs- und eine Validierungsstichprobe aufgeteilt. Erstere dient der eigentlichen Modellentwicklung und Letztere der Überprüfung der Modellgüte und Stabilität.

Bausteine zur Stabilität des Finanzsektors

Ausgehend von der Kalibrierungsstichprobe soll über ein Regressionsmodell die Auswahl und Gewichtung der einzelnen Risikofaktoren ermittelt werden, um darauf basierend eine Bonitätseinschätzung abzugeben. Das Ziel hierbei ist, gute von schlechten Kreditnehmern möglichst sicher zu differenzieren. Die Modellierung eines Ratingverfahrens stellt sich generell als ein iterativer Prozess dar.

Im Allgemeinen ist es fachlich nicht sinnvoll sowie statistisch problematisch, eine große Anzahl von verfügbaren Risikofaktoren in ein Modell aufzunehmen. Das Einbinden von zu vielen sowie irrelevanten Risikofaktoren kann zum sogenannten Overfitting an die Kalibrierungsdaten führen.6) Dabei besteht die Gefahr, dass sich die erwartete Prognosefähigkeit des Verfahrens in der Validierungsstichprobe und insbesondere in der Anwendungsphase stark verschlechtert.

Um dies zu verhindern, wird bei den univariaten Analysen jeder der Faktoren einzeln auf Eignung untersucht. Es findet also eine Vorauswahl der Kennzahlen mit Hilfe der folgenden Kriterien statt. Erstens soll ein Risikofaktor einzeln betrachtet im Allgemeinen eine gewisse Trennschärfe besitzen, das heißt gute von schlechten Kreditnehmern unterscheiden. Als Maß sei hier die AUC (Area Under the Curve) genannt, welche über die ROC (Receiver Operating Characteristic) abgeleitet werden kann.

Zweitens muss der Verlauf der Ausfallrate bei einem Risikofaktor einer zuvor von Experten festgelegten Arbeitshypothese genügen. So entspricht etwa ein geringerer Verschuldungsgrad in der Regel einer besseren Bonität. Drittens sollten die Werte einer verwendeten Kennzahl über den gesamten Stichprobenzeitraum für einen Großteil der Kreditnehmer vorhanden sein.

Einsatz multivariater statistischer Verfahren

Um die finalen Risikofaktoren mit den zugehörenden Gewichten (Modellparameter) zu ermitteln, werden multivariate statistische Verfahren eingesetzt, also die gleichzeitige Untersuchung mehrerer Variablen. Zunächst wertet man die ausgewählten Risikofaktoren auf gegenseitige Abhängigkeiten (Korrelationen) aus. Stark korrelierte Risikofaktoren sind in Ratingmodellen zu vermeiden, da sie überwiegend den gleichen Informationsgehalt abbilden.

Ein gängiges Verfahren zur statistischen Berechnung der Gewichte der einzelnen Risikofaktoren basiert auf der logistischen Regression. Die so entwickelten Modelle nennt man Logit-Modelle.7) Damit kann Ereignissen, die nur zwei unterschiedliche Ausprägungen annehmen (aktiv und ausgefallen), eine Eintrittswahrscheinlichkeit zugeordnet werden. Basis ist folgende Modellgleichung:

Für einen beliebigen Kreditnehmer i bezeichnet Pii dessen Ausfallwahrscheinlichkeit, Yi eine binäre Zufallsvariable mit den Ausprägungen 0 (aktiv) und 1 (ausgefallen) sowie si den sogenannten Scorewert.

Dieser ist eine Linearkombination der Realisierungen einzelner Risikofaktoren xi = (1, xi1, ..., xik) multipliziert mit den zugehörigen Gewichten Beta = (Beta0, Beta1, ..., Betak). Die Gewichte und die Auswahl der Parameter werden durch einen Optimierungsalgorithmus mit der Maximum-Likelihood-Methode berechnet. Die Funktion F ist eine Linkfunktion. Bei dem Logit-Modell wird für F die logistische Verteilungsfunktion zugrunde gelegt.

Mit obiger Formel kann nun über den Scorewert si jedem Datensatz der Kalibrierungsstichprobe eine Modellausfallwahrscheinlichkeit Pii zugeordnet werden. Es hat sich etabliert, den Scorewert auf eine Skala (zum Beispiel: 0 bis 1000 Punkte) zu transformieren. Höhere Punktzahlen gehen üblicherweise mit einer besseren Zahlungsfähigkeit einher. Die Reihenfolge bezüglich des Scorewerts stellt also schon selbst eine Bonitätsaussage für die Kreditnehmer eines Portfolios dar.

Auf das Portfolio zugeschnittene Kalibrierung der Ratingklassen

Die dargestellte Berechnung der Modellausfallwahrscheinlichkeit Pii kann eventuell in bestimmten Bereichen des Scorewerts den individuellen Portfolioeigenschaften nicht ausreichend Rechnung tragen. Bei der Berechnung der Ausfallwahrscheinlichkeit als Funktionswert der logistischen Verteilungsfunktion findet wie bei jedem Regressionsmodell eine Annäherung statt. So ist es jedoch möglich, dass in bestimmten Bereichen die Verteilung der aktiven und ausgefallenen Datensätze zu einer etwas veränderten PD-Prognose führt.

Eine auf das zugrunde liegende Portfolio besser abgestimmte Kalibrierung der Ratingklassen ergibt sich, wenn man für den aktiven sowie ausgefallenen Teil der Stichprobe getrennt die Verteilungen beziehungsweise Dichten der Scorewerte über eine Kerndichteschätzung ermittelt. Mithilfe dieser zwei auf die Gesamtanzahl der Datensätze normierten Kerndichten wird eine Score-to-PD-Kurve PD(s) mit der Formel

berechnet, wobei f A die normierte Dichte der ausgefallenen Datensätze, f NA die normierte Dichte der nicht ausgefallenen und s einen beliebigen Scorewert bezeichnen.

In Abbildung 1 ist eine Score-to-PD-Kurve dargestellt, die jedem möglichen Scorewert s eine PD zuordnet. Idealerweise ist die Score-to-PD-Kurve über den gesamten Scorebereich monoton fallend. Eine typische Rating-Masterskala (MS) besteht aus Ratingklassen. Bekannt ist die Nomenklatur mit Buchstaben wie AAA, AA oder A. Mit jeder dieser Ratingklassen wird ein konkretes PD-Intervall assoziiert. Das heißt, dass die PD für einen Kreditnehmer in einer bestimmten Klasse in diesem vorgegebenen Bereich liegt.

Abbildung 1 veranschaulicht weiter, wie durch die Schnittpunkte der Score-to-PD-Kurve mit den Intervallgrenzen die Bereiche der Ratingklassen bezüglich der Scorewerte festgelegt werden. Links des 1-Prozent-Quantils und rechts des 99-Pro-zent-Quantils befinden sich jeweils nur ein Prozent der Daten aus der Stichprobe. Die Score-to-PD-Kurve kann insbesondere in diesen Bereichen aufgrund der geringen Datenmenge stärker schwanken. Gegebenenfalls wird die Eigenschaft der Monotonie verletzt. Dort sollten die Grenzen der Ratingklassen dann manuell angepasst werden.

Jeder Kreditnehmer kann nun einer Ratingklasse zugeordnet werden. Verschiedene Folgeprozesse, wie die Berechnung eines EL, setzen jedoch eine exakte PD-Prognose voraus. Dazu ermittelt man für jede Ratingklasse den Quotienten aus der Anzahl der ausgefallen Datensätze und der Gesamtanzahl aller Datensätze.

Prüfung der Modellgüte für den produktiven Einsatz

Um die Güte des Gesamtmodells und dessen Eignung für den produktiven Einsatz bestimmen zu können, werden die Eigenschaften auf der Validierungsstichprobe überprüft. Dieser Teil der Modellentwicklung wird insofern auch als Validierung bezeichnet. Dabei ist unter anderem die Trennfähigkeit des Verfahrens bezüglich der Ratingklassen zu bestimmen. Hierzu kann wieder die AUC unter der ROC-Kurve verwendet werden (Abbildung 2, linke Grafik). Ein Zufallsmodell ergibt eine AUC von 50 Prozent, ein perfekt trennendes Modell eine AUC von 100 Prozent. Dazwischen bedeuten höhere Werte eine größere Trennschärfe.

Darüber hinaus veranschaulicht die mittlere Grafik in Abbildung 2 die Verteilung der Scorewerte über die Ratingklassen mittels Histogrammen (getrennt nach aktiv und ausgefallen). Bei dieser Qualitätssicherung ist darauf zu achten, dass bestimmte Ratingklassen nicht überbesetzt sind. Eine Befüllung von unter 30 Prozent aller Kreditnehmer kann als Richtwert dienen. Je weiter die Mittelwerte der beiden Verteilungen auseinander liegen, desto besser differenziert das Ratingmodell.

Die rechte Grafik von Abbildung 2 zeigt einen Gütetest der PD-Prognose. Dieser erfolgt durch einen Abgleich der prognostizierten PD (gemäß Kalibrierung) mit der realisierten Ausfallrate in den einzelnen Ratingklassen. In einer schwach besetzten Klasse ist es möglich, dass die realisierte Ausfallrate außerhalb des vorgesehenen PD-Intervalls liegt (siehe Klasse D). In der Grafik gibt es bei der Klasse AAA überhaupt keine Ausfälle. Dadurch kann hier keine realisierte Ausfallrate berechnet werden. Es ist jedoch im Einzelfall zu entscheiden, ob manuelle Anpassungen der Ratingklassengrenzen vorgenommen werden müssen.

Befindet sich das Ratingverfahren im Einsatz, sollte regelmäßig ein Monitoring und eine Validierung durchgeführt werden.8) Damit können signifikante Veränderungen frühzeitig erkannt und gegebenenfalls Handlungsbedarf abgeleitet werden.

Wie bereits erwähnt wird im Allgemeinen aufgrund der gesetzlichen Vorgaben als Beobachtungszeitraum ein Jahr gewählt. Alternativ können andere Zeithorizonte (18, 24, ... Monate) oder gar die gesamte Vertragslaufzeit für gewisse Fragestellungen relevant sein. Die genaue Spezifikation des Modells erfolgt damit immer in Abhängigkeit vom Prognoseziel.

Alternative Prognoseziele

Dies betrifft aber nicht nur den Beobachtungszeitraum, sondern auch den gewünschten Verlauf der PD-Schätzung. Hier sind grundsätzlich die zwei unterschiedlichen Vorgehensweisen Through-the-Cycle (TTC) und Point-in-Time (PIT) zu nennen.9)

Beim TTC-Ansatz ist das Ziel, ein langjähriges Mittel der PD zu prognostizieren. Das Ergebnis ist eine relativ flache PD-Kurve über die Zeit hinweg (Abbildung 3, linke Grafik). Die PD-Prognose bildet somit die kurzfristigeren konjunkturellen Bewegungen der Ausfallrate nicht beziehungsweise nur schwach nach. In guten konjunkturellen Phasen wird die Ausfallwahrscheinlichkeit eher überschätzt und entsprechend in schlechten Phasen unterschätzt. Jedoch sollte die Prognose im Mittel über einen Konjunkturzyklus zutreffen. Der Vorteil dieser Methode ist die relative Stabilität der Ratingeinstufungen.

Beim PIT-Ansatz ist das Ziel, die Ausfallrate zu jedem Zeitpunkt möglichst genau vorherzusagen, das heißt, die PD-Kurve soll den Verlauf der Ausfallrate möglichst genau abbilden (Abbildung 3, rechte Grafik). Ein einzelner Firmenkunde kann dabei in kürzeren Abständen unterschiedliche Ratingergebnisse erhalten.

Es ist zu beachten, dass die PD-Prognose nicht direkt in Zusammenhang mit der Trennfähigkeit des Modells steht. Somit können zwei Modelle unabhängig von deren unterschiedlichen PD-Verläufen auf Gesamtportfolioebene die gleiche Trennfähigkeit besitzen.

Mehrwert für das Risikomanagement von Kreditinstituten

Bei der praktischen Umsetzung im Ratingmodell verwendet die TTC-Prognose verstärkt statische oder sich langsam ändernde Kennzahlen. Dazu gehören die Branchenzugehörigkeit oder Bilanzkennzahlen. Eine PIT-Prognose erfordert, dass zum Beispiel konjunkturabhängige Kennzahlen mit einem signifikanten Einfluss in das Modell eingehen. Bekannte Konjunkturindikatoren sind der IFO-Geschäftsklimaindex und der ZEW-Index. Letztendlich muss also zu Beginn der Modellentwicklung eindeutig festgelegt werden, welche Vorhersage das Ratingverfahren abgeben soll.

Das in diesem Artikel dargestellte Vorgehen veranschaulicht die Entwicklung interner Ratingverfahren. Aufgrund ihrer Konzeption generieren diese Verfahren über die Erfüllung aufsichtsrechtlicher Anforderungen hinaus Mehrwerte für das Risikomanagement von Kreditinstituten. Sie liefern damit einen Baustein zur Stabilität des Finanzsektors.

Fußnoten

1) Basel Committee on Banking Supervision; Basel III: A global regulatory framework for more resilient banks and banking systems; 16. Dezember 2010.

2) P. Reichling, D. Bietke, A. Henne; Praxishandbuch Risikomanagement und Rating; Gabler, Wiesbaden, 2007.

3) J. P. Klein, M. L. Moeschberger; Survival Analysis: Techniques of Censored and Truncated Data; Springer, New York, 2003.

4) 8. Sitzung AK Basel II; Bericht Fachgremium IRBA; 8. Juni 2005.

5) Verordnung über die angemessene Eigenmittelausstattung von Instituten, Institutsgruppen und Finanzholding-Gruppen (Solvabilitätsverordnung - SolvV); 14. Dezember 2006.

6) L. Fahrmeir, T. Kneib, S. Lang; Regression: Modelle, Methoden und Anwendungen; Springer, Berlin, 2007.

7) A. Henking., C. Bluhm, L. Fahrmeir; Kreditrisikomessung: Statistische Grundlagen, Methoden und Modellierung; Springer, Berlin, 2006.

8) Basel Committee on Banking Supervision; Studies on the Validation of Internal Rating Systems; Working Paper No. 14, 2005.

9) R. Topp, R. Perl; Through-the-Cycle Ratings Versus Point-in-Time Ratings and Implications of the Mapping Between Both Rating Types; Financial Markets, Institutions & Instruments 19, S. 47-61, 2010.

Noch keine Bewertungen vorhanden


X