Aufsätze

Spiele gegen die Natur: Eine Hypothek für Einsteins Erben in den Banken

Im Spiel lernt man, sich mit der Umwelt auseinanderzusetzen. Ausgangspunkt der Spieltheorie sind Gesellschaftsspiele (Go, Poker, Schach), deren Ergebnisse nicht nur vom reinen Zufall abhängen wie bei Glücksspielen (Bakkarat, Roulette, Würfeln), sondern auch vom Verhalten der Spieler, die im Rahmen der Spielregeln ihren Vorteil suchen. Die Spieltheorie ist die Mathematik zur Beschreibung und Vorhersage von Spiellösungen. Dabei können mit der Spieltheorie die Statistik des Werfens von Münzen und Würfeln beschrieben, Anti-Terror-Szenarien entwickelt und Strategien im Militär durchgespielt werden. In der Ökonomie erklärt die Spieltheorie wie Information in Kurse und Preise kommt.

Auf dem Feld der Spieltheorie

Im modernen Risikomanagement ist man auf dem Feld der Spieltheorie, wenn Stulz zum Long Term Capital Management (LTCM)-Desaster schreibt "Modern finance traditionally assumes that there is enough competition in markets that investors or companies can take prices as given and simply react to them. The foundational work of Merton and Scholes is grounded in this assumption, as is virtually all subsequent research in derivatives pricing. Yet, in 1998, the prices at which LTCM could trade depended on what the market thought LTCM would or could do" (vergleiche Stulz, 2000).

Was verbindet Spieltheorie und Risikomanagement (Finanzmathematik)? Auf den ersten Blick erscheint die Antwort simpel: Strategisches Verhalten treibt Bankgeschäfte. Schaut man genauer hin und versteht unter Strategie das Lösen von Problemen, sind Zweifel angebracht. Ein Beispiel ist der (Fast-)Konkurs des Hedge-Fonds LTCM in 1998 (grundlegend Lowenstein, 2000). Die anfangs sehr erfolgreichen LTCM-Strategien wurden vom Markt einfach imitiert. Dadurch änderten sich die Daten entscheidend. Dies wurde vom LTCM-Management schlicht ignoriert. Es wurde nicht erkannt, dass die Preise für Finanzaktiva durch Veränderungen von Verhalten nicht mehr mit präferenzfreien Black/Scholes-Formeln berechenbar waren.

Die Opfer auf dem Altar der "Griechen" waren gigantisch. Das bekannte Verhängnis nahm seinen Lauf, als die Finanzmärkte die Risiken anders verteilten als die Kennzahlen (Alpha, Beta, Gamma, Delta) der finanzanalytischen Standardmodelle (vergleiche grundlegend Paul/Baschnagel, 2001): Einmal mehr deckte die Praxis gravierende Mängel der herrschenden Theorie auf: nicht-quantifizierbares wurde quantifiziert; zusätzliche Risiken wurden übernommen, statt vorhandene Risiken zu beherrschen.

Dass Risiken nicht den Standardmodellen (einer Normalverteilung/Gauss-Verteilung) folgen, ist natürlich nicht erst seit dem LTCM-Desaster unbestritten. Die Finanzmathematik hat Werkzeuge jenseits der Normalverteilung. Als Beispiel sei genannt, dass neue finanzanalytische Modelle Fortschritte im Risikomanagement verheißen, die mit Pareto-Verteilungen und Levy- Verteilungen (stabilen Verteilungen) das Risikomanagement genauer an die empirischen Daten (die Vergangenheit) anpassen, als es die Normalverteilung tut, die ein Spezialfall der Levy-Verteilung ist (vergleiche Otto 2003). Und dennoch: Auch wenn Levy-Modelle die Realität dadurch akkurater abzubilden scheinen als dies Standardmodelle tun, weil bei Levy-Verteilungen durch "fette Schwänze" die Wahrscheinlichkeit für große Abweichungen vom Mittelwert groß ist; die Irritationen im Kern von Risikomanagement bleiben bestehen.

Unbestimmtheit der Spielregeln

Hier ist das Kernproblem, dass der Tatsache, dass am Finanzmarkt weltweit rund um die Uhr Information produziert und gehandelt wird, durch die im Dogma der Stochastik verwurzelte Finanzmathematik im Status quo auch mit Levy-Verteilungen nur der Risiken rigoros linearisierende Ansatz gegenübergestellt werden kann: Kurse (Information) sind zwar nicht vorhersagbar, aber ihre Fluktuationen können durch mathematische Zufallsgesetze statistisch beschrieben werden; deshalb ist ihr Risiko messbar und steuerbar. Ist für Akteure, die ihr Vermögensportfolio bestmöglich strukturieren wollen, der Handel mit Information die Basis für das Schaffen und den Nutzen von Spielräumen und lassen die Spielregeln an den Finanzmärkten mit der Unbestimmtheit der Spielräume auch stets gewisse Möglichkeiten offen, sind präferenzfreie Modelle keine Problemlösungen. Es stehen Fragen im Raum wie: Entwickelt sich gemäß der Wahrscheinlichkeitstheorie der Zufallsprozess im Zeitablauf wirklich Schritt für Schritt fort? und: Ist die Brownsche Bewegung, nach der sich die Risikoträger wie flüchtende Zick-Zack-Läufer verhalten müssen, das universelle Muster zur Beschreibung von Risiken?

Fragen zur wahren Natur von Risiko

Über Fragen zur wahren Natur von Risiko ist differenziert nachzudenken, wenn es immer offensichtlicher wird, dass Modelle zu schlicht sind, die das Risikospektrum systematisch verkürzen, weil der Gewinn von fairen Wetten auf eine Reihe von Münzwürfen schematisch nachmodelliert wird. Nicht nur das LTCM-Desaster zeigt, dass Marktanomalien keine statistischen Kuriositäten sind, die vernachlässigt werden können. Auch im nicht spektakulären Kleinen sind die Investoren, die nach "unwahrscheinlichen" turbulenten Handelstagen auf der Strecke bleiben, der oft traurige Beweis dafür, dass Ereignisfolgen, die unwahrscheinlich sind, nicht unmöglich sind.

Dabei sollte es nicht verwundern, dass der Finanzmarkt ein aktiver und kein passiver Spieler ist: Wenn sich die Akteure so wenig überraschungsfrei verhalten würden, wie es in den Modellen zurzeit noch unterstellt wird und wenn die Erfolgswahrscheinlichkeiten nicht davon abhängen würden, was andere tun, wären die Börsianer wahrscheinlich schon ausgestorben. Dass auch Motive, Information, Reputation, Mutmaßungen, Hoffnungen, Risikobereitschaft und Anreize und nicht statistische Kennzahlen allein die wahren Treiber von Risiken sind und dass der Mensch schon seit Urzeiten die Spielmetapher benutzt, um sich mit seiner Umwelt differenziert auseinanderzusetzen, macht die facettenreiche Spielfigur also auch in der Finanzmathematik universell - sollte man meinen (vergleiche Bieta, 2005).

Wider der Optimierung des Normalfalls

Dass Börsenspiele keine fairen Wetten auf den Gewinn einer Folge von Münzwürfen sind, weil das Börsengeschehen nicht Offenheit, sondern Heimlichkeit treibt, ist ein ernstes Problem: Sind durch die neuen Eigenkapitalvorschriften (Basel II) auch qualitative Risiken (statistisch nicht-messbare Verhaltensmuster) zu quantifizieren, stehen Modelle für eine riskante Bescheidenheit im Anspruch, die im Kern das Postulat nur konservieren, dass Kurse mit gleicher Wahrscheinlichkeit steigen oder fallen, mit der eine faire Münze "Kopf" oder "Zahl" zeigen kann?

Fehlen saubere Datenreihen als notwendiger Input für das Klassifizierungsuniversum der "Griechen", wenn an den Märkten die Absicht (Facettenreichtum) den reinen Zufall des Münzwurfs (Facettenarmut) verdrängt, steht für den durch das Basel II-Spielregelsystem zu erwartenden Paradigmawechsel die nicht neue Erkenntnis: Zustandsrisiken (Erdbeben, Vulkanausbrüche, Flutwellen) folgen mathematischen Zufallsgesetzen; Verhaltensrisiken (Herding, Reaktionen, Überreaktionen) folgen Mustern wider der Natur des Münzwurfs (vergleiche Gray, 2000).

Ist auch im Bankgeschäft das, was sich heute bewährt, morgen vielleicht ein Nachteil und ist eine Option, die es gestern noch nicht gab, heute vielleicht die beste Wahl, ist im Risikomanagement jede Optimierungsaufgabe auch eine Designaufgabe? Das Researcher-Bonmot: "What we can't measure we can't manage" immunisiert nicht mehr gegen Kritik, wenn ein durchaus bewährter Bewertungsapparat dadurch Sand ins Getriebe bekommen muss, weil das Zufällige immer weniger unter die Kontrolle der statistischen Gesetze gerät, wenn es in Finanznetzen immer weniger die "Großen Zahlen" sich wiederholender Ereignisse gibt. Lautet die Basel II-Kernfrage: Wie viel Risiko lässt sich wirklich messen, kann keine Problemlösung nur dadurch funktionieren, wenn in der Logik von Münzen, Würfeln und Glücksrädern nach einem mathematisch durchaus komplizierten, aber nicht komplexen Schema nur lange genug optimiert wird?

Kann man nicht wissen, welchen Wert und welchen Nutzen Menschen, die keine Glücksräder im Kopf haben, unterschiedlichen Szenarien zuweisen, ist eine gewisse Distanz zu den Deutungsmustern der Finanzmathematik im Status quo schon fast eine Überlebensstrategie? Ist, wie beim Enron-Desaster wieder geschehen, der Bruch von Spielregeln (und damit das Zusammenstürzen der jeweiligen Spielwelt) alltäglich und sind im Risikomanagement die unterschiedlichen Interessen der verschiedenen Stakeholder (Aktionärsgruppen, Mitarbeiter, Ratingagenturen) zu befriedigen, sind Risikomodelle, die mit Up und Down als Unruh wie Uhrwerke mechanisch ticken, ein Darstellungsmodus der wichtigen Phänomenen des Marktes hilflos gegenüber steht (Chichilnisky/Heal, 1998)?

Den Handel mit dem Risiko erklären

Ein Kalkül, das im für Outsider kaum verständlichen mathematischen Idiom, die Risiken stets im Münzwurf essentialisieren muss, um statistisch etwa messen zu können und Basel II als erklärter Problemlösungsansatz passen ganz offensichtlich nicht zusammen. Dass Zustands- und Verhaltensrisiken nicht dasselbe sind, macht den entscheidenden Punkt deutlich. Mit den feinen Methoden der Stochastik darf die Finanzmathematik nicht länger systematisch zu schnell an der Robustheit des Gegenstandes scheitern. Es ist explizit darauf hinzuweisen, dass ein mit den Standardmodellen geplantes Optimum sich nur unter so scharfen Bedingungen (Spielregeln) einstellt wie:

1. der Glaube an ein Naturgesetz, dass Streuungen tatsächlicher Börsenrenditen in der Vergangenheit eine für Prognosen gültige Wahrscheinlichkeitsverteilung abbilden,

2. die einzelnen Börsenrenditen müssen voneinander unabhängig sein (stochastische Unabhängigkeit) und

3. die behauptete Wahrscheinlichkeitsverteilung an Häufigkeitszahlen darf sich im Zeitablauf nicht ändern (Stationarität der Wahrscheinlichkeitsverteilung; vergleiche grundlegend Hausmann, 2002).

Auch wenn die Säule I von Basel II mit den Internal Rating Based (IRB)-Lösungen (das heißt über Ausfallwahrscheinlichkeiten erfolgt die interne Bonitätsbestimmung der Kreditnehmer für die notwendige Eigenkapitalunterlegung) naturwissenschaftliche (stochastische) Lösungen direkt adressiert; Rocket Scientists müssen umdenken. Das Säulenprinzip von Basel II ist ein Verbundkonzept. Mit der Problemlast der Säule II und der Säule III, die gleichgewichtig neben der Säule I stehen, werden Zustands- und Verhaltensrisiken direkt verzahnt. Damit ist klar: Nicht für seine Teile, sondern für das Verbundkonzept selbst ist ein passender Bewertungsapparat bereitzustellen.

Ist Basel II aber als Ganzes zu sehen, ist es also ein riskantes Spiel, weiter nur die Risiken abzusichern, die von der statistischen Eintrittswahrscheinlichkeit her bestimmbar sind. Fehlen die für den problemlosen Zugriff der Wahrscheinlichkeitstheorie notwendigen Massenerscheinungen (das heißt die zur Berechnung des reinen Zufalls notwendigen Zufallsexperimente, wo in einem festen Komplex von Bedingungen Versuche beliebig oft wiederholbar sind) ist das Geschehen an den Finanzmärkten im Generellen kein Spiel gegen die Natur (Casino Game). Man sieht bei LTCM deutlich die Mängel eines Bewertungsapparates, der mit der Wahrscheinlichkeitstheorie die Ursachen gerade dadurch offen lassen kann, weil die Wahrscheinlichkeitstheorie den reinen Zufall durch Wahrscheinlichkeitsgesetze (Verteilungen, Prozesse, Momente) modellieren kann (vergleiche Jovanovic/Le Gall, 2001).

Mit dem Unvorhergesehenen rechnen können

Nach der Erkenntnis von Stulz ist das Gesagte keine gewagte These (vergleiche Stulz, 2000). Obwohl im Risikomanagement das Prinzip des Zufalls von keiner Theorie, die ernst genommen werden will, ignoriert werden kann, wird niemand den folgenden simplen Sachverhalt ernsthaft bestreiten: Wegen der Spielmacherqualitäten der Treiber von Risiken sind die Informationen, die statistische Messungen liefern, die eine Vergangenheit nur fortschreiben, lediglich ein sekundäres, abgeleitetes Konzept. Müssen die Gründe interessieren, warum eine Prognose nicht zutrifft, ist der Preis für das notwendige Mehr an Wissen über die wahren Ursachen und die wahre Natur von Risiken die Krisis der Abbildung: Ist nicht jedes Spiel ein Glücksspiel (Zufallsexperiment), weil an den Finanzmärkten die Grenzen, die von den Standardmodellen gezogen werden, nicht die Grenzen derer sind, die bei ihren Wetten auf die Zukunft auch viel zu verlieren haben, müssen zukunftsfähige Modelle auch eine Systematik zur Beschreibung und zur Vorhersage von Verhaltensrisiken sein - diese Systematik ist die Spieltheorie (vergleiche Bieta, 2006).

Der Unterschied von Zustandsrisiken und Verhaltensrisiken ist wegen der Schlüsselposition, die Akteure an Finanzmärkten einnehmen, zu markieren. Ist unter Gesamtbanksteuerung genau zu verstehen, ob Aktionäre erwarten, dass bestimmte Risiken abgesichert werden, oder ob sie bereit sind, bestimmte Risiken selber zu tragen und im Rahmen eigener Portfolioanalysen selbst zu managen, wird es einfach schwieriger, durch wenig ereignisgenaue, kontextrobuste Modelle dank Mathematik und begrifflicher Essentialisierung zum Wesentlichen vorzustoßen (vergleiche Danielsson/Shin, 2003).

Werden an den Märkten, wider der probabilistischen Annahmen, Risiken dadurch eingegangen, dass ganze Definitionsbereiche oder Gegenstandsbereiche zerstört oder neue Definitionsbereiche eröffnet werden, ist die Optimierung des Normalfalls und das Management von Risiko nicht dasselbe. Zu markieren ist der Unterschied, dass an den Märkten im Gegensatz zur Physik die Ausreißer entscheidend sind. Spielt der Zufall aber eine Rolle, die über dessen Rolle in der Wahrscheinlichkeitstheorie hinausgeht, ist nach Modellen zu suchen, die sich auch auf Erfahrungen stützen und auch neue Faktoren in Lösungen mit einzubeziehen.

Damit ist klar: Mit Basel II wird Risikomanagement, das die anreizkompatible und risikoorientierte Gestaltung der regulatorischen Messverfahren einstellen muss, einfach schwieriger, weil ein Teil seiner Erfolgsgeschichte gerade darauf basiert, dass Fragen zu Verhaltensrisiken (Operational Risk) nicht gestellt wurden. Dabei ist das für den Anspruch einer Theorie eigentlich Fatale, dass Fragen zu Verhaltensrisiken mit dem Bewertungsapparat von Risikomanagement im Status quo zukünftig auch nicht gestellt werden können.

Dass Risikomanagement oft an der Bewertungsaufgabe scheitert, die von den Märkten gestellt wird, verwundert also nicht wirklich: Selbst wenn Akteure wissen, dass ein Papier überbewertet ist, hoffen sie auf einen weiteren Aufschwung. Wird nach dem Prinzip: "Solange ich gewinne, spiele ich weiter" entschieden, und verteilen Investoren auch weiter ihre Mittel nach dem Prinzip der "heißen Hand", bestimmen Annahmen über das Verhalten der Mitspieler (Gegenspieler! ) die Risiken, um die es wirklich geht. Damit reicht es nicht aus, nur objektive Wahrscheinlichkeiten zu berechnen oder zu schätzen. Dass ein Erdbeben nicht darauf reagiert, was der Geologe misst, Investoren aber sehr wohl auf das reagieren, was Analysten zu messen glauben hat ernste Konsequenzen: Sind im Verhalten (un-)vorhersehbare Akteure die zeitgenössischen Risikoquellen, muss Risikomanagement durch das "Messen" von Verhaltensmustern (Präferenzen) auch mit dem Unvorhergesehenen (statistisch nichtmessbaren) rechnen können. Ob Risikomanagement, das keine aufquellenden Risiken kennt, noch lange ein Meisterwerk des fast nur noch für Mathematiker und Physiker verständlichen Bildes bleiben kann, ist abzuwarten (vergleiche Ekeland, 2003).

Spielen, Rechnen, Entscheiden

Dass bei LTCM mit Merton/Scholes zwei Nobelpreisträger der stochastischen Finanzmathematik große Verantwortung trugen, ist nur ein spektakulärer Beweis dafür, dass sich viele relevante Faktoren nicht so beherrschen lassen wie in der Physik. Ist Informationsasymmetrie (Heimlichkeit) im Spiel, kommen stochastische Modelle durch das Einstellen von Informationssymmetrie per Konstruktion mit zu wenig Information aus: Die Welt kann per Verteilungsannahme nicht schon geordnet werden, bevor sie sich bewegt. Verhalten sich die Kurse von Tag zu Tag nicht völlig zufällig und sind Märkte damit, wider der Random Walk-Theorie, nicht vollkommen vorhersagbar, ist statt aus einer Anzahl möglicher per Verteilung gegebener Alternativen nur auszuwählen (das heißt sich für eine Sache zu entscheiden) es "fast sicher" besser, mögliche Entscheidungen, ihre Risiken und Ergebnisse als Ganzes zu sehen (vergleiche grundlegend Shafer/Vovk, 2001).

Sind Risiken also nicht nur in Fakten und Zahlen, sondern auch in die Faktoren zu zerlegen, die diese Fakten und Zahlen produzieren, kann sich das Management des Risikos nicht stillschweigend auf die Optimierung des Normalfalls reduzieren. So muss die Praxis auch noch zeigen, ob mit dem breitflächigen Einsatz der Value at Risk (VaR)-Modelle ein aus den Ingenieurwissenschaften kopiertes Konzept wirklich weiter hilft. Sind Überschreitungen (Stressfälle) wirklich bloß um ein paar Standardabweichungen aufgeblähte Normalfälle, wenn präzise Informationen darüber fehlen, was bei Überschreitungen wirklich passiert? Es mag sein, dass der VaR in 99 Prozent der Zeit im Wesentlichen zutrifft. Nur hilft das wenig, wenn in einem Prozent der Zeit die entscheidenden Dinge passieren. Man nehme zum Vergleich eine Segelcrew auf hoher See: Sie wird beim Abstecken des Kurses mit ins Kalkül ziehen, dass in einem Prozent der Zeit ein Sturm aufziehen könnte, auch wenn für 99 Prozent der Zeit schönes Wetter prognostiziert ist.

Dass die Metapher der Segler den Blick von harten (statistisch messbaren) auch auf weiche (statistisch nicht-messbare) Faktoren wie Risikobereitschaft, Risikobewusstsein und Risikotragfähigkeit lenkt, ist wichtig. Hier lohnt der Hinweis, dass Value at Risk wörtlich mit "Wert auf dem Spiel" zu übersetzen ist: Bei einer (Kurs-)Entscheidung müssen sich die Segler wie die Akteure an den Finanzmärkten wechselseitig etwas unterstellen können. Nur so sind sie überhaupt in der Lage, Entscheidungen darüber zu treffen, was sie als nächstes tun werden. Hier gibt es kein Universalmodell zur Entscheidungsfindung, weil es wegen der Vielzahl möglicher Verhaltensmuster keine durch eine Wahrscheinlichkeitsverteilung vordefinierte Bewegung in eine bestimmte Richtung gibt. Legt die Situation fest, nach welchen Spielregeln Entscheidungen zu treffen sind, ist man in einem Mehr-Personen-Spiel. Hier sind die Spielregeln die Hypothesen des zu untersuchenden Modells. In Börsenspielen können die Spielregeln zum Beispiel die Kosten-Nut-zen-Kalküle der Akteure sein (vergleiche Rubinstein, 1991).

Mehr Zeit und Raum für Spiele lassen

Die wiederholt zuerkannten Nobelpreise (zuletzt in 2005 an Aumann/Schelling und 2007 an Leonid Hurwicz, Eric Maskin und Roger B. Meyerson) belegen, dass die Spieltheorie kein Kunstprodukt ist. Sie ist der Kern moderner informationsökonomischer Theoriebildung, weil die Spieltheorie Märkte als Spielfelder sich strategisch verhaltender Spieler modelliert (vergleiche Selten, 2001).

Dass Akteure an Finanzmärkten unter strategischen Zielen ihre Informationen beschaffen, verarbeiten und verwenden, strukturiert auch die Black Box der stochastischen Finanzmathematik. Aus Sicht der Spieltheorie ist der Finanzmarkt wider den Annahmen der Allgemeinen Gleichgewichtstheorie keine anonyme Masse - Massenerscheinungen sind die Ausnahme und nicht die Regel; die Subjekte sind autonome Akteure, die das Gegebene optimal nutzen. Letzteres macht die Vorwegnahme von Ergebnissen durch Abläufe statt Inhalte abgreifende Routinen aus sich heraus grenzwertig.

Dabei ist der Finanzmarkt auch kein Supercomputer, der Punktlösungen liefert, weil bei Akteuren, die auf dem glatten Börsenparkett danach streben mit der richtigen Strategie das richtige Spiel zu spielen, nichts dadurch nur reibungslos funktioniert, weil die korrekte Spezifizierung eines Spielregelsystems im Vergleich zur analytischen Exaktheit eine zweitrangige Bedeutung hat. Löst sich im großen Börsenspiel die Schärfe von Fundamentalwerten in der Mehrdeutigkeit von Perspektiven auf, sind Verhaltensmuster im Spiel. Die Vielfalt sich wandelnder Faktoren hat also mit der Vielfalt möglicher Verhaltensmuster einen Träger (Ereignisraum), der durch Verhaltensmodelle mit der Wahrscheinlichkeitstheorie "messbar" ist: Die Spieltheorie bildet Verhaltenskontexte, die man strategische Spiele nennt, durch Spielmodelle facettenreich ab, um sie mathematisch zu lösen (vergleiche grundlegend Vega-Redondo, 2003).

Börsianer als Pokerspieler

Dass an Börsen noch kein stoisch Münzen werfender oder stoisch Roulette spielender Akteur gesichtet wurde, sollte also nicht verwundern. Niemand verhält sich so, wie es die Allgemeine Gleichgewichtstheorie vorschreibt: Die Börse ist kein Casino. Börsianer sind nicht Roulettespieler; sie sind Pokerspieler. Sie finden heraus, welche Strategie in welcher Situation zu welchem Ergebnis führt. Dass die Kernfrage hier lautet, gibt es ein (Nash-)Gleichgewicht, das niemand in Frage stellt, macht einen Casinospieler also durch die Bescheidenheit des Anspruchs beim Erkennen von Zusammenhängen zum Kaiser ohne Kleider (vergleiche Danielsson, 2002).

Wie soll er alle verfügbaren Informationen einer Situation trefflich nutzen, wenn er statt der Informationsasymmetrie der Realität nur die Informationssymmetrie der Kunstwelt des Casinos kennt? Wie soll er, nur Spiele gegen die Natur spielend, bestehen, wenn es kein Endspiel im Spiel zur Veränderung der Spiele gibt, weil jedes Nash-Gleichgewicht der Ausgang für neue Entwicklungen sein kann? Wie soll er, nur auf ein Modell trainiert, das er auf alle Situationen anwendet, die Symmetrien der Märkte verstehen, damit er ein Spiel (eine Risikosituation) mit neuen Strategien verändern oder für gegebene Strategien neue Anwendungen finden kann?

Dass im Risikomanagement heute noch system- und nicht kenntnisbedingt entschieden wird und dass es vor den Befunden der Praxis zunehmend schwerer wird, immer neue Begründungen zu (er)finden, warum Bacheliers faire Wette einmal mehr nicht funktioniert hat, ist das Dilemma von Einsteins Erben in den Banken: Ein Bewertungsapparat, der keine Einsichten in das liefert, um was es bei Governance- und Agency-Problemen (das heißt beim Kern von Basel II) wirklich geht, fährt hart am Limit.

Auch wenn zum Beispiel trotz Levy-Verteilungen noch viele baugleiche Modelle ins Leben gerufen werden und wenn viele ihrer stets mit modernster Finanzsoftware ausgestatteten Nutzer diese Modelle vielleicht noch weniger verstehen werden als die Modelle, die sie schon heute so selbstverständlich anwenden, wie Schüler den Satz des Pythagoras: Im Risikomanagement ist nicht länger das Schloss dem Erklärungsschlüssel anzupassen, wenn nach der Logik von Basel II der Erklärungsschlüssel dem Schloss anzupassen ist.

Risikomanagement - ein komplexes Spiel

Hat das Up und Down der Märkte mehr mit Zuversicht als mit Fundamentalwerten zu tun, beginnt vorsorgendes Risikomanagement im Sinne von Basel II also nicht mit den Formeln von Zufallsprozessen (Random Walks). Wird mit Information gehandelt, kann Risiko nicht dadurch einfach weg definiert werden, dass mit der Brownschen Bewegung als Abbild des Geschehens weiter nur ein Fluchtverhalten der Akteure an den Finanzmärkten unterstellt wird. Auch reicht es nicht aus, mit Levy-Verteilungen die extremen Fluktuationen nur mit einer höheren Wahrscheinlichkeit zu erfassen als mit einer Gauss-Verteilung, wenn die Landschaft hinter der nächsten Kurve nicht so aussehen muss wie vor der Kurve: Durch Basel II ist Risikomanagement ein komplexes Spiel, weil es um ein systematisches ganzheitliches Verständnis des Begriffs geht.

Sind Konfrontation und Kooperation die Kernbausteine von Finanzgeschäften, sind zunächst einmal die wenigen Kernbausteine der Spiele, die man zu spielen glaubt, zu bestimmen. Dann ist zu versuchen, einen oder mehrere dieser Bausteine zu verändern (vergleiche Taqqu, 2001). Fällt hier die Entscheidung für ein Spiel gegen die Natur, ist man im Speziellen. Hier können die klassischen Risikomaße die tatsächlichen Gegebenheiten des Marktes widerspiegeln.

Die durch die MaRisk (deutsche Basel II Umsetzungsrichtlinie) kodifizierte Veränderung der Finanzmathematik lässt allerdings vermuten, dass Risikomanager zukünftig das Absolvieren von Kursen in Financial Engineering und Quantitative Finance und das Beherrschen des strategischen Kalküls charakterisiert. Sie entscheiden immer wieder neu, ob Risk-Metrics, Credit-Metrics, Corporate-Metrics und vielleicht in ferner Zukunft einmal auch Bank-Metrics durch Indizien für die Zukunft wirklich weiterhelfen. Zeigen jedoch zum Beispiel die Qualitäten von Kreditnehmern kein stationäres Verhalten, stehen letztendlich aber die eine präzise Beschreibung der Situation fordernden Spielmodelle erst für eine notwendige analytische Vorbereitung.

Da Information natürlich immer in Bezug auf bestimmte Fragen zu suchen und zu analysieren ist, ist eine notwendige und hinreichende Bedingung für ein ganzheitliches Risikomanagement auf breiter institutioneller Flur, dass zunächst einmal die richtigen Fragen auch gestellt werden können. Hier helfen schon einfache Grundspiele der Spieltheorie wie Dove & Hawk, Prisoners' Dilemma und Battle of Sexes das Risikospektrum ereignisgenau abzubilden und differenziert zu quantifizieren: Je klarer man die Ziele der Anderen (das eigene Risiko) ermitteln kann, desto leichter lässt sich der Ausgang eines Spiels voraussagen und eine Strategie finden, die das Spiel zu eigenen Gunsten verändert. Dass mit einem durch Spielsimulationen verbesserten Verständnis von Risiko und Risikomanagement erst Fragen wie: Welche Risiken können und sollen bewertet werden? Welche Risiken sollen akzeptabel sein und wie ist dies zu begründen? Was verstehen andere unter Risiko?, differenziert beantwortet werden können, liegt auf der Hand.

Physiker und Ökonomen müssen sich treffen

Dass im Risikomanagement nach Basel II nicht mehr über einem im Wesentlichen als bekannt vorauszusetzenden Definitionsbereich kalkuliert werden kann, verändert die Spielregeln gravierend. Sind bei LTCM nicht höhere Risiken eingegangen worden, weil es Verhaltensrisiken im Risikomanagement, so wie es heute betrieben wird, nicht gibt? Wie gut ist eine Prognose, die Passivität hinsichtlich des Managements von Risiken rechtfertigt? Wann zählt nicht der durchschnittliche Wert, sondern das Spezielle?

Für die Weiterentwicklung finanzanalytischer Modelle zeigte LTCM deutlich: Nur weil Verhaltensrisiken nicht so leicht zu quantifizieren sind wie Risiken aus Aktien-kurs-, Zins- oder Devisenschwankungen, sind statistisch nicht-messbare Risiken nicht als gegeben und nicht als unbeeinflussbar hinzunehmen. Bei LTCM fehlte mit der Einsicht in die Reaktion des Marktes auf das, was LTCM plante, die Einsicht in einfache strategische Zusammenhänge. Es fehlte ein geeignetes Modell, um die Wahrscheinlichkeiten des Eintritts von Verhaltensrisiken zu prognostizieren.

Hätten die Manager nicht wie Glücksspieler stoisch ein Spiel gegen die Natur gespielt, sondern sich wie Pokerspieler verhalten, die nichts auf statistische Wahrscheinlichkeiten reduzieren, wenn sie mit ihren Alternativen, der Situation und dem Ergebnis geschickt jonglieren, wäre auch im LTCM-Spiel die Frage nach dem Nash-Gleichgewicht gestellt worden. Die Antwort hätte schon mit dem Erkennen, was man nicht tun sollte, Einsteins Erben im LTCM-Management wahrscheinlich Milliardenverluste erspart.
Literatur

Bieta, V., Wenn der Mensch ins Glücksrad greift die Grenzen des Physikalismus im Risikomanagement, in: Zeitschrift für das gesamte Kreditwesen, 8-2005), Seiten 417 bis 420.

Bieta, V., Risikomanagement, Strategie, Spieltheorie - Eine Bestandsaufnahme nach 60 Jahren, Working Paper, (2006), TU-Dresden.

Chichilnisky, G./Heal, G., Managing Unknown Risk, in: Journal of Portfolio Management, 2 (1998), S. 85-91.

Danielsson, J., The Emperor Has No Clothes-Limits to Risk modelling, in: Journal of Banking and Finance, 26 (2002), S. 1273-1296.

Danielsson, J./Shin, H. S., Endogenous Risk, in: P. Field (ed) Modern Risk Management-A History, London 2003, S. 297-316.

Ekeland, I., Die Entschlüsselung der Wirtschaft, in: Spektrum der Wissenschaft, Dossier Wirtschaftswissenschaften (2003), Seiten 666 bis 671.

Gray, J., Meta Risk-Beyond the Scope of Explicit Financial Risks, in: Journal of Portfolio Management, 3 (2000), S. 18-25.

Hausmann, W., Derivate, Arbitrage und Portfolio-Selection-Stochastische Finanzmarktmodelle und ihre Anwendungen, Braunschweig/Wiesbaden, 2002.

Jovanovic, D./Le Gall, C., Does God practise a random walk?, in: European Journal of the History of Economics 8 (2002), S. 332-362.

Lowenstein, R., When Genius Failed - The Rise and Fall of Long Term Capital Management, New York 2000.

Otto, M., Mut zum Risiko: Physik auf dem Börsenparkett, in: Physik Journal, 2 (2003), Seiten 43 bis 49.

Paul, W./Baschnagel, J., Stochastic Processes-From Physics to Finance, Berlin Heidelberg New York, 2001.

Rubinstein, A., Comments on the Interpretation of Game Theory, in: Econometrica, 59 (1991), S. 909-924.

Selten, R., Die konzeptionellen Grundlagen der Spieltheorie einst und jetzt, Discussion Paper (2001), Bonn University.

Shafer, G./Vovk, V., Probability and Finance - It's only a Game, New York 2001.

Stulz, R., Why is Risk Management not rocket Science, in: Financial Times, June 27 (2000), London. Taqqu, C., Bachelier and his times, in: Finance and Stochastics, 5 (2001), S. 3-32.

Vega-Redondo, F., Economics and the Theory of Games, Cambridge 2003.

Noch keine Bewertungen vorhanden


X