Aufsätze

Integriertes Risikomanagementkonzept - Ordnung im "Daten-Dschungel"

Beim Ermitteln der verschiedenen für die Gesamtbanksteuerung benötigten Daten, geht es oftmals wie beim "Stille-Post-Prinzip" zu. Aufgrund der Komplexität des Geschäfts können die meisten Institute keine einheitliche Datenquelle nutzen, sondern pflegen vielmehr ein System aus mehreren parallel betriebenen IT-Infrastrukturen sogenannten Silos. So geht im Datenerhebungs- und Reportingprozess einiges verloren.

IT-Kapazität anpassen

Gleichzeitig nehmen die Komplexität und der Aufwand, der mit den neuen Anforderungen an das aufsichtsrechtliche Meldewesen und Risikomanagement verbunden ist, stetig zu. Mit der Einführung von Basel III werden diverse Offenlegungsanforderungen erweitert, die eine Lawine von Daten, Auswertungsergebnissen, Reports und Dokumentationen auslösen. Hinzu kommen verstärkte Detailtiefe sowie Frequenz und Volumen der zu meldenden Daten, wodurch sich die benötigte Informationsverarbeitungskapazität in den Instituten vervielfacht. Hierdurch ergeben sich einige neue Herausforderungen, die es zu meistern gilt. Ein wachsendes operationales Risiko für Banken entsteht beispielsweise durch potenzielle Schwierigkeiten beim Bewältigen der Datenmengen in den vorgegeben Zeitintervallen sowie eine fehlerhafte Bearbeitung.

Schon seit mehreren Jahren steigt der Personalbedarf an Risikocontrollern, Compli-ance-Beauftragten und Mitarbeitern in der Revision von Instituten stark an. Angesichts der immer näher rückenden Frist zur gesetzlichen Umsetzung von Basel III Anfang Januar 2013, geraten Institute nun noch weiter unter Druck, ihre interne IT-Architektur und Informationsverarbeitungsprozesse an die bestehenden Herausforderungen des Finanz- und Risiko-Reportings anzupassen.

Die Einführung eines integrierten Risikomanagements wird dabei allgemein als wesentlicher Schritt hin zu einer optimierten Gesamtbanksteuerung angesehen. Allerdings wird die Umsetzung des integrierten Konzepts durch die laufende Modernisierung des Meldewesens sowie die neuen aufsichtlichen Anforderungen an das Risikomanagements für Institute erheblich erschwert.

Fatale Lücken im Datenmanagement

Das schon erwähnte Prinzip der stillen Post zieht sich quer durch den gesamten Datenmanagementprozess von Instituten, beginnend bei der Datenerhebung aus verschiedenen Quellen, bis hin zur finanzanalytischen Auswertung und schließlich zum Reporting. Durch Medienbrüche entstehen Unterschiede in der Qualität der verwendeten Daten, die infolgedessen nicht mehr vergleichbar sind. Die Auswertungen der Bilanzdaten, der Ertragsdaten und der Risikoberechnungen kommen typischerweise aus verschiedenen Systemen, die Berechnung der Stress-Szenarien erfolgt meist manuell. So ergeben sich in konkreten Praxisfällen bei der Bewertung des Zinsbuchs eines Institutes für einzelne Bestimmungsfaktoren in einem Berichtszeitraum unterschiedlich lange Erhebungszeiten, die um bis zu mehrere Wochen variieren können und somit den Aussagegehalt der Auswertungen erheblich reduzieren.

Auch die Verwendung von Summenwerten anstelle von Einzelgeschäftsdaten lassen keinen Drill-down zur Analyse der zugrunde liegenden Geschäftsdaten zu. Duplizierte Datenbestände, die nach mehrstufigen Selektionen und unterschiedlichen finanzmathematischen Auswertungen wieder als Ergebnisse in den gemeinsamen Datenhaushalt aufeinandertreffen sind letztendlich kaum mehr miteinander abzustimmen. Unklar bleibt dabei oft die Metadatenebene, sprich, wem die Datenbestände gehören, wer sie nutzt, wer sie verändern darf und inwieweit das nachvollziehbar ist.

Zugespitzt gesagt: Der Dateninput wird zum Datenoutput, die natürliche "Nahrungskette" beim Datenmanagement wird durcheinandergebracht, die Ergebnisse der Datenanalyse werden systembedingt verfälscht. Grund für diese Inkonsistenz sind neben den dezentralisierten Silostrukturen, die in Banken noch immer vorherrschen, vor allem eine fehlende gelebte institutsweite Data Governance für die Banksteuerung. Erfahrungswerte aus der Praxis zeigen, dass bei der Implementierung von Banksteuerungssystemen gut 60 bis 75 Prozent der Gesamtprojektaufwände nur auf das Einführen einer konsistenten Datenhaltung und effizienten Datenmanagementprozesse entfallen.

Organisatorische Herausforderungen durch gewachsene Silostrukturen

Ursprung der komplexen Silostrukturen in Instituten sind zumeist neue Geschäftsbereiche, die im Laufe der Zeit etwa durch Übernahmen oder Zusammenschlüsse mit anderen Finanzinstituten entstanden sind. Anstatt diese mit dem Datensystem der Kernbank zu vernetzen, wurde häufig die ursprüngliche Business Intelligence beibehalten, was zu einem Wust an uneinheitlichen und unabhängigen Datenquellen - der bekannten "Spaghetti-Architektur" führte. Ähnlich verhält es sich mit den verschiedenen Fachabteilungen, die ihrerseits eigene Modelle zur Finanzanalyse einsetzen. Die von den einzelnen Bereichen ermittelten Daten werden dann beispielsweise zu internen Reporting-Zwecken an das Top-Management oder etwa zum externen Reporting an die Aufsichtsbehörden manuell aufbereitet. Die Datenqualität sowie die Revisionssicherheit der Auswertungs- und Berichtsprozesse lassen hier aufgrund der heterogenen Quellen und Analyseverfahren sowie durch Fehler bei der manuellen Dateneingabe mitunter zu wünschen übrig. Um die Datenqualität zu optimieren, sind nicht nur eine Veränderung der bankinternen Strukturen hin zu einer abteilungsübergreifenden Risikosteuerung sowie Reporting notwendig. Auch die technologischen Herausforderungen beim Überwinden der siloorientierten Bankenstruktur gilt es zu meistern. Hierzu benötigen Banken eine integrierte, analytische Softwarelösung, die auf sämtliche Informationsquellen des Instituts zugreifen kann, Kennzahlen berechnet und diese in Zukunftsszenarien, beziehungsweise durch Stresstests darstellt.

Budgetbegrenzung als Hürde

Eine Hürde bei der Einführung einer solchen Lösung ist oftmals die strikte Budgetbegrenzung der IT- und Risikoma-nagement-Abteilungen. Häufig wird hier erwartet, dass während des Prozesses zum Aufbau einer zentralen IT-Landschaft noch Kosten eingespart werden. Dabei gehen laut einer IBM-Studie jährlich rund 20 Prozent der Vorsteuergewinne von Banken aufgrund von unüberschaubarer operationaler Komplexität verloren. Weltweit belief sich diese Summe zum Zeitpunkt der Studie Ende 2010 auf etwa 200 Milliarden US-Dollar. Diese Zahl sollte Instituten die nötige Antriebskraft geben, ihre bisherige Strategie zu überdenken und in die Einführung von end-to-end Datenmanagementprozessen und in eine unternehmensweite Data Governance für die Gesamtbanksteuerung zu investieren.

Gleichermaßen sollten auch die durch Basel III steigenden Anforderungen an Eigenkapital, Offenlegung sowie Liquiditätsreporting als Chance hin zu einer analytischeren und effektiveren Geschäftsstrategie gesehen werden. Denn das Aufbereiten von detaillierten und vor allem qualitativ hochwertigeren Daten wird letztendlich auch besser fundierte Managemententscheidungen und schnelleres Reagieren auf Marktveränderungen ermöglichen.

Eingliederung einer Lösung für das Risikomanagement und Meldewesen

Bei der Implementierung einer integrierten Bankenmanagementlösung für das gesamte Institut müssen die verschiedenen Komponenten der Gesamtbanksteuerung mit einbezogen werden. Hierzu zählen Controllingwerte zu Ertrag und Kosten, Rating und Risikomessungen, regulatorische Reportingpflichten sowie Pricing und Vertriebssteuerungsinstrumente. In eine zentrale Reportingbasis werden Daten zur Erfolgsanalyse, Preissimulation, Parameter für verschiedene Szenarien sowie die Daten zur Messung aller Risikoarten - Markt-, Kredit- und Liquiditätsrisiko - geschleust. Diese einheitliche Datenbasis umfasst zudem alle für das interne und externe Meldewesen (Basel III, IFRS) benötigten Informationen und sorgt somit für konsistenten Daten-In- und Output. So entsteht eine so genannte "Single Version of the Truth".

Durch das integrierte Risikomanagementkonzept können nicht nur die negativen finanziellen Auswirkungen der traditionellen Silostrukturen minimiert, sondern auch bisher unbekannte Risikoherde frühzeitig beseitigt werden. Hierzu zählen vor allem auch wechselseitig bedingte Risikoarten. Alle für das Management wichtigen Informationen für die Gesamtbanksteuerung werden stimmig aus einem Guss geliefert. Dies führt zu mehr Transparenz und einem auf verlässlichen Daten basierenden, effektiveren Risiko-Ertragsmanagement.

Lohnende Zukunftsinvestitionen

Angesichts des sich stetig wandelnden regulatorischen Umfelds ist bei der Implementierung einer integrierten IT-Architektur besonders zu beachten, dass Softwarelösungen skalierbar sind. In den vergangenen Jahren hat sich gezeigt, dass neu eingeführte Standards aufgrund von aktuellen Ereignissen schnell wieder verworfen oder erweitert wurden. So folgte auf Basel I Basel II, 2,5 und nun Basel III. Zudem nehmen Anzahl und Komplexität der bekannten Risiken nicht zuletzt aufgrund der fortschreitenden Globalisierung im Bankensektor stetig zu. Die Bedeutung der zentralen europäischen Regulierungsorgane wird hierbei zweifelsohne in den kommenden Jahren noch steigen. Eine "Regulierungspause" oder spezifische "Erleichterung" für einzelne Institutsgruppen ist kaum zu erwarten.

Um für die regulatorischen Herausforderungen der Zukunft gewappnet zu sein, müssen sich Banken also gut ausstatten nicht nur mit Kernkapitalpuffer und angepasstem Risikoappetit, sondern vor allem mit einer modular umsetzbaren Finanzinformationsarchitektur, die traditionelle Silos überwindet, sich auf konsistente, akkurate Daten stützt, über revisionssichere end-to-end Datenmanagementprozesse verfügt und somit für eine optimierte Gesamtbankdynamik sorgt.

Noch keine Bewertungen vorhanden


X