Datenmanagement in der Finanzabteilung: Herausforderungen im neuen regulatorischen Umfeld

Abbildung: Zusammenführung von Prozessen zur finanziellen und aufsichtsrechtlichen Berichterstattung

Joachim Müller, Chief Financial Officer Region EMEA, Deutsche Bank AG, Frankfurt am Main - Zunehmende regulatorische Anforderungen, aber auch viele fragmentierte Prozesse aus der strategischen Weiterentwicklung der Kreditinstitute haben in den vergangenen Jahrzehnten in vielen Häusern zu einer Datenflut geführt, die eine konsistente Berichterstattung erschwert. Um aus den verfügbaren Daten die notwendigen Handlungsempfehlungen für das Management abzuleiten und den erforderlichen Anforderungen an das Reporting nachzukommen, registriert der Autor oft einen erheblichen Mehraufwand für die Nachbearbeitung von Daten. Als erklärtes Ziel seines Hauses nennt er deshalb die Zusammenführung von Prozessen zur finanziellen und aufsichtsrechtlichen Berichterstattung auf Konzern- und regionaler Ebene zu einer einzigen, komponentenbasierten Architektur mit einer weltweiten Datenbank. Dem schon angelaufenen Projekt bescheinigt er erste Erfolge bei der Etablierung eines globalen Datenstandards für Finanzdaten und skizziert den weiteren Ausbau dieser "lebenden Initative" in den kommenden Jahren. (Red.)

Seit dem Ausbruch der Finanzmarktkrise hat sich die Bankenwelt dramatisch verändert. Um ein Wiederholen der Krise zu vermeiden und um den Steuerzahler zu schützen, haben die einzelnen Regulierer die Zügel merklich angezogen. Neue und erheblich erweiterte Regelwerke wurden aufgestellt und werden noch weiter diskutiert. Für die Finanzbranche bedeutete dies erhebliche Herausforderungen, der Fülle an neuen Anforderungen vollumfänglich und fristgerecht nachzukommen.

Neben Bilanzprüfung und Stresstest mussten beispielsweise die Basel-III-Anforderungen oder die durch die European Banking Authority (EBA) mandatierten einheitlichen Rahmenwerke für Berichtsstandards (sogenannte Common Reporting und Financial Reporting) auf europäischer Ebene umgesetzt und implementiert werden. Dies war bereits eine Herkulesaufgabe für die Branche, die sich insbesondere in den Finanzabteilungen niedergeschlagen hat: Eine Unmenge von Daten müssen generiert, aggregiert und zeitgerecht an die diversen Aufseher und Regulatoren geliefert werden.

Neue Anforderungen an die Daten

Hinzu kommt, dass die neuen Regelwerke auch neue Anforderungen an die Daten selbst mit sich bringen. Daten müssen zum Teil nach anderen Regeln erstellt und zusammengefasst werden als nach den gültigen Rechnungslegungsvorschriften, Regulatoren unterschiedlicher Länder verlangen einen unterschiedlichen Zuschnitt oder zeitliche Bereitstellung der Daten.

Dies hat besondere Bedeutung, wenn man sich vor Augen führt, dass der Prozess der neuen Regulierung für die Finanzbranche keineswegs abgeschlossen ist und weitere Vorhaben bereits in den Startlöchern stehen. Die Umsetzung bedeutet für die Finanzindustrie einen erheblichen Mehraufwand, der sich in einer höheren Kostenbasis niederschlägt und damit die Gewinnschwelle senkt.

Gleichzeitig ist mit dem anhaltend niedrigen Zinsumfeld eine wesentliche Ertragssäule der Finanzbranche eingebrochen. Dadurch verstärkt sich der Kostendruck und stellt den Sektor vor zusätzliche Herausforderungen. Die Banken begegnen diesem anspruchsvollen Umfeld durch Kostensenkungsprogramme. Mit Blick auf die neuen regulatorischen Anforderungen bedeutet dies, Daten nicht nur besser und schneller, sondern auch kostengünstiger zu produzieren.

Handlungsbedarf bei der IT

Allerdings haben viele Finanzinstitute hier einen großen Nachholbedarf. Diese im Vergleich zu anderen Branchen schlechte Ausgangsposition ist zum Teil auf die immense Fortentwicklung des Bankgeschäfts in den vergangenen zwanzig Jahren zurückzuführen. In den 1990er Jahren gewann die Entwicklung im Investmentbanking deutlich an Fahrt. Vor allem computergestützte Handelssysteme erhöhten die Geschwindigkeit und Innovationskraft der Branche. Banken in Europa mussten sich der Konkurrenz aus den USA stellen, die mit neuen Produkten Märkte und Kunden eroberten. In dieser Boomzeit war das vordringliche Ziel, an diesem gewaltigen Wachstum teilzuhaben und neue Ertragsquellen zu erschließen.

Auch die Deutsche Bank hatte dieses Umfeld als Chance begriffen und sich in der Folge zu einer globalen Investmentbank entwickelt. Dies gelang durch eine stark auf das Wachstum und Marktanteilsgewinnung ausgerichtete Strategie. So war es möglich, insbesondere zu den US-amerikanischen Wettbewerbern aufzuschließen.

Es überrascht daher nicht, dass die IT mit dem rasanten Wachstum nicht in gleichem Maße Schritt halten konnte. Die Verbesserung von Prozessen, Infrastruktur sowie Automatisierung und Standardisierung konnte nicht in gleicher Intensität vorangetrieben werden.

Keine einheitliche und konsistente Sicht auf die Bilanz

Diese Entwicklungen haben den Handlungsbedarf insbesondere für die Finanzabteilung der Bank belegt. Hier wird ein Großteil der Daten organisiert, die für verschiedene Zielgruppen aufbereitet werden. Hierzu zählen Dokumente für die externe Berichterstattung wie der Jahresabschluss ebenso wie Berichte und Daten, die für Regulatoren bereitgestellt werden müssen, aber auch Analysen, die dem Management zeitnah zur Entscheidungsfindung vorgelegt werden sollen.

Allerdings war die Ausgangslage denkbar ungünstig: Das Setup und der Output an Daten entsprach nicht dem einer Weltklasse-Finanzfunktion. Aufgrund der vielen IT-Systeme und Datenquellen sowie fragmentierten Prozesse gab es in der Vergangenheit keine einheitliche und konsistente Sicht auf die Bilanz. Dies führte nicht nur zu einer hohen Komplexität, sondern barg auch Risiken für die statutarische, regulatorische und die Risikoberichterstattung. So flossen Datensätze aus dem Frontoffice in das Backoffice, wo geprüft wurde, ob sie den Anforderungen von Rechnungslegung und Regulierungsvorschriften genügten. Oftmals schloss sich daran eine entsprechende manuelle Nachbearbeitung und Korrektur an. Die Folge war das Risiko von Inkonsistenzen zwischen berichteten Zahlen, da Mitarbeiter nicht auf einem gleichen System und mit einem gleichen Datenstand operieren konnten. Gleichzeitig bedeutete der Mehraufwand für die Nachbearbeitung von Daten, dass Mitarbeiter sich weniger auf die Analyse konzentrieren konnten, um aus den Erkenntnissen Handlungsempfehlungen für das Management abzuleiten.

Enorme Komplexität

Damit stellte sich also die Frage, wie die Menge von Zahlen besser organisiert werden könnte, damit diese effektiver und fehlerfrei produziert werden könnten. Neue Systeme mussten also entwickelt und implementiert werden, um den Anschluss nicht zu verlieren und um den Ansprüchen der Regulatoren gerecht zu werden. Hinzu kommt, dass Regulierungsbehörden die bereits umfangreichen Datensätze in kürzeren Intervallen anfordern oder gar ganz neue Daten verlangen, die in dieser Form nicht vorhanden sind und erst erstellt werden müssen.

Zu berücksichtigen waren Flexibilität, zeitliche Bereitstellung und Granularität. Es galt eine enorme Komplexität zu bewältigen. Denn alle Daten aus den Millionen von Transaktionen - zum Beispiel aus dem Währungshandel, dem Handel mit Anleihen oder dem Kreditbereich - sollten in einem zentralen System so aufbereitet sein, dass sie allen Rechnungslegungs- und Regulierungsvorschriften Rechnung tragen. So gibt es für die Deutsche Bank globale Vorschriften für ein in Deutschland beheimatetes Institut, lokale regulatorische Vorschriften zum Beispiel in den USA sowie globale und lokale Rechnungslegungsstandards für eine Bank, die in 78 Ländern präsent ist, zu beachten.

Dies war in der Deutschen Bank die Geburtsstunde des "StRIDe"-Projekts (Strategic Redesign of Information Delivery). Es beschreibt eines der größten strategischen Veränderungsprogramme der Bank, an dem rund 800 Mitarbeiter aus Finance und IT beteiligt sind (Abbildung). Ziel ist die Zusammenführung von Prozessen zur finanziellen und aufsichtsrechtlichen Berichterstattung auf Konzern- und regionaler Ebene zu einer einzigen, komponentenbasierten Architektur mit einer weltweiten Datenbank. Im Kern geht es also um die Organisation von Daten und Datenströmen im Konzern und deren Bereitstellung aus einer zentralen Datenbank.

Zweck des Programms ist es, das Risiko für den mit der Konzernrechnungslegung verbundenen Prozess zu minimieren, diesen kostengünstiger zu machen und gleichzeitig regulatorische Anforderungen an das Reporting mit Blick auf Umfang, Qualität und zeitliche Bereitstellung zu erhöhen. Mit der Umsetzung von StRIDe wird eine Datenbank, das sogenannte Financial Data Warehouse (FDW), geschaffen, die Basis für die gesamte Berichterstattung ist. Hierzu werden Daten aus drei Systemen - globale regulatorische Informationen, lokale regulatorische Informationen und Daten des Rechnungswesens (IFRS, US GAAP, HGB) - in einem System zusammengefasst. Dies hat zur Folge, dass der Abstimmungsaufwand zwischen den ehemals einzelnen Systemen sinkt. Die Herausforderung ist, die Daten aus den Unmengen von Datenströmen zusammenzuführen. So fließen Informationen aus einer Vielzahl von Rechtseinheiten der Bank, rund 1000 Datenströmen und mehr als 100 Transaktionssystemen in das FDW. Technisch operiert das FDW auf einer Oracle Exadata Appliance und hat eine produktive Größe von rund 50 Tetrabyte. Diese Datenbank ermöglicht den Zuschnitt von Daten in mehreren Dimensionen: etwa nach Entitäten, Produkten und Kontrahenten.

Beispiel Kredit

Am Beispiel eines Kredits lässt sich das Projekt und seine Komplexität verdeutlichen. Ein Kredit hat Auswirkungen auf mehrere Ebenen: Eine Eigenkapitalunterlegung muss für regulatorische Zwecke berechnet werden. Das Risikomanagement muss für die Kreditausfallwahrscheinlichkeit einen entsprechenden Wert ermitteln und für das Rechnungswesen müssen die Zahlungsströme verbucht werden. Daten aus einer Transaktion werden also in unterschiedlichen Bereichen auf verschiedenste Art genutzt. Um einheitliche Daten bereitzustellen, ist eine gemeinsame Datenquelle notwendig. Durch dieses Vorgehen werden Fehler vermieden und eine zeitaufwendige - und somit kostspielige - manuelle Nachjustierung vermieden.

Kernelemente der StRIDe-Architektur sind also Präzision, Granularität und Pünktlichkeit von Daten. Konkret bedeutet dies die Rückverfolgung von Daten im FDW als singuläre Datenbank bis zum Ursprung, verbunden mit Finanzberichterstattung, aufsichtsrechtlichem Meldewesen und Berichterstattung für das Management. Mit Blick auf die Granularität untermauern Transaktionsdaten auf Handelsebene die Datenaggregation. Die Automation des täglichen Datenflusses aus konsistenten Quellen unterstützt eine verbesserte zeitliche Analyse und Berichterstattung.

Durch die neuen Regulierungsvorgaben potenzierte sich die Komplexität von StRIDe. War die Ausgangslage die Organisation der Finanzdaten und Prozesse besser, effizienter und somit günstiger zu gestalten, stiegen - wie beschrieben - die Anforderungen durch die neuen Regulierungsvorschriften dramatisch. Um diesen neuen Anforderungen gerecht zu werden, wurde das Programm beschleunigt und deutlich stärker auf die Regulatorik ausgerichtet, ohne jedoch vom Ziel einer integrierten strategischen Architektur abzuweichen.

Eine lebende Initiative

Bei der Umsetzung blickt die Deutsche Bank im vergangenen Jahr auf etliche Erfolge: So wurde ein globaler Datenstandard für Finanzdaten etabliert, der für alle Finanzdaten innerhalb der Deutschen Bank gilt. StRIDe sichert dabei die Integrität der Daten. Statt der üblichen vier Rollouts pro Jahr, waren es 2014 sechs. Dadurch konnte beispielsweise eine erfolgreiche erstmalige Einlieferung des sogenannten CCAR (Comprehensive Capital Analysis and Review) durch die strategische Architektur erreicht werden, der der Fed in den USA einen vorwärts gerichteten Blick auf die Kapitalentwicklung sowie die Analyse von Schocks ermöglicht. Aber auch Effizienzen wurden gehoben: So konnten durch die Implementierung einer Software zur Adjustierung von Daten, Teile des Monatsabschlussprozesses um rund 25 Prozent beschleunigt werden, während sich gleichzeitig die Anzahl der Monatsadjustierungen von 8 Millionen auf rund 3 Millionen reduziert hat. Um etwa 20 Prozent soll die Effizienz insgesamt gesteigert und dabei sollen Datenqualität und Datenintegrität weiter verbessert werden.

Es bleibt aber weiterhin viel zu tun: In diesem Jahr kommen weitere Rollouts des Programms zur Verbesserung der technischen Infrastruktur, Software und Prozesse hinzu. Bisher wurden wesentliche lokale regulatorische Daten der Gesamtbank in das FDW überführt. Bis 2016/17 kommen weitere hinzu und werden durch Finanzdaten ergänzt, sodass das Programm in wesentlichen Teilen abgeschlossen sein wird. Gleichwohl ist StRIDe kein statisches Programm, das nach endgültiger Implementierung abgeschlossen sein wird. Vielmehr wird es in eine lebende Initiative übergehen, da Regulierung, der mit dem Wettbewerb verbundene Kostendruck, der Trend zur Digitalisierung und auch der eigene Anspruch an eine exzellente Finanzfunktion einen ständigen Verbesserungsprozess erfordern.

Eigene Bewertung: Keine Durchschnitt: 5 Punkte (1 Bewertung)


X