BANK UND TECHNIK

Metadaten - Rohstoff für die IT-Transformation

Dr. Selvam Dhamotharan, Foto: PPI

Systemmigration hin zu zeitgemäßen Anwendungen beziehungsweise zur Vereinheitlichung der IT-Landschaft steht auf der Prioritätenliste vieler Kreditinstitute weit oben. Dabei geht es nicht nur um die reine Datenmigration, sondern auch um eine Dokumentation von Datendefinition, Wertebereichen oder Prüfpunkten im Verlauf eines Prozesses - sonst drohen Inkonsistenzen bei der Datenübernahme. Ein Metadatenmanagement, das diese Informationen zentral erfasst und verwaltet, ist nach Einschätzung von Selvam Dhamotharan nicht zuletzt deshalb sinnvoll, weil die Aufsicht immer häufiger Rohdaten verlangt. Doch auch im Fall von Fusionen sinkt dadurch der Aufwand. Red.

Angesichts schrumpfender Erträge sind Kostensenkungen für Kreditinstitute vielfach die einzige Maßnahme zur Stabilisierung oder gar Steigerung der Renditen. In der Banken-IT sind nach wie vor viele teure Legacy-Systeme verbreitet, zusätzlichen Aufwand verursachen heterogene Systemlandschaften. Eine Migration auf zeitgemäße und einheitliche Applikationen ist eine Herausforderung, besonders in einer zeitkritischen Situation wie einer Fusion. Entscheidend für den Erfolg ist hier ein funktionierendes Metadatenmanagement.

Niedrige Zinssätze, steigende regulatorische Anforderungen und Konjunkturschwankungen haben die Gewinnmargen der Banken in den vergangenen Jahren immer stärker abschmelzen lassen. Als Resultat stehen vielfach Fusionsszenarien im Raum, nicht nur bei Großbanken wie Commerzbank und Deutscher Bank, sondern auch bei mittleren und kleineren Instituten. Oft die einzige Möglichkeit, die Rendite bei althergebrachten Geschäftsmodellen zu stabilisieren, sind Einsparungen auf der Kostenseite. Die IT gerät dabei immer stärker in den Blick, denn bei vielen Banken laufen noch verhältnismäßig alte Systeme, nicht selten für jede Produktgruppe ein anderes.

Diese Überbleibsel aus den frühen Jahren der Finanz-IT verursachen intern immensen Aufwand und stellen im Fall eines tatsächlichen Zusammenschlusses zweier Häuser einen beträchtlichen Kosten- und Risikofaktor dar. Systemmigration hin zu zeitgemäßen Anwendungen beziehungsweise zur Vereinheitlichung der IT-Landschaft steht daher auf den Prioritätenlisten der Geschäftsleitungen weit oben. Hier setzt das aktuelle Whitepaper "Erfolgsfaktor für Migrationen - Metadatenmanagement in Banken mit ASG Data Intelligence" der PPI AG an.

Outsourcing-Altlasten wirken nach

Die Analyse betont, dass es keineswegs ausreicht, wie in der Vergangenheit häufig geschehen, nur auf die reine Datenmigration zu schauen. Bei den vor allem durch Outsourcing gekennzeichneten vergangenen Kostensenkungswellen im Bankensektor wurde vielfach mit erheblichem manuellen Aufwand migriert, mit der Folge zahlloser Datenqualitätsprobleme.

Die dadurch entstandenen Inkonsistenzen im Datenhaushalt waren im Nachgang zu beseitigen, auch dies meist von Hand. Das verteuerte die Projekte derart, dass nicht selten nur die nötigsten Korrekturen erfolgten. Das Thema Metadaten fiel aus Zeit- und Kostengründen oftmals ganz unter den Tisch. Die resultierende Schieflage im Datenhaushalt der Bank wirkte sich entsprechend negativ auf Reporting und Gesamtbanksteuerung aus.

Denn während die eigentlichen Datenbestände in der Regel gut gepflegt sind, fehlen nicht selten ordentliche Dokumentationen der Datendefinition, von Wertebereichen, Historisierungskonzepten oder bestimmten Prüfpunkten im Verlauf eines einzelnen Prozesses. Sind diese bei einer Migration aufwendig neu zu erstellen, steigen die Kosten erheblich. Zusätzliche Tests können die Projektdauer zudem deutlich verlängern.

Gleiches gilt für das Thema Schnittstellen: Welches System liefert welche Daten wohin? Fehlen entsprechende Informationen zur Data Lineage, sind unliebsame Überraschungen im Laufe einer Umstellung beinahe vorprogrammiert. Zudem ist eine Analyse der Auswirkungen auf die Gesamtlandschaft der IT kaum durchführbar. Die Abstimmung und Priorisierung der Interdependenzen kann selbst bei kleineren IT-Projekten spürbare Kostensteigerungen und ein erhöhtes Risiko verursachen.

Basisanforderung: klare Begrifflichkeiten

Sind fachliche Definitionen unklar, drohen auch Inkonsistenzen bei der Datenübernahme. Im schlimmsten Fall führt dies zu einer unterschiedlichen Bewertung des gleichen Produkts in verschiedenen Systemen. Aus diesem Grund ist ein bankweites Glossar, verbunden mit Transformations- und Bewertungsbibliotheken und einem grundlegenden Datenmodell unbedingt notwendig. Nur dann ist klar, welche Informationen in welchen Prozess einbezogen werden müssen und welche Gewichtung die einzelnen Parameter bei der Gesamtbeurteilung - beispielsweise der Kreditwürdigkeit - haben müssen. Mängel führen zu Mehraufwand bei Reports und Abschlüssen oder schlimmstenfalls auch zu Anfragen der Aufsicht.

Aufsicht will zunehmend Rohdaten

Schnelle und zuverlässige Abhilfe schafft ein Metadatenmanagementsystem (MDS), das die genannten Informationen erfasst und zentral verwaltet. Zwar ist die Einführung mit Aufwand verbunden, Organisationsstruktur und Prozesslandschaft bedürfen einiger Anpassungen. Aber Banken machen sich mit diesem Werkzeug die Arbeit deutlich leichter, denn zum einen hilft ein Metadatenmanagementsystem bei der Zusammenarbeit mit den Aufsichtsbehörden und zum anderen trägt es dazu bei, die hohe Innovationsgeschwindigkeit in der Finanzbranche mitzugehen.

Beispielsweise ist bei den Aufsichtsorganisationen klar der Trend zu erkennen, statt der fertigen Berichte von den Banken die zugrunde liegenden Rohdaten zu verlangen. Ohne eine konsistente Dokumentation der Metadaten begibt sich die Bank in die Gefahr, durch Missverständnisse und ständige Rückfragen gegenüber den Behörden ins Hintertreffen zu geraten. Denn manifestiert sich auf Aufseherseite einmal der Eindruck eines suboptimalen Umgangs mit Daten, kann dies leicht weitere Überprüfungen nach sich ziehen.

Hohe Innovationsgeschwindigkeit

Gleichzeitig gewinnen die technischen und prozessualen Veränderungen in der Branche immer mehr an Fahrt. Künstliche Intelligenz, Fintechs, Instant Payments - alles Entwicklungen, die längst auf breiter Front realisiert werden, obwohl sie vor nicht allzu langer Zeit nur eine Nischenbedeutung hatten. Um mitzuhalten, müssen die technischen Voraussetzungen stimmen, damit neue Produkte verzugslos durch die eigene IT unterstützt werden können. Nur so wird es möglich sein, dauerhaft am Markt zu bestehen.

Ein Institut kann sich auf diese heranrollenden Herausforderungen mit einem Metadatenmanagementsystem in jedem Fall gut vorbereiten und dokumentiert überdies nach außen, dass alles getan wird um Kosten und Risiken zu senken. Das gilt sowohl für den laufenden Betrieb - "run the bank" - als auch für mögliche Änderungsszenarien - "change the bank". So bietet ein MDS auf der Höhe der Zeit im Tagesgeschäft ein permanentes Datenmonitoring inklusive der Prüfung auf Inkonsistenzen und eine Visualisierung der Prozess-Schnittstellen. Das Tool leistet darüber hinaus Support für die einheitliche Definition sämtlicher Begrifflichkeiten.

Wird durch Marktveränderungen oder eine Fusion eine Migration unumgänglich, lassen sich per MDS gleich die fälligen Analysen der zu erwartenden Auswirkungen auf die Gesamt-IT sowie die notwendigen Spezifikationen und Tests für den Umstieg auf das neue System ableiten. Auch dessen praktische Einbindung und die Schulung der Mitarbeiter sind damit einfacher zu bewältigen, denn Gemeinsamkeiten und Unterschiede sind deutlich schneller herausgearbeitet.

Der Einsatz eines MDS daher ist in jedem Fall zu prüfen. Dabei ist es günstig, möglichst alle Anforderungen mit einem System abzudecken. Folgende Punkte sind relevant: Data Inventory, Data Lineage, Impact Analyse, Referenzdatenmanagement, Business Glossar, Datenkatalog. Entsprechende Systeme sind am Markt bereits vorhanden. Wenn Lösungen in der Lage sind, den Legacy Code alter Systeme zu analysieren und dadurch in kürzester Zeit eine Dokumentation der kritischen Datenelemente und Begriffsdefinitionen durchzuführen, er erleichtert das die Einhaltung aktueller aufsichtsrechtlicher Anforderungen und verkürzt den Compliance-Prozess um drei bis vier Wochen.

Das Whitepaper "Erfolgsfaktor für Migrationen - Metadatenmanagement in Banken mit ASG Data Intelligence" steht unter www.ppi.de/wp-mds zum Download zur Verfügung.

Dr. Selvam Dhamotharan, Senior Manager, PPI AG, Hamburg
Dr. Selvam Dhamotharan , Senior Manager, PPI AG, Hamburg

Weitere Artikelbilder

Noch keine Bewertungen vorhanden


X