Wie sich KI von Banken und Versicherungen einsetzen lässt

Jochen Schlicksupp, Foto: J. Schlicksupp

In dem vorliegenden Beitrag beleuchten die Autoren die Möglichkeiten und Herausforderungen, die der Einsatz Künstlicher Intelligenz (KI) bei Banken und Versicherungen mit sich bringt. Dabei stellen Schlicksupp und Wolfsangel zunächst eine Reihe von realen Beispielen einer möglichen Anwendung vor. In der Folge weisen sie darauf hin, dass die Methoden des maschinellen Lernens bei der heutigen KI noch essenziell sind, da diese noch nicht eigenständig arbeiten könne. Doch genau hier lauere eine der größten Fallstricke für Banken und Versicherungen. So weisen die Autoren darauf hin, dass Künstliche Intelligenz durch maschinelles Lernen diskriminierende Auswirkungen haben könnte, getreu dem Motto "Nicht selten repliziert die KI das, was vorher schon schiefläuft". Banken und Versicherungen sollten sich also ganz genau überlegen, was sie der Künstlichen Intelligenz beibringen. Weiterhin werden Use Cases für Finanzinstitute beschrieben. Schlicksupp und Wolfsangel enden mit dem Appell an die Finanzinstitute, dass es allerhöchste Zeit sei, jetzt über den Einsatz dieser Technologie nachzudenken. (Red.)

Der KI-Markt wächst derzeit mit mehr als 21 Prozent jährlich. 2022 springt Künstliche Intelligenz erstmals über die Marke von 62 Millarden US-Dollar, so das Marktforschungsunternehmen Gartner. Weil sich mehr und mehr Unternehmen mit KI beschäftigen, um eigene Anwendungen zu entwickeln, beschleunige sich dieser Trend sogar. In Deutschland halten sich zumindest die Banken und Versicherungen aber noch zurück, obwohl sich teils disruptive Chancen bieten.

Wie gewaltig Künstliche Intelligenz (KI) die Wirtschaft verändert, lässt sich an den Magic Quadrants ablesen, die Gartner regelmäßig veröffentlicht. Beispiel: Cyber Security. Zu den führenden Anbietern zählen demnach Technikriese Microsoft, aber auch Crowdstrike und Sentinel One. Die zwei kleineren Unternehmen nutzen KI und Machine Learning, um Angriffe auf die IT-Systeme ihrer Kunden abzuwehren. DAX-Konzerne wie Siemens setzen bereits auf deren Dienste, um sich digital abzusichern. Künstliche Intelligenz ist also längst kein Hirngespinst mehr. Sie fließt in immer mehr Produkte ein, die Kunden tatsächlich benötigen. Bis zu 60 Prozent des KI-Wachstums soll künftig aus Angeboten stammen, die sich noch stärker als bisher um die Verbraucher drehen. Was das für Banken und Versicherungen bedeutet, zeichnen vor allem agile Start-ups aus den USA vor.

Wo KI schon Alltag ist

Lemonade beispielsweise bietet Hausrat- und private Haftpflichtversicherungen an. In den USA ist das Unternehmen gerade erst in den lukrativen Automarkt eingestiegen. Der Clou: Künstliche Intelligenz und Machine-Learning-Algorithmen kümmern sich um das Underwriting und die Schäden, die Kunden über eine App melden. Mehr als 1 700 Datenpunkte sammelt das Unternehmen allein beim Onboarding. So will Lemonade bessere Entscheidungen in viel kürzerer Zeit treffen - vor allem aber: mit weniger Mitarbeitern. Das Geschäft skaliert daher auch viel schneller als bei anderen Anbietern. "Insurance could be the largest industry on the planet that can be disrupted", sagt CEO und Gründer Daniel Schreiber. Der Markt umfasst immerhin 6,3 Billionen US-Dollar an vereinnahmten Beiträgen weltweit.

Abbildung 1: Schema eines Deep Neural Networks zur Bonitätsberechnung Quelle: Studie "Smart Retail Banking", Universität Luxemburg, Senacor

KI hilft auch dabei, Betrug zu erkennen, nicht nur bei Versicherungen. Wer online einkaufen und bezahlen möchte, ist für die Webshops zunächst ein Fremder und damit riskant. Riskified, ein Start-up aus Israel, verspricht deshalb, Betrug und fälschlicherweise als Betrug bewertete Vorgänge zu identifizieren. Das Unternehmen setzt auf Machine Learning und will so dafür sorgen, dass Kunden ihren Einkauf reibungslos abschließen können. Zwar fangen PSD2 und die starke Kundenauthentifizierung (SCA = Strong Customer Authentification) zumindest in Europa viel ab, doch die Methode ist umständlich und gilt als nicht vollständig betrugssicher. Zudem existieren Ausnahmen, um Kunden etwa bei kleineren Beträgen die lästige Zweifaktor-Authentifizierung zu ersparen. Doch gerade bei niedrigen Summen bis 30 Euro liegt das Risiko besonders hoch. Die Händler müssen sich deshalb schützen, auch um bei Issuern und Acquirern besser abzuschneiden.

Noch näher am Kunden arbeiten KI-Anbieter, die sich mit Krediten und den dafür erstellten Scores beschäftigen. Credo Lab aus Singapur verwendet Metadaten vom Smartphone, um zu ermitteln, ob sich Kreditnehmer kriminell verhalten. Lenddo, ebenfalls aus Singapur, wertet Telekommunikations-, Browser- und Bewegungsdaten sowie soziale und psychometrische Daten aus, um einen Score zu berechnen. Qwill aus den USA will vor allem Freiberuflern schnell zu mehr Liquidität verhelfen. Die KI schaut sich an, wie sich deren Umsätze entwickeln, indem sie die Zahlungen für Online-Marktplätze und Dienste ("Gig Economy") ausführen und die Geldströme analysieren. So kann das Unternehmen auch dann Gelder freigeben, wenn noch Eingänge offen sind, die erfahrungsgemäß aber sicher kommen.

Die genannten Unternehmen sind jung und fordern die etablierten Anbieter heraus. Sie stehen vor allem deshalb im Rampenlicht, weil sie in den vergangenen Boomjahren ihren Sprung aufs Parkett gewagt und an der Börse viele Millionen US-Dollar eingesammelt haben. Ihr Geschäft ist dagegen deutlich reifer und allein wegen des zeitlichen Vorsprungs gut geschützt. Paul Gu, Co-Founder beim Kredit-Scorer Upstart und Head of Product, sagt: "It will be difficult for somebody else to get started in this area, not impossible, of course, but challenging." Grund dafür sind die KI-Modelle, die Banken nachbauen müssten, um einen vergleichbaren Dienst zu entwickeln - und sie müssten die KI trainieren. Warum das keine leichte Aufgabe ist, lässt sich daran zeigen, wie eine Maschine lernt.

KI versus Machine Learning

Eine Bankkundin möchte sich eine eigene Immobilie kaufen und finanzieren. Sie ist 35 Jahre alt und verfügt über 125 000 Euro Eigenkapital sowie eine positive Schufa. Die Kundin zahlt zudem monatlich einen festen Betrag in ihr Depot ein und hat auch ihr zweites Konto noch nie überzogen. Diese Daten fließen über eine Eingabeschicht (siehe Abbildung 1) in ein neuronales Netzwerk ein, das in zwei Schritten nach Mustern sucht, um einen Score zu errechnen. Das Problem: Ähnlich wie ein Tamagotchi zu früherer Zeit, muss jemand die KI trainieren, sie mit den richtigen Daten füttern und sie so dazu bringen, sich praktisch zu bewähren und möglichst keine falschen Entscheidungen zu treffen.

Ohne dieses Training kann heutzutage noch keine KI eigenständig arbeiten. Deshalb gilt das maschinelle Lernen als Schlüsseltechnologie für Künstliche Intelligenz. Drei Methoden sind derzeit bekannt, nach denen sich eine KI sinnvoll trainieren lässt.

Supervised Learning: Die KI bekommt Daten, die sie nach vorher festgelegten Kriterien sortiert. "Supervised" heißt diese Art zu lernen deshalb, weil Menschen dafür sorgen, dass die eingehenden Daten korrekt beschriftet sind. Beispielsweise "labeln" Data Scientists Katzen und Hunde und bringen einer KI bei, das auf einem bislang unbekannten Set von Bildern eigenständig zu wiederholen. Einige Versicherer experimentieren bereits mit Foto-Apps, um mit KI-Hilfe Schäden an Fahrzeugen zu erkennen und sich dadurch den Gutachter zu sparen.

Unsupervised Learning: Die KI bekommt, anders als beim Supervised Learning, keine vorab beschrifteten Daten. Sie soll stattdessen selbst Muster erkennen, die sich vor allem in besonders großen Datensätzen verbergen. Beispielsweise kann eine KI mit bisherigen Transaktionen vergleichen, ob jemand eine Kreditkarte ungewöhnlich nutzt, etwa in (zu) kurzen Zeitabständen an unterschiedlichen Orten. Häufig ergeben sich aus dem Unsupervised Learning Erkenntnisse, die sich beim Supervised Learning auszahlen, um Kategorien für künftige Datensätze zu erzeugen.

Reinforcement Learning: Die KI bekommt Incentives, wenn sie sich in einer "Trial and Error"-Situation korrekt verhält, etwa was die Börse angeht. Solche Systeme erkennen, wie sich die Umwelt verändert und reagieren darauf, sie interagieren und versorgen sich so mit immer neuen Daten. Alpha Go, die KI der Google-Tochter Deepmind, hat so den damaligen Go-Weltmeister Lee Sedo geschlagen - 4:1, und das vor mehr als fünf Jahren. Robo Adviser wie Whitebox, Smavesto, an dem auch die Sparkasse Bremen beteiligt ist, oder Robin von der Deutschen Bank lernen unter anderem so, mit den selbst entwickelten Risikosystemen zu arbeiten.

Was diese drei Ansätze hervorbringen, ist jedoch alles andere als das Drehbuch zu einem bekannten Science-Fiction-Film, in dem sich die KI gegen die Menschheit wendet. Anders als die starke KI aus dem Film gilt KI heute als schwach. Sie denkt und handelt noch nicht wie ein Mensch, sondern verhält sich eher wie ein "Fachidiot". Was heute schon KI heißt, gehört vielmehr zum Machine Learning. Vom Lernen hängt also ab, wie gut eine KI arbeitet. Doch dabei kann viel schieflaufen. Wer mit aggregierten Daten arbeitet, um eine KI zu trainieren, riskiert, Informationen zu verlieren. Zudem verweisen Daten immer in die Vergangenheit, sie sagen per se noch nichts über die Zukunft. Möglich ist auch, dass sich diejenigen, die Daten beschriften, in einem bestimmten gesellschaftlichen Kontext bewegen. Eine KI, die sich etwa weigert, deshalb an farbige Mitmenschen Kredite zu vergeben, bekommt schnell Ärger.

Gefahr beim Einsatz von KI durch "Diversity Crisis"

Susanne Beck et al. listen im Whitepaper über "Künstliche Intelligenz und Diskriminierung" für die vom Bundesministerium für Bildung und Forschung geförderte Plattform Lernende Systeme gleich mehrere Beispiele auf, wo sich eine KI eventuell problematisch verhält. Ein Chatbot könne sich etwa durch eine konzertierte Aktion von Usern so manipulieren lassen, dass er sich sexistisch, rassistisch oder gar antisemitisch äußert (Data Poisoning). Auch bei Werbung oder bei unterschiedlichen Preisen in verschiedenen Ländern für Hotels oder Flüge, bei Predictive Policing und - auch wenn es wie ein eher schlechter Scherz anmutet - einem Seifenspender, der nur auf weiße Hände reagiert, lauern Gefahren. Nicht selten repliziert die KI das, was vorher schon falsch läuft. Eine Studie der Universitäten Magdeburg und Sønderborg deckt auf, dass die Klangfilter von Zoom und Co weibliche Nutzer benachteiligen. Weil die Software höhere Frequenzen in der Sprache ausdünne, würden Frauen als weniger ausdrucksstark, kompetent und charismatisch wahrgenommen, so die Studienautoren. Wer sich auf eine neue Stelle bewirbt, lässt sich heute schon - wenn wohl auch unbewusst - darauf ein, dass Maschinen den Lebenslauf filtern. Weil Frauen häufiger Lücken im Lebenslauf aufweisen als Männer, schwinden ihre Chancen. Einer der Gründe dafür: Weiße, männliche Entwickler. Das New Yorker AI Now Institute spricht im Whitepaper "Discriminating Systems: Gender, Race and Power in AI" von 2019 bereits über die sogenannte Diversity Crisis. Wenn Banken und Versicherungen KI nutzen wollen, sollten sie also genau überlegen, was sie ihren Maschinen beibringen - und wie.

Use Cases für KI finden

Wenn sich Banken oder Versicherungen mit KI beschäftigen wollen, geht es immer darum, die richtigen Aufgaben für eine Maschine zu finden. Weil wir es mit einer schwachen KI - also Machine Learning - zu tun haben, lassen sich sieben Kriterien aufstellen, um eine Aufgabe danach zu bewerten, ob sie sich von einer KI besser als von einem Menschen lösen lässt (siehe Abbildung 2). Besser heißt hier vor allem: schneller und weniger fehlerhaft. Wertvolle Fachkräfte mit viel Know-how stehen dadurch für andere, weitaus wichtigere Aufgaben bereit und müssen keine Fleißarbeiten mehr verrichten.

Abbildung 2: Sieben Prüfsteine, ob sich Machine Learning für eine Aufgabe lohnt Quelle: Senacor
Abbildung 3: Schema, um ein datengetriebenes ML-Produkt zu entwickeln Quelle: Senacor

Erfahrungsgemäß zeigen viele Use Cases, die sich mit diesen sieben Kriterien finden lassen, nach innen. Sie erleichtern also Backoffice-Aufgaben und minimieren so das Risiko, dass sich ein Kunde von der Maschine falsch angesprochen fühlt. Zudem gilt: "Niemand will das Gefühl bekommen, dass die Bank sich durch einen Chatbot das persönliche Gespräch spart", sagt Gilbert Fridgen von der Universität Luxemburg, der die KI-Studie zum Smart Retail Banking zusammen mit dem Fraunhofer Institut und Senacor erstellt hat. Hier einige Beispiele, die sich konkret für ein ML-Modell eignen:

Next Best Offer: Eine KI stellt aus dem, was eine Bank bereits über einen Kunden weiß, passende Angebote zusammen und zeigt diese beispielsweise in der Banking-App, im Online-Banking oder in der Vertriebssoftware für Filialberater an.

Kredit-Scorings: Ähnlich wie einige Startups trainiert die Bank eine KI darauf, für geschäftliche Kunden Scorings auszurechnen, meist für Klein- und mittelständische Betriebe. In diesem Bereich lassen sich die Regeln noch recht einfach abbilden.

Churn-Rates: Die KI berechnet, wie wahrscheinlich ein bestimmter Kunde die Bank wechseln möchte. Dafür versucht sie, sogenannte Personas zu identifizieren, Muster also, wie sich ein Kunde verhält verglichen mit jenen, die bereits gekündigt haben.

Transparenz: Im Industriegeschäft von Versicherungen existieren teilweise riesige Vertragswerke, die sich nicht selten über verschiedene Rechtsräume strecken. Eine KI kann solche Verträge "durchlesen" und schnell darstellen was wie versichert ist. Diese Transparenz zählt für die Kunden häufig mehr als die zu zahlende Prämie.

Triage: Eine KI lässt sich dafür einsetzen, Schäden bei Versicherungen zu sortieren und zu entscheiden, ob direkt Geld fließen soll oder ob beispielsweise ein Gutachter kommen muss oder ein Sachbearbeiter den Fall bekommt.

Kostenprognosen: Falls die Versicherung die relevanten Datenbanken angebunden hat, kann die KI bei Unfallschäden direkt an eine Werkstatt verweisen und abschätzen, wie hoch die Kosten für die auszutauschenden Teile möglicherweise ausfallen.

Näher am Kunden

Grundsätzlich gilt: Je näher die KI an den Kunden rückt oder etwas entscheidet, das Kunden unmittelbar betrifft, desto eher muss sich erklären lassen, was sie tut. Beispielsweise muss der Versicherer erklären können, warum er einem Unfallopfer nur eine halbe statt der vollen Taxe für eine beeinträchtigte Gliedmaße anrechnet.

Dafür interessiert sich auch die Aufsicht. Sie erwartet von den Anbietern, belegen zu können, wie sie zu Entscheidungen gelangen. Eine KI oder ein ML-Modell zu entwickeln, heißt deshalb auch, von vornherein dafür zu sorgen, dass sie nachvollziehbar bleibt in dem, was sie tut. Bereits 2019 beschreibt Gartner im Hype Cycle for Artificial Intelligence den Begriff "Explainable AI" - kurz: XAI. Inzwischen geht der Trend so weit, von KI zu fordern, dass sie verantwortlich ("responsible") entscheidet.

Daneben dürfte künftig auch eine große Rolle spielen, wie sicher KI-Anwendungen sind, wenn sie mit der Umwelt interagieren. Die Systeme müssen merken, falls jemand versucht, sie mit falschen oder manipulierten Daten zu vergiften. Auch ein direkter Angriff auf ein KI-System muss die Bank oder die Versicherung abwehren können. Wie dramatisch das sonst enden kann, hat gerade erst ein 19-Jähriger "Ethical Hacker" aus Dinkelsbühl bewiesen, als er via Twitter verkündete, sich in 25 Tesla-Fahrzeuge auf der ganzen Welt eingeklinkt zu haben und in der Lage zu sein, den unbedarften Fahrern etwa mitten auf der Autobahn die Fenster zu öffnen oder die Musikanlage aufzudrehen. Autonomes Fahren und die dafür verwendete Künstliche Intelligenz werfen zudem weitere Fragen auf, die ethisch aber auch haftungsrechtlich relevant sind.

Trotzdem lohnt es sich für Banken und Versicherungen, sich mit Künstlicher Intelligenz zu beschäftigen. Das liegt vor allem daran, dass KI im BFSI-Sektor (Banking, Financial Services and Insurance) noch schneller wachsen soll als im gesamten Markt. Anders ausgedrückt: Die Marktanteile verschieben sich während der kommenden Jahre. Emergen Research rechnet mit einer annualisierten Wachstumsrate (CAGR) von mehr als 35 Prozent bis 2028. Institute und Assekuranzen sollten sich deshalb zumindest AI-ready machen.

Vom Use Case zum ML-Modell

Ein wesentlicher Baustein für AI-Readiness stellen eigens entwickelte ML-Modelle dar, die einen oder mehrere der identifizierten Use Cases abbilden - und zwar als ein eigenständiges, datengetriebenes Produkt (siehe Abbildung 3). Wie gezeigt, eignet sich ein konkretes Problem, das sich mit möglichst einfachen Methoden lösen lässt, um die KI später darauf zu trainieren und das ML-Modell zu verfeinern. Zu den nötigen Vorarbeiten zählen Daten, die ein Team auswählt, analysiert und bereinigt. Weil dabei Fehler zu erwarten sind, müssen die Kollegen diesen Schritt möglicherweise wiederholen, so lange, bis das beschriebene Modell mit den vorhandenen Daten das Problem zufriedenstellend löst und sich zu pilotieren lohnt. Vier von fünf Projekten bleiben dabei erfahrungsgemäß auf der Strecke. Das gehört dazu.

Abbildung 4: Iterativ entwickeltes ML-Beispielmodell für Beratungsprotokolle Quelle: Senacor

Sobald sich ein Prototyp rechnet, geht es darum, das ML-Modell iterativ auszureifen und der Maschine weiter beim Lernen zu helfen. Beispielsweise möchten eine Versicherung oder eine Bank ihr ML-Modell dafür einsetzen zu kontrollieren, ob die vorgeschriebenen Protokolle, die Anbieter anfertigen müssen, wenn sie ein Finanzprodukt verkaufen, vollständig sind und alle erforderlichen Angaben enthalten. Fünf Schritte haben sich bewährt, um in solchen Fällen zu systematisch iterierten Schleifen zu gelangen und so das ML-Modell zu verbessern. Diese fünf Schritte lauten: Designen, Entwickeln, Testen, Releasen und Analysieren - also: das ML-Modell konzeptionell anpassen, technisch umsetzen sowie den neuen Code testen, releasen und hinterher analysieren, ob und wie sich die KI jetzt anders verhält.

Ein weiteres iteratives Moment findet innerhalb der Design-Phase statt und zielt darauf ab, von einfachen zu komplexeren ML-Charakteristika zu kommen. Dies geschieht idealerweise in drei Dimensionen:

Prüfpunkte: Zunächst soll die KI lernen, binär zu unterscheiden. Beispielsweise, ob das Beratungsprotokoll zum richtigen Kunden gehört oder ob der angegebene Tarif überhaupt existiert. Im zweiten Schritt soll die KI erkennen, ob der zu beratende Kunde ausreichend versorgt ist oder Lücken existieren. Am schwierigsten ist, der KI beizubringen, ob sich aus dem Protokoll tatsächlich erkennen lässt, dass ein Kunde freiwillig abgeschlossen hat - ein besonders für die Aufsicht relevantes Kriterium.

ML-Verfahren: Neben den Prüfpunkten lassen sich auch immer komplexere ML-Verfahren einführen. Besonders einfach zu realisieren sind regelbasierte Verfahren sowie lineare oder logistische Regression, die auch berücksichtigen, wenn sich die zu prüfenden Variablen gegenseitig beeinflussen. Neuronale Netze und Random Forest auf der zweiten Stufe erfassen unkorrelierte Entscheidungsbäume, also Fälle, in denen keine eindeutigen Wenn-Dann-Beziehungen mehr bestehen. Erst danach folgen mit neuronalen Netzen die Ausbaustufen, die als schwache KI durchgehen.

Einsatz: Die dritte Dimension beschreibt, wann und unter welchen Bedingungen sich eine KI einschalten soll. Das läuft von rein manuellen Aufrufen über vorgeschlagene und manuell bestätigte Aktionen bis hin zu teil- und vollautomatisierten Abläufen, die nur Ausnahmefälle an einen menschlichen Konterpart aussteuern.

So ausdifferenziert, führt das ML-Modell dazu, dass Vermittler kaum noch selbst eingreifen müssen, um ein Beratungsprotokoll korrekt zu administrieren (siehe Abbildung 4). Sie kümmern sich stattdessen gleich um den nächsten Kunden.

Allerhöchste Eisenbahn

Künstliche Intelligenz kommt langsam in Banken und Versicherungen an. Die Technologie ist zwar noch weit davon entfernt, eine Revolution der Arbeitswelt auszulösen. Doch die Vorteile liegen auf der Hand. Die Unternehmen sollten sich deshalb überlegen, wie und wofür sie KI nutzen wollen. Ähnlich wie bei früheren IT-Trends dürften sich die meisten Unternehmen für eigene ML-Modelle entscheiden, wenn diese sich eignen, sich im Wettbewerb von anderen zu unterscheiden. Alles andere lässt sich kaufen. Auch viele Fin- und Insuretechs, die KI schon hoffähig gemacht haben, setzen nicht allein auf Konfrontation, sondern vielfach auch auf eine Kooperation mit den etablierten Banken. Anbieter wie c3.ai setzen sogar darauf, dass andere Firmen die von ihnen gefertigten ML-Modelle aktiv integrieren - AI as a Service. Der US-Ölkonzern Baker Hughes hat das beispielsweise getan.

Damit Banken und Versicherungen ähnlich flexibel bleiben, sollten sie ihre IT-Landschaften von den Kernsystemen bis hinaus zu den Frontends durchgehend digitalisieren. APIs, Cloud und Microservices bestimmen künftig darüber, ob Daten ungehindert fließen, wie sich eigene und fremde Dienste integrieren lassen und auch darüber, wie abhängig sich die Unternehmen von ihren eigenen KI-Fähigkeiten machen. Die Ergo-Versicherung hat gerade erst zusammen mit Amazon eine komplette AI Factory gestartet. Wer da mithalten will, muss sich zudem auch den nichttechnischen Herausforderungen stellen. Dazu gehört das passende Know-how - und das ist knapp. Der Branchenverband Bitkom schätzt, dass heute schon 96 000 IT-Leute fehlen, um die digitale Transformation zu stemmen.

Kulturell wie technologisch muss die Finanzbranche jetzt über ihre DNA als Unternehmen nachdenken. Der Appell lautet: Es ist allerhöchste Eisenbahn.

Jochen Schlicksupp , Partner , Senacor Technologies AG, Zürich
Christian Wolfangel , Partner , Senacor Technologies AG, Bonn

Weitere Artikelbilder

Noch keine Bewertungen vorhanden


X