LEASING

Restwertprognose von Mobilien 2020

Neue Werkzeuge für eine neue Welt

Chris Domagala, Foto: privat

Um der Kategorisierung von Restwerten entgegenzuwirken, bedarf es einer weitreichenden Datenabdeckung. Durch die digitalen Möglichkeiten quellen die Datenbanken allerdings über. Nachfolgend wird "Smart Data" vorgestellt; eine jahrelang gewachsene Methodik, mit der die relevante Datenmasse selektiert und bewältigt werden kann. Dabei geht es einerseits um den Lernprozess von Maschinen und andererseits um Nutzen sowie Chancen des Verfahrens. Zur Veranschaulichung greifen die Autoren auf Situationen aus ihrem eigenen Firmenalltag zurück. (Red.)

Einen Pkw privat zu verkaufen, ist einfach: Genaues Modell, Baujahr und Erstzulassung sowie gelaufene Kilometer erfassen und auf die sogenannte Schwacke-Liste schauen. Gegebenenfalls kann noch kurz auf den Websites führender Online-Marktplätze recherchiert werden, um die dort angepriesenen Angebotspreise zu vergleichen. Spätestens dann sollte man auf ganz unkomplizierte Art und Weise einen brauchbaren Restwert und damit ein gutes Gefühl für die Verhandlungen haben.

Bei Baumaschinen, Landmaschinen und Flurförderzeugen im gewerblichen Kontext ist der Verkauf allerdings deutlich komplizierter. Fahrzeug-Identifizierungsnummern mag es zwar geben, die Überprüfbarkeit gestaltet sich jedoch häufig als schwierig. Marktplätze gibt es viele, Angebotspreise sind diffus. Insbesondere Banken beziehungsweise Leasing-Gesellschaften kennen die Problematik der Datenabdeckung hier nur zu gut. Dies führt häufig zu tendenziell risikoaversen Restwerteinschätzungen, da auf Modellebene zu wenig Daten vorhanden sind und Restwerte, sogar herstellerunabhängig, zu stark auf der Kategorieebene aggregiert werden. Ein griffiges Beispiel aus dem Pkw-Bereich ist ein Vergleich mit der Restwerteinschätzung eines VW Passat 2.0 TDI Bluemotion Kombi: Übersetzt würde der Restwert auf der Ebene "Pkw Kombi" veranschlagt werden.

Schwacke-Liste für Nicht-Pkw-Mobilien

Hier setzt die Forschung und Entwicklung von Lectura an, aus der sich eine Schwacke-Liste für Nicht-Pkw-Mobilien ergibt. Eine umfangreiche Sammlung sämtlicher Asset-Daten (Marken, Modelle, Generationen, Modellvarianten et cetera) ermöglicht es, einen standardisierten, vollständigen Maschinenkatalog als Grundlage für die Restwertbetrachtung auf Modellebene zu schaffen.

Ein "Bagger eines Tier 1 Herstellers" kann beispielsweise entweder eine halbe Tonne wiegen und 25 000 Euro wert oder 200 Tonnen wiegen und zwei Millionen Euro wert sein. Auch die Restwertverläufe unterscheiden sich innerhalb von Fahrzeugkategorien von Modell zu Modell zum Teil erheblich. Somit ist primär eine genaue Identifizierung des Objekts notwendig. Eine höhere Präzision der Restwertprognose kann entsprechend bei Finanzdienstleistern in letzter Instanz nachhaltig die Profitabilität und/oder Wettbewerbsfähigkeit steigern.

Restwertprognose 2.0

Seit Beginn dieses Jahres allerdings steht die Methodik der Restwertprognosen auf einer neuen, revolutionären Datenbasis. Das Stichwort, wie in so vielen Industrien, lautet auch hier "Smart Data" und wird im Weiteren detailliert erläutert. Es ist 2020 - Daten sind vielfältig vorhanden und exponenzieren sich seit einigen Jahren radikal. 90 Prozent aller Daten im Internet sind seit 2016 produziert worden (IBM Marketing Cloud Study 2017). Dies schlägt sich ebenfalls in der Dimension der Datensammlung von Unternehmen nieder.

Seit 2011 sammelt Lectura mit zunehmender Intensität Online-Datenpunkte sowie reelle Transaktionsdaten von internationalen Insolvenzverwaltern, Auktionshäusern, Händlern, Versicherern, Banken, Leasing-Gesellschaften und anderen. Digitalisierungseffekte wie Programmierschnittstellen und andere Systemschnittstellen ermöglichen einen zunehmend automatisierten Austausch der Daten.

Die Transaktionsdatenbank von Lectura, welche Basis der neuen Restwertprognostik ist, zählt zurzeit rund 30 Millionen "cleane" Datenpunkte auf Modellebene der Objekte. Insgesamt finden sich mittlerweile über 150 000 Modelle im Datenpool. Der Anstieg von Tausenden zu Millionen Daten bedarf einer neuen Herangehensweise an die Auswertung.

Millionen Rohdaten erfordern neue Methodik

Bis vor einigen Jahren war die Datendichte noch ein Nadelöhr; die neue Datenflut des digitalisierten Zeitalters erfordert nun erheblich mehr. Neben der Sammlung von Daten gehört das fachgerechte Identifizieren und Verifizieren relevanter Daten zum Auswertungsprozess. Es gibt zwar mehr Daten, diese sind allerdings nicht immer verfügbar. Maßgeblich Unterschiede in der Verfügbarkeit basieren auf Kategorie-, Hersteller-, Modell- und Landesebene.

Eine Auskunftsdatei muss Daten im Detail verstehen, komplexe Modelle entwickeln sowie statistisch korrekt dort einsetzen, wo ungenügend Daten verfügbar sind. Eine große Hilfe hierbei ist grundlegend die stetige Ausweitung der Beschaffungskanäle sowie des Partnernetzwerks. Bei Letzterem handelt es sich um einen Zweiwege-Austausch von (anonymisierten) Daten. Typische Datenpartner sind Banken, Leasing-Gesellschaften, Vermieter, Versicherer et cetera. Der Ausbau dieser Partnerschaften ist ein wichtiger Prozess, der es ermöglicht, Werte für eben genau diese Branche zu benchmarken.

Lernprozess einer Maschine

Moderne IT-Technologien, die Milliarden von Daten handhaben und Muster erkennen können, liefern einen klaren Vorteil in der datengetriebenen Restwertmodellierung. Es bleiben allerdings Maschinen, die klar geführt und geregelt werden müssen, um im Bereich der Preis-/Wertermittlung realistische Werte zu erzeugen. Algorithmik und Künstliche Intelligenz helfen bei der Datenselektion und -prozessierung, reichen jedoch alleine nicht aus. Damit eine Maschine präzise interpretiert und auswertet, muss ein richtiger Lernprozess durchlaufen werden:

- Stetig werden aktuelle sowie aktualisierte Daten von Herstellern inklusive der Beschreibungen der Modelle gesammelt.

- Damit werden Marktplatz und Auktionsdaten angereichert, analysiert, ausgewertet und genaue Modellstrukturen definiert - daraufhin wieder verprobt.

- So erhalten die Daten die notwendige Trennschärfe für die Restwertmodellierung auf Modellebene.

- Im Falle beschränkter Datendichten bei einzelnen Modellen erkennt dies ein Algorithmus und orientiert sich an ähnlichen Modellen mit höherer Dichte. Dies geschieht auf technischer Ebene, auf dem Markenlevel, und berücksichtigt Regionalität. Löcher im gesammelten Datenpool werden auf diese Weise präzise rückwärts modelliert beziehungsweise extrapoliert.

- Asset- und Risikoexperten analysieren und präzisieren gegebenenfalls daraufhin das erlernte Regelwerk der Algorithmik auf Basis langjähriger Erfahrung und Expertise.

Abbildung 1 zeigt exemplarisch, wie sich solch eine kombinierte Intelligenz speist. Der Berechnungskern gleicht eher einer Menschmaschine. Die statistisch und algorithmisch auf Basis der Datenpunkte erzeugten Wertvorschläge werden aufwendig von Asset-Experten beobachtet und geprüft. Die daraus resultierenden Plausibilisierungsregeln speisen kontinuierlich das Gesamtmodell. So entsteht eine bisher präzedenzlose Präzision, die jede Seite (Mensch und Maschine) für sich betrachtet alleine nicht leisten könnte.

Besonders spannend bei der Verwendung lernender, zentraler Datenintelligenzen ist die Tatsache, dass mit jedem guten Dateninput das gesamte Berechnungsmodell ein klein wenig besser wird. Im Gegensatz zur manuellen Wertermittlung auf dieser Komplexitätsebene, kann es so nie zu viel Input sein. Ganz im Gegenteil: Die Präzision der Berechnung wird stetig steigen und sich bei Hinzunahme weiterer Faktoren, wie zum Beispiel Trends, makro-ökonomischer Kennzahlen und so weiter, entsprechend stetig entwickeln.

Sollte es nun vorkommen, dass die Datendichte bei ausgewählten, sehr selten gehandelten Modellen zu gering ist, um zum Beispiel eine belastbare Aussage über den reellen Restwert zu treffen, dann unterstützt zunächst die Aggregation. Nur eben nicht auf "hoher Ebene", sondern auf "der nächsthöheren Ebene". Es handelt sich dabei sozusagen um eine Wertaggregation im Notfall, also um eine Ausweichlösung (Fallback).

Marktpreise versus Auktionsergebnisse

Eine der wohl wichtigsten Fragen bei der Bewertung von Restwerten ist die Preisebene, das heißt welche Annahmen an das Erzielen eines Preises/ Restwertes für eine Maschine in der Verwertung gelten.

Gängige Praxis im Finanzwesen ist der so genannte Forced Liquidation Value (FLV). Der FLV ist eine Wertebene, die bei gezwungener Verwertung im Schnellverfahren mit limitierter Objektexpertise zu Grunde gelegt wird und das geringste Restwertrisiko aus Sicht eines Finanzierers widerspiegelt. Der Risikohierarchie folgend, ist die nächste Ebene der Ordinary Liquidation Value (OLV). Definiert durch länger gegebene Recherche und Zeiträume von bis zu sechs Monaten, unterstellt der OLV bessere Verwertungsergebnisse und orientiert sich deutlich näher am eigentlichen Marktwert - dem Fair Market Value (FMV). Weitere gängige Definitionen des FLV und OMV sind Händlereinkaufspreise inklusive Beschaffungskosten (zum Beispiel aus einer Auktion/Insolvenz heraus inklusive Gebühr und Transportkosten) beziehungsweise Händlerverkaufspreise (reelle, am globalen Markt erzielte Transaktionswerte).

Lectura sammelt hunderttausende globale Transaktionen jeden Monat - Tendenz stark steigend. Diese Daten sind heterogen, das heißt sie erfordern einen intensiven Säuberungsprozess sowie eine neue Definition beziehungsweise Interpretation der Wertebenen. Neu zu definieren deshalb, da die Herkunft der Daten sowie ihre Gewichtung in der Praxis all dieser Datenpunkte deutlich präziser, aber auch komplexer geworden ist.

Hinsichtlich der Marktpreisspiegel (OLV/FMV) sind Angebotspreise beispielsweise nicht ausreichend, um reelle Verwertungsindikatoren richtig einschätzen zu können. Angebotspreise werden etwa mit zuvor aufwendig recherchierten Rabattstrukturen abgezinst. Rabatte werden noch einmal differenziert nach Maschinenalter, Verkaufsstandort und Händlertyp.

Das Augenmerk auf die schnelle Verwertungsebene (FLV/AMV) gelenkt, kann auch das Verhältnis von gesammelten Angebots-, Transaktions- und Auktionsergebnissen von mobilen Maschinen analysiert und gelenkt werden. Daraus resultiert eine akkurate Kalkulation des Auktionspreislevels - auch wenn Maschinen teilweise in einer Auktion gar nicht gelaufen sind.

Abbildung 2 zeigt, wie sich die beiden Preisebenen hinsichtlich einer Interpretation zusammensetzen können.

Präsentation der Transaktionsdaten

Die neue, erheblich komplexere Datensammlung und Plausibilisierung in den Berechnungsmodellen verfolgt übergeordnet zwei Ziele:

- Einen maximal marktnahen OLV zu schaffen, der den fairen Marktpreis (nicht Angebotspreis) auf globalen Marktplätzen darstellt.

- Einen maximal marktnahen FLV zu schaffen, der auf einer reellen Datenbasis fußt und einen sehr belastbaren, aber nicht zu risiko-aversen Verwertungswert darstellt.

Für mehr Transparenz im Markt- und Preisgefüge werden die Transaktionsdaten zudem in visualisierter sowie tabellarischer Form dargestellt. Der oben beschriebene Prozess des "Cleanings" wird besonders in der Datenvisualisierung deutlich. Der neue Webservice soll dem Anwender neben der qualitativen sowie quantitativen Indikation über gefundene Datenpunkte auch visuell aufzeigen, wie das Datenmodell arbeitet. Beim Benchmarking beziehungsweise direkten Vergleich der zwei Preisebenen unterstützt die Listenansicht den Asset-Beauftragten.

(Ab)nutzungsbasierte Korrelationen

Ein weiterer erheblicher Vorteil bei steigender Datendichte im Millionenbereich ist die Möglichkeit, (ab)nutzungsbasierte Korrelationen zum Preis/ zur Bewertung herstellen zu können. Das bedeutet, bei der Sammlung von Angebots-, Auktions- und sonstigen Transaktionsdaten werden das Land, Betriebsstunden, Maschinenalter, Ausstattungsmerkmale, zum Teil Seriennummern sowie das Veröffentlichungsdatum (damit durch die Regelmäßigkeit in der Datensammlung auch ungefähre Standzeiten beziehungsweise Verkaufszyklen erfasst werden) geloggt.

Korrelative Strukturen im Berechnungsmodell reichern den Datenpool massiv an und ermöglichen entsprechend authentische Bewertungsergebnisse in Abhängigkeit von der Objektnutzung. Dies führt dazu, dass die Mobilienbewertung auf Modellebene auf einem so detailreichen Fundament steht, dass eine Echtzeitauswertung mit Hilfe verschiedenster Filter für den Anwender möglich werden.

Globale Marktanalyse für Maschinenverfügbarkeit

Die globale Sammlung und Modellierung von Maschinenwerten ermöglicht es zudem, diese dezidiert nach Verfügbarkeit zu betrachten.

Assetexperten können so auf einen Blick und ohne eigenen Rechercheaufwand Marktverhältnisse und Marktbewegungen einschätzen und somit einen belastbaren Eindruck von Angebot und Nachfrage erhalten.

Die Berechnungsintelligenz

Preise und Werte hängen wie beschrieben stark vom Verkaufskanal ab. Es empfiehlt sich daher, eng mit Banken, Leasing-Gesellschaften, Auktionshäusern et cetera zusammenzuarbeiten. So können anhand der eigenen Einkaufsund Verkaufsdaten der Finanzierer/Verwerter individuelle Kalkulationen erstellt werden, die maximal dem Businessmodell entsprechen. Diese Ergebnisse können im Anschluss mit anderen Kanälen verglichen werden (Benchmarking).

Die eigenen Daten sind bei diesem Datenrückweg datenschutzkonform anonymisiert und werden standardmäßig via Non-Disclosure-Agreements prozessiert. Auf diese Weise können Schwächen und Potenziale in Form von Portfolioanalysen identifiziert und noch bessere, da individuellere, Rückschlüsse hinsichtlich der hauseigenen Restwert-/Risikokalkulationen sowie des Remarketings getroffen werden. Zudem profitiert das gesamte Datenmodell von der Dateninfusion und macht die Berechnungsalgorithmik so zukünftig stetig präziser.

Proaktive Wertmodellierung und Marktanalyse

Wie stark wächst China 2020? Wie könnten die europäischen Auftragsbücher für 2021 aussehen? Wie sieht der Investitionstrend deutscher Unternehmen mittelfristig aus? All diese und viele weitere Fragen stellen sich die Risikobeauftragten in den Abteilungen der Finanzierer und Verwerter. Wie können Trends frühzeitig erkannt und entsprechend in die Kalkulationen der nächsten fünf Jahre integriert werden?

Bisher sind Trends noch kein eigenständiger Bestandteil des Algorithmus. Historisch gesammelte Daten werden gemäß Inflation beziehungsweise "Wert heute" bereinigt - ein präziser Blick in die Zukunft erfordert allerdings (noch) proaktive, individuelle Marktanalysen. Generelle Trends und beispielsweise saisonale Effekte können jedoch anhand der reaktiv gesammelten Daten erkannt und analysiert werden.

Unabhängig vom Webservice, liefert Lectura aggregierte Wertverlaufskurven an Finanzierer. Hierzu wird die beschriebene Berechnungsintelligenz auf Modellebene genutzt und auf beliebigen Levels aggregiert. Sodass zum Beispiel eine Value Line für "Tier 1 Raupenbagger 20- 30 t" hunderte Wertverlaufskurven von jeweilig zugehörigen Modellen beinhaltet.

Ergänzend hierzu werden Marktanalysen als Zusatzmodule angeboten. Aus dem eigenen Daten- und Expertenpool schöpfend, werden ferner Trendanalysen von Kooperationspartnern hinzugezogen, um für diverse Maschinengruppen präzise in die Zukunft schauen zu können. Übergeordnete Trends werden zudem 2020 ihren Platz als Puzzleteil im Berechnungsalgorithmus einnehmen und somit mittelfristig auch ein Feature von Lectura Analytics werden.

CHRIS DOMAGALA ist Leiter New Business Development der Lectura GmbH, Nürnberg. Er gründete die Leasing-Vergleichsplattform Leasingo und arbeitete später für weitere FinTech- Unternehmen der Branche.
Chris Domagala , Leiter New Business Development der Lectura GmbH, Nürnberg

Weitere Artikelbilder

Noch keine Bewertungen vorhanden


X