MARKT- UND OBJEKTBEWERTUNG

DIGITALE IMMOBILIENBEWERTUNG: DIE ZUKUNFT BEGINNT JETZT

Christian Crain, Foto: PriceHubble

Ob Machine Learning, Big Data oder Künstliche Intelligenz: Die großen Buzzwörter der Digitalisierung haben längst auch in der Immobilienbewertung Einzug gehalten. Gerade in Deutschland tut man sich mit solchen Innovationen und ihrer Anwendung in der täglichen Bewerterpraxis aber noch schwer - nicht zuletzt deshalb, weil der Gesetzgeber dem Ganzen nur bedingt aufgeschlossen ist, siehe etwa den jüngsten Vorschlag der BaFin zur Novellierung der Beleihungswertvermittlungsverordnung (BelWertV). Im folgenden Beitrag beleuchtet der Autor die Vorzüge solch statistischer Bewertungsverfahren, deren Potenzial im Übrigen noch längst nicht ausgeschöpft sei: Von der kontinuierlich besser werdenden Datenverfügbarkeit profitiere die Leistungsfähigkeit der Modelle. Red.

In skandinavischen Ländern werden schon lange statistische Verfahren eingesetzt, um Werte für alle Immobilientypen zu ermitteln. Deutschland hinkt derzeit noch immer hinterher, obwohl die technischen Voraussetzungen längst geschaffen worden sind. Auch neue Vorschläge des Bundesamtes für Finanzaufsicht sind nur eine Reform mit angezogener Handbremse und das, obwohl sich die European Banking Authority (EBA) auf europäischer Ebene bereits vor über einem Jahr für die Nutzung statistischer Modelle in der Immobilienbewertung ausgesprochen hat.

Widersinnige Beschränkung

Die BaFin schlägt nun vor, die Grenze für Kleinkredite, bis zu der ausschließliche, KI-basierte Wertermittlungen erlaubt werden sollen, von 400 000 auf 500 000 Euro anzuheben. Doch schon jetzt zeigt sich, dass gerade in Großstädten zahllose Wohnimmobilien längst über dieser Marktgrenze liegen.

Insgesamt ist es unverständlich, dass das auf Künstlicher Intelligenz basierende "Automated Valuation Models (AVM) " auf den Kleindarlehensbereich beschränkt bleiben soll. Auch wir bei Pricehubble erkennen in unserer alltäglichen Zusammenarbeit mit Banken und Finanzinstitutionen, welche Chancen eine Erneuerung der Immobilienbewertung mit sich bringt.

Ist ein 50-Stunden-Crashkurs ausreichend?

Nach wie vor wird ein Großteil der Bewertungen von Immobilien durch Vor-Ort-Besuche von Gutachtern vorgenommen, die analog Daten erheben und verarbeiten. In einem Bericht der "Wirtschaftswoche" schildert ein Redakteur, wie er ohne jede Erfahrung im Immobiliengeschäft nach 50 Stunden Onlinetraining "zertifizierter Immobiliengutachter" war. Hier muss die Frage erlaubt sein, ob modernste Technologie, die Analyse von vielen Zehn- bis Hunderttausenden Vergleichsobjekten sowie der Einsatz maschinellen Lernens einer solchen Zertifizierung nicht überlegen sind.

Die Einschätzung der Pfandbriefbanken ist recht eindeutig: "Viele datenbankgestützte Bewertungsprozesse basieren auf solidem wissenschaftlichem Fundament und riesigen Datenpools und müssen deshalb für alle standardisierbaren Immobilienarten zugelassen werden." Gleichzeitig können die datengetriebenen statistischen Bewertungsmodelle Gutachter unterstützen, können ihnen weitere, bisher für sie nicht messbare Parameter aufarbeiten und so vorbereitend für die Besichtigung die Effizienz des Prozesses enorm steigern.

Der erwähnte Redakteur der "Wirtschaftswoche" gab für seinen Onlinekurs knapp mehr als 1 000 Euro aus, als zertifizierter Immobiliengutachter könnte er jetzt die branchenüblichen 1 000 bis 1 500 Euro pro Bewertung berechnen (bei Objekten unter einer Million Euro).

Dabei wäre ihm selbst überlassen, welche Datengrundlage er benutzt und auch die Anzahl der Vergleichsobjekte ist frei wählbar. Der Immobilienexperte der Handwerkszeitung, Werner Siepe, sieht noch einen weiteren Nachtteil bei den traditionellen Bewertungen: "Ein vom Verkäufer in Auftrag gegebenes Wertgutachten kann sogar kontraproduktiv sein. Denn Kaufinteressenten schließen gern auf ein Gefälligkeitsgutachten."

Es ist nicht nur Tatsache, dass eine gut fundierte, KI-basierte Bewertung unendlich viel mehr Vergleichsmöglichkeiten bietet als dies mit einem analogen Vorgehen möglich wäre. Ganz andere Daten können und werden herangezogen, denn Kunden und Partner interessiert nicht nur, wie hoch der Wert einer Immobilie am heutigen Tag ist.

Analyse über die Tagesaktualität hinaus

Mindestens genauso wichtig ist die Frage, wie sich das Objekt mit größter Wahrscheinlichkeit in den nächsten Jahren entwickeln wird. Dazu sammelt Pricehubble beispielsweise Daten über die Anbindung der Objekte an den öffentlichen Nahverkehr oder soziodemografische Informationen über das Wohnumfeld.

Anhand dieser Daten und der bisher vom Bewertungsmodell gelernten Muster am Standort der Immobilie kann dann eine Prognose für die voraussichtliche Entwicklung der Immobilie ermittelt werden. Mit solchen digitalen Immobilienbewertungen verbindet man bereits heute die Möglichkeit, eine große Menge relevanter Daten effizient und smart auswerten zu können. Langfristig wird sich das Potenzial, das statistische Bewertungsmodelle entfalten, noch größer werden, da auch die Datenverfügbarkeit mit voranschreitender Digitalisierung zunehmen wird.

Stefan Fahrländer, Lehrbeauftragter für Baubetriebslehre an der Uni Stuttgart, schrieb bereits 2019 in der Reihe "Transformation Real Estate": "Die Möglichkeiten von Big Data und analytischer Statistik, gepaart mit immobilienwirtschaftlichem Know-how sowie regulatorischem Druck, werden in den kommenden Jahren auch in Deutschland zu massiven Veränderungen bei der Analyse von Märkten und Immobilien sowie deren Bewertung führen."

Und das aus gutem Grund: Dr. Rudolf Marty am Swiss Real Estate Institute der Zürcher Hochschule für Wirtschaft hat zwischen 2000 und 2020 die Transaktionspreise von 120 000 Einfamilienhäusern und 160 000 Eigentumswohnungen in der Schweiz analysiert. Sein Urteil fällt deutlich aus: "Die Analyse der Preisfehler bei Einfamilienhäusern beziehungsweise Eigentumswohnungen zeigen, dass Verfahren des maschinellen Lernens gemessen an ihren durchschnittlichen Prognosefehlern den bisherigen Bewertungsansätzen überlegen sind."

Lücke zwischen Markt- und Beleihungswert muss minimiert werden

In den USA kommt die Immobilienbranche zu einem ähnlichen Schluss. Die Differenz zwischen einer traditionell erstellten Bewertung und dem tatsächlichen Transaktionspreis liegt zwischen 10 und 15 Prozent. Eine Abweichung der Bewertung vom schließlich erzielten Marktpreis von unter 10 Prozent ist mit dem Automation-Value-Model gut zu erreichen und diese Bewertung kann jederzeit und auf Knopfdruck wiederholt und aktualisiert werden. Die Diskrepanz zwischen Beleihungswert und Marktrealität muss so klein wie möglich gehalten werden und dies fortlaufend. Bis ein traditionelles Gutachten vorliegt, dauert es drei bis vier Wochen - gerade in sehr bewegten Immobilienmärkten ist das eine lange Zeit.

Für institutionelle Anleger, Banken, Versicherer und Fonds ist die Bewertung von Immobilien ohne Zeitverlust und zusätzlichen manuellen Aufwand noch wichtiger. Nils Kok, Professor für Real Estate and Finance an der Universität Maastricht schreibt in der New York Times: "Für Underwriting und Refinanzierungszwecken können AVMs einen sofortigen Hinweis auf den Immobilienwert geben, was erheblich Zeit und Ressourcen von Investoren und Kreditgebern schont als auch bei denen, die an einer einzelnen Immobilie interessiert sind."

Kok spricht sich auch klar dafür aus, auf Künstlicher Intelligenz und maschinellem Lernen basierende Immobilienbewertungen nicht einzuschränken. Das Argument, dass bei speziellen und großen Immobilientypen möglicherweise zunächst nicht genügend vergleichbare Transaktionen für eine automatisierte Wertentwicklung zur Verfügung stünden, lässt er nicht gelten.

Dies sei schließlich bei traditionellen Bewertungen nicht anders. Dennoch muss man ergänzen, dass eine automatisierte Bewertung umso präziser ist und eine weitaus geringere Abweichung aufweist, wenn ausreichend Vergleichsobjekte und Daten zur Verfügung stehen. Am besten sind diese Daten aktuell für den Wohnimmobilienmarkt verfügbar und skalierbar, sodass man dort eine Abweichung von nur 8 Prozent erreichen kann.

Die stetig wachsende Leistungsfähigkeit von AVMs basiert auf dem konsequenten Einsatz von Machine Learning und hochentwickelten Algorithmen. Auf Basis von Big Data können neben den traditionellen Eigenschaften nun auch nachgewiesen preisbeeinflussende Eigenschaften wie beispielsweise Erreichbarkeit, Lärmbelastung, Sonnenscheindauer, Aussicht, Soziodemografie und Bauvorhaben in der Umgebung oder Infrastruktur et cetera mit einbezogen werden. Die datenbasierte Aufarbeitung der Bewertung schafft neben Transparenzzuwachs auch effizientere Möglichkeiten für Banken und Kreditinstitute, fortlaufend aktuell abrufbare Informationen zu den von ihnen finanzierten Immobilien bereitstellen zu können.

Neue Überwachungsmöglichkeiten von Bestandskrediten

Ein AVM ist imstande, neueste Informationen und Veränderungen transparent und in Echtzeit abzubilden. So entstehen für die Kreditinstitute auch neue Überwachungsmöglichkeiten von Bestandskrediten. Blicken wir auf konservative Preisermittlungen wie dem Sachwertverfahren nach Immobilienwertermittlungsverordnung, so werden Parameter wie der Bodenrichtwert und die Herstellungskosten der Immobilien genutzt.

Diese Werte können teilweise noch durch einen Marktanpassungsfaktor korrigiert werden. Hier kommt es aktuell noch immer dazu, dass viele weitere Faktoren wie die wirtschaftlichen Veränderungen am Standort oder der Anstieg von Baukosten nur unzureichend berücksichtigt werden. Herstellungskosten zur Zeit der Kreditvergabe entsprechen nicht mehr den tatsächlichen Kosten - dementsprechend wird die Immobilie im Wert nicht dem wirklichen Marktpreis gerecht.

Ein AVM kann diese Veränderungen allerdings tagesaktuell abbilden und sorgt damit für deutlich konservativere Werteermittlungen, die Banken in zweierlei Hinsicht unterstützen. Je genauer die Werte einer Immobilie zur Kreditvergabe in Form einer Pre Due Diligence und während der Kreditüberwachung erfasst werden können, umso geringer ist die Wahrscheinlichkeit, Ausfallrisiken in die Bilanz aufzunehmen oder weiter zu halten. Bei zu konservativen Bewertungen dagegen, die den tatsächlichen Marktpreis unterschätzen, laufen Banken Gefahr, ein lohnendes Kreditgeschäft voreilig abzulehnen.

ESG und Datenverfügbarkeit - die Herausforderungen von morgen

Mittlerweile wird ein weiterer Faktor in der Immobilienbewertung immer wichtiger: ESG (Environment, Social, Governance). Hier steht die Branche noch vor vielen Herausforderungen und unbeantworteten Fragen. Klar ist, dass das größte Problem bei der Bewertung die Verfügbarkeit ESG-relevanter Daten ist. Diese sind - wenn überhaupt - meist nur dezentral abrufbar.

Dementsprechend muss eine leistungsfähige digitale Infrastruktur vorgehalten werden, um sowohl die stetig wachsenden preisbeeinflussenden Daten (siehe oben) als auch die ESG-bezogenen Informationen erheben, verarbeiten und analysieren zu können. Die Digitalisierung schreitet in vielen Branchen immer schneller voran. So werden auch in Zukunft immer mehr relevante Daten für die Bewertung einer Immobilie digital verfügbar sein.

Dieses aufkommende Potenzial gilt es zu nutzen: Statistische Immobilienbewertungen werden hier eine stetig wachsende Rolle einnehmen und zukünftig auch ESG-relevante Faktoren einer Immobilie mit abbilden, um Banken, Versicherungen oder Finanzdienstleister in der Abbildung ihrer ESG-Konformität zu unterstützen.

Christian Crain , Geschäftsführer , Pricehubble Deutschland GmbH, Berlin
Noch keine Bewertungen vorhanden


X