Schwerpunkt

Dynamische Sicherung von Marktpreisrisiken mittels Aktien-Overlay: Verluste reduzieren und Chancen nutzen

Im Zuge der Verwerfungen an den internationalen Aktienmärkten im Rahmen der Finanzkrise wurden wichtige Paradigmen der klassischen Investmentlehre nachhaltig in Frage gestellt. Auch die kräftig gestiegenen Indexstände seit März 2009, insbesondere beim Dax, haben daran prinzipiell nichts geändert. Die Tatsache, dass Investoren auch in einer längerfristigen Betrachtung mit der Assetklasse Aktien kaum oder kein Geld verdient haben, stimmt nachdenklich.

Eine Möglichkeit, dennoch dauerhaften Anlageerfolg mit der Assetklasse Aktien zur erzielen, stellt die Kombination aus einem Aktienportfolio mit einem systematischen Overlay zur Marktpreisrisikosteuerung dar. Das Ziel der Strategie ist es, in steigenden Aktienmarktphasen möglichst wenig Sicherungsaktivität zu entfalten, dafür aber in Schwächephasen möglichst gesichert zu sein.

Umsetzung in einem separaten Overlay-Portfolio

Unter Overlay-Management versteht man generell das gezielte Steuern spezifischer Marktpreisrisiken eines zugrundeliegenden Basisportfolios. Die Umsetzung erfolgt dabei losgelöst von der Grundposition in einem separaten Overlay-Portfolio. Generell kommen für Overlay-Management-Lösungen alle Assetklassen in Betracht, für welche ein liquides Sicherungsinstrument verfügbar ist. Für Aktienportfolios kann die Overlay-Strategie sowohl auf ein Portfolio aus Aktien-ETFs als auch aus Einzelaktien, welche von einem aktiven Manager selektiert wurden, angewendet werden.

Folgende Ziele werden generell verfolgt:

- Sicherung der Aktienbestände in schwachen Marktphasen durch Reduzierung des Investitionsgrades,

- Partizipation an steigenden Aktienmärkten durch möglichst geringe Sicherungsaktivitäten,

- keine Einflussnahme auf das Alpha der Selektion, sofern ein aktiver Selektionsmanager mandatiert ist.

Durch die klare Trennung von Alpha- und Beta-Management reflektiert ein systematisches Overlay-Management zudem die weiter voranschreitende Arbeitsteilung im Asset Management. Die Umsetzung einer dynamischen Sicherungsstrategie kann auf Grundlage der Entscheidungen eines diskretionären Managers oder der Signale einer quantitativen Modellarchitektur erfolgen. Selbstverständlich sind auch Mischformen der beiden Grundkonzepte denkbar. Overlay-Management kann im Allgemeinen als Risikomanagement beschrieben werden. Die Entscheidungen zur aktiven Risikosteuerung basieren im Overlay-Management der Berenberg Bank ausschließlich auf Signalen einer systematischen Multi-Modell-Architektur. Das theoretische Erklärgerüst für die Strategie des "Equity Protect Overlay" liefert die Behavioural Finance. Diese Teildisziplin der Wirtschaftswissenschaften beschäftigt sich generell mit Anomalien im Verhalten der Finanzmarktteilnehmer und hat diesbezüglich verschiedene Einzelaspekte, beispielsweise den Herdentrieb oder verschiedene Dispositionseffekte, beschrieben. Diese theoretischen Erkenntnisse werden in konsistente und systematische Entscheidungsregeln überführt, welche in Form einer Multi-Modell-Architektur das Herzstück dieses Ansatzes darstellen. Hierdurch bietet sich der Vorteil einer hohen Konsistenz und Wiederholbarkeit aller getroffenen Entscheidungen, was langfristig den Anlageerfolg sicherstellen soll.

Sicherungskosten in steigenden Märkten berücksichtigen

Um die Qualität der dynamischen Sicherungsstrategie zu bewerten, sind neben der Sicherungseffizienz in fallenden Märkten (sprich: Wie viel der negativen Kursentwicklung wurde durch Einsatz des Equity Protect Overlays abgefangen?) auch die generierten Sicherungskosten in steigenden Märkten und Seitwärtsphasen am Aktienmarkt zu berücksichtigen (sprich: Was kostet das Overlay in diesen Marktphasen an Performance?). Über einen Zyklus am Aktienmarkt hinweg sollte das Verhältnis hierbei in etwa 70 : 30 betragen: 70 Prozent der negativen Performance werden durch den Einsatz des Overlays abgefedert, die Sicherungskosten betragen hingegen lediglich rund 30 Prozent der positiven Wertentwicklung in Zeiten freundlicher Märkte. Die Performancecharakteristik ist folglich asymmetrisch und lässt sich auch gut gegen alternative Sicherungsstrategien messen, beispielsweise gegen eine rollierende Strategie mit Put-Optionen. Die Abbildung zeigt beispielhaft die Sicherungsaktivität der quantitativen Modelle im Jahr 2009.

In der Grafik wird die Entwicklung eines typischen Aktienportfolios bestehend aus 50 Prozent Dax/50 Prozent Euro Stoxx 50 TR abgetragen und dabei der Sicherungsquote im Zeitablauf in Form der blauen Fläche gegenübergestellt. Hierbei wird sehr gut deutlich, wie insbesondere zu Beginn des Jahres durch den Verkauf von Futures für Dax und Euro Stoxx 50 TR die Sicherungsquote steigt und das Aktienportfolio dann im März auf dem Höhepunkt der Aktienkrise zu 100 Prozent gesichert ist.

Im Zuge der Erholung an den Aktienmärkten wird dann bereits ab Mitte März die Sicherungsquote sukzessive zurückgefahren. Dabei erfolgt die Steuerung über Modelle mit unterschiedlichen Fristigkeiten. Zunächst bauen die sehr kurzfristigen Modelle die Sicherung ab, es folgen darauf die mittel- bis langfristigen Teilmodelle. Im weiteren Verlauf des Jahres lösten die Modelle dann lediglich sporadisch und nur für kurze Zeit Sicherungssignale aus.

Laufendes Risikomanagement implementieren

Dieses Muster ist durchaus charakteristisch für den Ansatz, denn in den immer wieder auftretenden zwischenzeitlichen Korrekturphasen am Aktienmarkt bauen insbesondere die kurzfristigen Modelle gemäß ihrer trendfolgenden Grundstruktur Sicherung auf. Stellt sich die Korrektur als nicht nachhaltig heraus, werden die Positionen unter Realisierung von Sicherungskosten aufgelöst, was die Gesamtperformance schmälert. Im Falle einer schnellen und nachhaltig negativen Bewegung am Aktienmarkt sind es allerdings auch genau diese Modelle, die zuerst Sicherung für das Portfolio bieten und die zuvor generierten Opportunitätskosten durch positive Performancebeiträge überkompensieren.

Im Asset Management der Berenberg Bank kommt zur dynamischen Sicherung der Aktienmarktpreisrisiken die oben beschriebene Multi-Modell-Architektur zum Einsatz, die stufenweise und über verschiedene Teilmodelle die Aktienrisiken sichert. Im Laufe der Jahre wurde der Ansatz weiter verbessert und im Zuge des Wachstums der gesteuerten Assets um zusätzliche Teilmodelle erweitert. Ausgehend von einer Modellarchitektur mit zunächst drei Modellen (für kurz-, mittel- und langfristige Trends) wurde im Sommer 2009 ein viertes und schließlich im Juni 2011 ein fünftes Modell in die Gesamtarchitektur integriert.

Die grundsätzliche Performancecharakteristik blieb dabei erhalten. Die neu hinzugenommenen Algorithmen verändern beispielsweise die Gesamtarchitektur nicht an den Rändern, sind also keine sehr kurzoder sehr langfristigen Modelle. Eine wichtige Voraussetzung für den langfristigen Investmenterfolg bei quantitativen Strategien ist die kontinuierliche Weiterentwicklung sowie das Risikomanagement.

Die Kritik der Investoren an vielen Quant-Ansätzen setzt generell an der Starrheit und Dogmatik der jeweiligen Strategie an, die ohne Reflexion von übergelagerten makroökonomischen Ereignissen weiterbetrieben wird. Daher ist es unerlässlich, ein laufendes Risikomanagement zu implementieren, welches übergeordnete Paradigmen analysiert und somit die Frage beantwortet, ob der Ansatz im aktuellen Marktumfeld auch weiterhin funktionieren kann. Sollten hier Veränderungen beobachtet werden, beispielsweise durch austrocknende Liquidität oder eine Veränderung der Markstruktur, kann das Management hier zeitnah handeln und geeignete Maßnahmen einleiten.

Zusammenfassend kann festgestellt werden, dass über ein systematisches "Equity Protect Overlay" Aktienportfolios gezielt und unabhängig vom Basisportfolio gesteuert werden können, was langfristig einen im Vergleich zum "Long-only"-Investment nachhaltigeren Anlageerfolg sicherstellt. Der Erfolg der Strategie lässt sich dabei anhand der erwirtschafteten "Real-Money-Performance" seit 2002 ablesen, wodurch periodisch auftretende Schwächephasen wie in 2010 in einen entsprechenden historischen Kontext eingeordnet werden können. Die wissenschaftliche Fundierung des Ansatzes, die Qualität der generierten Signale und die Professionalität der Implementierung kombiniert mit einem streng arbeitsteiligen Aufbau der Wertschöpfungskette (Research, Trading und Advisory) stellen auch in Zukunft die Erfolgsfaktoren dieser Strategie sicher.

Noch keine Bewertungen vorhanden


X