Investor Strategie & Trends

Finanzanalytik


Jenseits der Normalverteilung

Von Benedikt Fehr



16. März 2006 
Eine neue Generation von finanzanalytischen Modellen lockt mit einer Verheißung, die jeden Investor anspricht: mehr Ertrag - und das ohne zusätzliche Risiken. „Die gängigen Modelle zur Portfolio-Optimierung sind Jahrzehnte alt. Wir können jetzt bessere Lösungen anbieten“, sagt Zari Rachev.

Der Professor und Inhaber des Lehrstuhls für Statistik, Ökonometrie und Mathematische Finanzwirtschaft an der Universität Karlsruhe arbeitet bereits seit Jahren an der Entwicklung hochgezüchteter finanzmathematischer Analyseverfahren (siehe auch: Fin-Analyticas: Elfenbeinturm und Praxis).

Unterschätzte Risiken

Finanzmathematische Modelle gehen das Risikomanagement und den Aufbau eines Anlageportefeuilles nicht mit einer Fundamentalanalyse - beispielsweise von Gewinn- und Rentabilitätskennziffern der Unternehmen - an, sondern durch hochgezüchtete Verfahren der Wahrscheinlichkeitstheorie, kombiniert mit der Auswertung riesiger Mengen von Finanzmarktdaten. Derzeit gehen die meisten dieser Modelle von der Annahme aus, daß die Erträge eines Vermögenswerts „normalverteilt“ sind.

Einfach ausgedrückt bedeutet das zum Beispiel: Für eine Aktie sind kleine prozentuale Tagesgewinne oder -verluste viel wahrscheinlicher als mittlere oder große Bewegungen nach oben oder unten. Der Mathematiker Carl-Friedrich Gauß hat für solch ein Muster von Häufigkeiten eine Formel, die Normalverteilung, entwickelt, deren graphische Darstellung die sogenannte Glockenkurve ist.

Die Normalverteilungshypothese liefert in vielen praktischen Anwendungen brauchbare Ergebnisse. Doch haben Fachleute, allen voran der Mathematiker Benoit Mandelbrot, schon seit langem kritisiert, daß die Normalverteilung kein gutes Abbild der Realität an den Finanzmärkten sei: Beispielsweise kommt es an den Aktienbörsen viel häufiger zu großen Kurseinbrüchen, als die Normalverteilung unterstellt. Nach dem Gaußschen Modell dürfte ein „Börsenkrach“ wie im Oktober 1987 nur einmal in 10 hoch 87 Jahren vorkommen, sagt Rachev. Historisch betrachtet sei mit solch einem Mega-Kursrutsch aber etwa alle 38 Jahre zu rechnen. Mit anderen Worten: Wer sich auf die Normalverteilung verläßt, unterschätzt die Risiken beträchtlich.

Spezialfall Normalverteilung

Spitze Zungen behaupten vor diesem Hintergrund, daß die Normalverteilung vor allem deshalb solch eine große Rolle in der Finanzanalytik spiele, weil sie mathematisch vergleichsweise leicht zu handhaben sei. Damit aber stehe das weithin übliche Risikomanagement auf tönernen Füßen. Manche Wissenschaftler plädieren deshalb dafür, die sogenannte Spieltheorie für das Risikomanagement fruchtbar zu machen (F.A.Z. vom 14. Oktober 2005).

Rachev und seine Mitstreiter, darunter der Münchner Professor Stefan Mittnik, setzen hingegen auf eine Weiterentwicklung des finanzmathematischen Ansatzes. Sie modellieren Finanzdaten nicht mehr mit der Normalverteilung, sondern mit sogenannten stabilen Verteilungen. Das ist ein mathematisch abstrakteres Konzept, in dem die Normalverteilung nur ein spezieller Fall ist.

Vorteil dieser Modelle ist, daß sie sich genauer an die empirischen Daten anpassen lassen, somit die Realität akkurater abbilden. Insbesondere können so sehr seltene, aber sehr verlustträchtige Ereignisse besser analytisch erfaßt werden als bisher. Nachteil dieser „Pareto“- oder „Levy“-Modelle ist freilich, daß sie - bis auf wenige Ausnahmen - nach Einschätzung vieler Fachleute in der Praxis schwer handhabbar sind.

Standardabweichung und Value at Risk werden ersetzt

Durch intensive Forschung und dank der immensen Rechenkraft moderner Computer habe man diese Hürde aber überwunden, sagt Mittnik, der an Deutschlands erstem Lehrstuhl für Finanzökonometrie an der Universität München forscht und lehrt, ferner im Frankfurter „Center for Financial Studies“ den Bereich „Management von Finanzrisiken“ leitet.

Zudem habe man inzwischen durch die Berücksichtigung von Eigenschaften wie „Volatility Clustering“ und „Long Range Dependence“ eine noch realistischere Abbildung dynamischen Marktverhaltens in diese Modelle eingebaut, sagt Mittnik. So könne man in den Modellen zum Beispiel berücksichtigen, daß einem großen Kurseinbruch typischerweise eine längere Phase mit heftigen Kursschwankungen folge - der Markt also gewissermaßen ein Gedächtnis habe.

Weitere Neuerungen kommen hinzu. „Wir ersetzen die gängigen Risikomaße ,Standardabweichung' und ,Value at Risk' durch das neuere Maß ,Expected Tail Loss'“, erläutert Rachev. Was ist damit gemeint? In den gängigen Risikomanagement-Modellen, dabei nicht zuletzt den neuen „Basel II“-Regeln für Banken, spielt die Kennziffer „Value at Risk“ eine große Rolle: Diese Schätzungen laufen zum Beispiel auf die Aussage hinaus, daß der Tagesverlust einer bestimmten Bank aus Wertpapier- und Derivatepositionen mit einer Wahrscheinlichkeit von 99 Prozent nicht mehr als 10 Millionen Euro betragen wird.

Sharpe-Ratio gehört zum alten Eisen

Schwäche dieser Kennziffer ist freilich, daß sie keine Aussage über eine mindestens ebenso wichtige Frage macht: Mit welchen Tagesverlusten ist in dem restlichen ein Prozent der Fälle zu rechnen? Der Expected Tail Loss, also der erwartete Verlust am einprozentigen Rand (“tail“) der Verteilung, gibt dafür einen Anhaltspunkt.

Eine Konsequenz dieses Ansatzes: Die sogenannte Sharpe-Ratio, die beim Vergleich von professionellen Vermögensverwaltern heutzutage eine große Rolle spielt, gehört zum alten Eisen. Die Sharpe-Ratio gewichtet die erzielte Rendite mit dem dafür eingegangenen Risiko. „Neben der Fragwürdigkeit der Standardabweichung als Risikomaß krankt dieses Konzept daran, daß auch unerwartet große Gewinne als Abweichung und damit als Risiko gelten“, erläutert der 54jährige Rachev. „Dies ist unsinnig.“

Gleiches Risiko, höhere Renditen

Rachev und Mittnik plädieren deshalb dafür, die Rendite mit dem Expected Tail Loss zu gewichten. Dadurch wird die Sharpe-Ratio durch die von Rachev mitentwickelte Starr-Ratio ersetzt (Stable Tail Adjusted Return Ratio). Für die Performance-Messung spezieller Investmentstrategien hat Rachev zudem die „Rachev-Ratio“ entwickelt.

Durch die Kombination der beiden Konzepte „Stable Distributions“ und „Expected Tail Loss“ sei sein Modell einzigartig, behauptet Rachev. Und das zahlt sich ihm zufolge aus: Weil sich durch die bessere Kontrolle der Risiken die gelegentlich unvermeidlichen Verluste geringer halten lassen, erwirtschaften „stabilverteilte Portefeuilles“, deren Risiko mit dem Expected Tail Loss gemessen wird, bei gleichem Risiko mittelfristig höhere Renditen.

Als Beispiel nennt Rachev, daß der Ertrag eines Portefeuilles von „Micro Caps“ - also von Aktien mit sehr kleinen Börsenwerten und deshalb häufig extremen Kursschwankungen - nach seiner Methode im Mittel um täglich 14 Basispunkte höher liege als bei einem mit traditionellen quantitativen Modellen konstruierten Portefeuille. Aufs Jahr gerechnet betrage der Mehrertrag 35 Prozent.

Text: F.A.Z., 16.03.2006, Nr. 64 / Seite 23
Bildmaterial: F.A.Z.
© F.A.Z. Electronic Media GmbH 2001 - 2006
Dies ist ein Ausdruck aus www.faz.net
Quellen: IS.eFinance Solutions using Deutsche Börse AG, Standard&Poor's ComStock Inc. und weitere.
IS.eFinance Solutions implemented and powered by IS.Teledata AG, © 1999 - 2006. Alle Börsendaten werden mit 15 Minuten Verzögerung dargestellt