Risikoglossar
Der Value-at-Risk ist ein statistisches Maß für das Risiko von Finanzunternehmen oder Vermögensportfolios.
Es ist definiert als der maximale Dollarbetrag, der in einem bestimmten Zeithorizont bei einem vordefinierten Konfidenzniveau voraussichtlich verloren gehen wird. Wenn beispielsweise der einmonatige VAR von 95% 1 Million US-Dollar beträgt, besteht eine 95-prozentige Sicherheit, dass das Portfolio im nächsten Monat nicht mehr als 1 Million US-Dollar verlieren wird.
Der VAR kann mit verschiedenen Techniken berechnet werden. Bei der parametrischen Methode, auch als Varianz-Kovarianz-Methode bekannt, wird der VAR als Funktion des Mittelwerts und der Varianz der Rückgabeserien unter der Annahme einer Normalverteilung berechnet. Bei der historischen Methode wird der VAR bestimmt, indem die zum niedrigsten Quintil der Reihe gehörenden Renditen (identifiziert durch das Konfidenzniveau) genommen und die höchste dieser Renditen beobachtet werden. Die Monte-Carlo-Methode simuliert eine große Anzahl von Szenarien für das Portfolio und bestimmt den VAR durch Beobachtung der Verteilung der resultierenden Pfade.
Obwohl VAR weit verbreitet ist, weist es eine Reihe von Nachteilen auf. Erstens gibt es bei der Quantifizierung des potenziellen Verlusts innerhalb dieses Niveaus keinen Hinweis auf die Größe des Verlusts, der mit dem Ende der Wahrscheinlichkeitsverteilung außerhalb des Konfidenzniveaus verbunden ist. Zweitens ist es nicht additiv, sodass VAR-Zahlen von Komponenten eines Portfolios nicht zum VAR des Gesamtportfolios addieren, da diese Kennzahl keine Korrelationen berücksichtigt und eine einfache Addition zu einer Doppelzählung führen kann. Schließlich führen unterschiedliche Berechnungsmethoden zu unterschiedlichen Ergebnissen.
Der erwartete Fehlbetrag, eine alternative Risikomaßnahme, zielt darauf ab, einige der Mängel von VAR zu mindern.
Klicken Sie hier, um Artikel zum Value-at-Risk anzuzeigen.