Glossario dei rischi
Il valore a rischio è una misura statistica della rischiosità di entità finanziarie o portafogli di attività.
È definito come l’importo massimo in dollari che si prevede di perdere in un dato orizzonte temporale, a un livello di confidenza predefinito. Ad esempio, se il VAR di un mese del 95% è di $ 1 milione, c’è una certezza del 95% che nel mese successivo il portafoglio non perderà più di $ 1 milione.
Il VAR può essere calcolato utilizzando tecniche diverse. Con il metodo parametrico, noto anche come metodo varianza-covarianza, il VAR viene calcolato come una funzione della media e della varianza delle serie di rendimenti, assumendo una distribuzione normale. Con il metodo storico, il VAR è determinato prendendo i rendimenti appartenenti al quintile più basso della serie (identificato dal livello di confidenza) e osservando il più alto di quei rendimenti. Il metodo Monte Carlo simula un gran numero di scenari per il portafoglio e determina il VAR osservando la distribuzione dei percorsi risultanti.
Nonostante sia ampiamente utilizzato, il VAR soffre di una serie di inconvenienti. In primo luogo, mentre si quantifica la perdita potenziale entro quel livello, non fornisce alcuna indicazione dell’entità della perdita associata alla coda della distribuzione di probabilità al di fuori del livello di confidenza. In secondo luogo, non è additivo, quindi le cifre VAR dei componenti di un portafoglio non si aggiungono al VAR del portafoglio complessivo, perché questa misura non tiene conto delle correlazioni e una semplice aggiunta potrebbe portare a un doppio conteggio. Infine, metodi di calcolo diversi danno risultati diversi.
Il deficit previsto, una misura di rischio alternativa, mira a mitigare alcuni dei difetti del VAR.
Fai clic qui per gli articoli sul valore a rischio.