Glossaire des risques
La valeur à risque est une mesure statistique du risque d’entités financières ou de portefeuilles d’actifs.
Il est défini comme le montant maximal que l’on s’attend à perdre sur un horizon temporel donné, à un niveau de confiance prédéfini. Par exemple, si le VAR à 95% sur un mois est de 1 million de dollars, il y a 95% de confiance que le portefeuille ne perdra pas plus de 1 million de dollars le mois suivant.
Le VAR peut être calculé à l’aide de différentes techniques. Selon la méthode paramétrique, également connue sous le nom de méthode de variance-covariance, la VAR est calculée en fonction de la moyenne et de la variance de la série de rendements, en supposant une distribution normale. Avec la méthode historique, la VAR est déterminée en prenant les rendements appartenant au quintile le plus bas de la série (identifié par le niveau de confiance) et en observant le plus élevé de ces rendements. La méthode de Monte Carlo simule un grand nombre de scénarios pour le portefeuille et détermine le VAR en observant la distribution des chemins résultants.
Bien qu’il soit largement utilisé, le VAR souffre d’un certain nombre d’inconvénients. Premièrement, tout en quantifiant la perte potentielle à l’intérieur de ce niveau, il ne donne aucune indication sur la taille de la perte associée à la queue de la distribution de probabilité hors du niveau de confiance. Deuxièmement, ce n’est pas additif, donc les chiffres VAR des composants d’un portefeuille ne s’ajoutent pas à la VAR du portefeuille global, car cette mesure ne prend pas en compte les corrélations et un simple ajout pourrait conduire à un double comptage. Enfin, différentes méthodes de calcul donnent des résultats différents.
Le déficit attendu, une autre mesure de risque, vise à atténuer certaines des failles de la VAR.
Cliquez ici pour consulter des articles sur la valeur à risque.