Gagne de la cryptomonnaie GRATUITE en 5 clics et aide institut numérique à propager la connaissance universitaire >> CLIQUEZ ICI <<

I.II.3 MESURE DU RISQUE EXTRÊME

Non classé

I.II.3.1 THÉORÈME DE FISHER-TIPPET

Théorème Fisher-Tippet : Si pour une distribution G non connue, l’échantillon des maxima normalisés converge en loi vers une distribution non dégénérée, alors il est équivalent de dire que G est dans le MDA de la GEV Hξ

Théorème de Fisher-Tippet

I.II.3.1.1 Modélisation paramétrique des maxima par blocs

La modélisation issue du théorème Fisher-Tippet, suppose que l’échantillon de maxima suive exactement une loi GEV.

I.II.3.1.2 Sélection de la taille des blocs

La littérature financière classique et l’exercice des statistiques en finance ne définissent pas une dimension standard dans la sélection des blocs. Il faut cependant que s soit de taille suffisamment importante pour que la condition asymptotique vue précédemment soit considérée. L’ingénierie financière dans les faits prend en compte un nombre de maxima caractéristique pour que l’estimation des paramètres de la GEV soit assez précise. Il est donc usuel de prendre s = 21, soit un mois boursier, ou s = 254, soit un an.

I.II.3.1.3 Estimation du modèle BM par le maximum de vraisemblance

Estimation du modèle BM

Plus précisément, en dérivant cette fonction afin de mettre en scène les deux paramètres exposés antérieurement nous obtenons le système d’équations suivant.

Il est à noter pour conclure qu’il n’existe pas de solution à ces équations de maximisation(33).

I.II.3.2 THÉORÈME DE BALKEMA-DE HAAN-PICKLANDS

Théorème de Balkema

I.II.3.2.1 Modélisation paramétrique de la distribution des excès

Cette modélisation de queue de distribution engage un échantillon au-dessus du seuil u, lequel conduit à une forme de loi GPD. Dans la littérature financière et statistique, les méthodes utilisées reposent sur le comportement graphique des valeurs considérées supérieures à un seuil donné. Cette méthode porte le nom de « Peak-Over-Threshold ».

Initialement développé par Picklands en 1975, ce concept fut étudié par de nombreux auteurs(38). Cependant, cette méthode reste arbitraire. En réalité, u, doit être assez grand pour que l’estimation de la distribution de Pareto généralisée soit valide, mais pas trop élevée pour garder une certaine cohérence avec le modèle. Cet arbitrage est analogue à la méthode BM vue postérieurement.

Peak-Over-Threshold

I.II.3.2.2 Estimation du modèle de seuil par le maximum de vraisemblance

Estimation du modèle de seuil par le maximum de vraisemblance

I.II.3.3 4 VALUE-AT-RISK EXTREME

Nous pouvons reconnaître qu’il existe une similitude certaine entre le concept de Value-at-Risk et la méthode d’approche des queues de distribution des lois de valeurs extrêmes. Unir ensemble ces deux fondements pourrait indubitablement donner un véritable outil de contrôle du risque. Formulé précédemment, la propriété des extrêmes peut être faite de deux façons distinctes :

série de variable aléatoire

Dans ce papier de recherche, nous utilisons la dernière méthode énoncée qui représente la plus récente, mais aussi la plus efficace des méthodes connues sur ce sujet. De plus, ce modèle se révèle être pratique dans le fait qu’il considère un nombre limité de donnée.

VaR extrem

27 A ce stade, aucune hypothèse n’est présupposée
28 Un bloc peut correspondre à un mois, un an, etc.
29 Les paramètres μ et ! peuvent également s’écrire respectivement ! et !
30 Démontré en 1928
31 En réalité l’Algorithme de quasi-Newton
32 Dans son ouvrage : « Extreme Value Analysis of environnemental Time series : an Application to Trend Detection of Ground-Level Zone »
33 Utilisation de méthodes numériques, type algorithmes de Newton-Raphson
34 Né en 1848, V. Pareto était un industriel, un économiste et un sociologue italien. Son héritage en tant qu’économiste fut ample, particulièrement en terme de recherches scientifiques et d’équations mathématiques, recourant de manières intensives aux données. Son étude la plus connue concerne la répartition de la richesse correspondant à une loi de puissance.
35 Paul. Lévy, né en 1886, est un mathématicien français. Il fait partie des fondateurs modernes des probabilités. On lui doit les lois stables stochastiques : « La distribution de Lévy ». Il fut professeur à l’école polytechnique et enseigna les probabilités à B. Mandelbrot.
36 Né en 1924 à Varsovie, B. Mandelbrot fut professeur de mathématiques à l’Université Yale et membre émérite du « Thomas L. Watson Laboratory » d’IBM. Il a notamment publié « Les objets fractales »
37 Nous pouvons nous conférer à l’étude d’Embrechts paru en 1997.
38 Tel que Smith en 1987, Davison et Smith en 1990 ou Reiss et Thomas en 2001, pour ne citer qu’eux.

Page suivante : II. SECTION EMPIRIQUE

Retour au menu : PEUT-ON EVITER LES CRISES ? MESURE DU RISQUE DE MARCHÉ ET THÉORIE DES VALEURS EXTRÊMES : UNE VISION QUANTITATIVE DU RISQUE EXTRÊME APPLIQUÉE À LA CRISE DES SUBPRIMES