En réponse aux turbulences financières, les superviseurs exigent davantage de calculs de risques. Mais une tarification induite par les modèles a provoqué la crise, et les modèles de risque ne fonctionnent pas dans des conditions de crise. La croyance qu’un modèle statistique vraiment compliqué doit être juste n’est qu’une sophistication insensée.
Une logique similaire est au cœur de la crise actuelle
La modélisation statistique stimule de plus en plus la prise de décision dans le système financier, tout en posant des questions importantes sur la fiabilité des modèles et sur la confiance des acteurs du marché dans ces modèles. Si nous demandons aux praticiens, aux régulateurs ou aux universitaires ce qu’ils pensent de la qualité des modèles statistiques qui sous-tendent la tarification et l’analyse des risques, leur réponse est souvent négative. Dans le même temps, nombre de ces mêmes individus n’hésitent pas à utiliser de plus en plus de modèles, non seulement pour le contrôle interne des risques mais surtout pour l’évaluation du risque systémique et donc la régulation des institutions financières. 1 Avoir des chiffres semble être plus important que de savoir si les chiffres sont fiables. C’est un paradoxe. Comment se méfier simultanément des modèles et préconiser leur utilisation?
Qu’y a-t-il dans une note?
Comprendre ce paradoxe aide à comprendre à la fois comment la crise est survenue et les réponses souvent inappropriées à la crise. Au cœur de la crise, la qualité des notations des véhicules d’investissement structurés (SIV). Ces notes sont générées par des modèles statistiques hautement sophistiqués.
Les prêts hypothécaires à risque ont généré la plupart des gros titres. C’est bien sûr simpliste. Une seule classe d’actifs ne valant que 400 milliards de dollars ne devrait pas être en mesure de provoquer de telles turbulences. Et en effet, le problème se situe ailleurs, avec la façon dont les institutions financières ont conditionné les prêts à risque dans les SIV et les conduits et la faible qualité de leurs notations.
Le principal problème avec les notations des SIV a été l’évaluation incorrecte des risques fournie par les agences de notation, qui ont sous-estimé la corrélation par défaut des prêts hypothécaires en supposant que les défauts de paiement sont des événements assez indépendants. Bien sûr, au plus fort du cycle économique, cela peut être vrai, mais même un coup d’œil rapide sur l’histoire révèle que les défauts de paiement des hypothèques deviennent fortement corrélés lors des ralentissements. Malheureusement, les échantillons de données utilisés pour évaluer les SIV n’étaient souvent pas assez longs pour inclure une récession.
En fin de compte, cela implique que la qualité des notations SIV laisse à désirer. Cependant, les agences de notation ont une histoire de 80 ans d’évaluation des obligations d’entreprise, ce qui nous donne une référence pour évaluer la qualité des notations. Malheureusement, la qualité des notations SIV diffère de la qualité des notations des sociétés ordinaires. Un AAA pour un SIV n’est pas le même qu’un AAA pour Microsoft.
Et le marché n’était pas dupe. Après tout, pourquoi un SIV noté AAA gagnerait-il 200 points de base au-dessus d’une obligation d’entreprise notée AAA? On ne peut pas échapper au sentiment que de nombreux joueurs ont compris ce qui se passait mais ont heureusement suivi. Le gestionnaire de fonds de pension achetant de tels SIV peut avoir été incompétent, mais il ou elle était plus susceptible de contourner simplement les restrictions sur l’achat d’actifs à haut risque.
Sophistication insensée
À la base de tout ce processus, on considère que la sophistication implique la qualité: un modèle statistique vraiment compliqué doit être correct. Cela pourrait être vrai si les lois de la physique s’apparentaient aux lois statistiques de la finance. Cependant la finance n’est pas la physique, elle est plus complexe, voir par ex. Danielsson (2002).
En physique, les phénomènes mesurés ne changent généralement pas avec la mesure. Dans la finance, ce n’est pas vrai. La modélisation financière modifie les lois statistiques régissant le système financier en temps réel. La raison en est que les acteurs du marché réagissent aux mesures et modifient donc les processus statistiques sous-jacents. Les modélisateurs sont toujours en train de se rattraper. Cela devient particulièrement prononcé lorsque le système financier entre en crise.
Il s’agit d’un phénomène que nous appelons le risque endogène, qui souligne l’importance des interactions entre les institutions pour déterminer les résultats du marché. Au jour le jour, quand tout est calme, on peut ignorer le risque endogène. En cas de crise, nous ne pouvons pas. Et c’est là que les modèles échouent.
Cela ne signifie pas que les modèles sont sans fondement. Au contraire, ils ont une utilité précieuse dans les processus internes de gestion des risques des institutions financières, où l’accent est mis sur les petits événements relativement fréquents. La fiabilité des modèles conçus à ces fins est facilement évaluée par une technique appelée backtesting, qui est fondamentale pour le processus de gestion des risques et est un élément clé des accords de Bâle.
La plupart des modèles utilisés pour évaluer la probabilité de petits événements fréquents peuvent également être utilisés pour prévoir la probabilité de grands événements peu fréquents. Cependant, une telle extrapolation est inappropriée. Non seulement les modèles sont calibrés et testés en tenant compte d’événements particuliers, mais il est impossible d’adapter la qualité du modèle à de grands événements peu fréquents ni d’évaluer la qualité de telles prévisions.
Poussé à l’extrême, j’ai vu des banques obligées de calculer le risque de pertes annuelles une fois tous les mille ans, les pertes annuelles dites de 99,9%. Cependant, le fait que nous puissions obtenir de tels chiffres ne signifie pas que les chiffres signifient quelque chose. Le problème est que nous ne pouvons pas backtester à des fréquences aussi extrêmes. Des arguments similaires s’appliquent à de nombreux autres calculs tels que le déficit attendu ou la valeur à risque de queue. La vérification, dans notre cas le backtesting, est fondamentale pour le processus scientifique. Ni les modèles à 99,9%, ni la plupart des modèles de valeur à risque de queue ne peuvent être soumis à un contre-test et ne peuvent donc pas être considérés comme scientifiques.
Des chiffres exigeants
Nous constatons cependant une demande croissante des superviseurs pour le calcul exact de ces chiffres en réponse à la crise. Bien sûr, la motivation sous-jacente est l’objectif valable d’essayer de quantifier la stabilité financière et le risque systémique. Cependant, l’exploitation des modèles internes des banques à cette fin n’est pas la bonne façon de procéder. Les modèles internes n’ont pas été conçus dans cet esprit et effectuer ce calcul est un fardeau pour les ressources de gestion des risques des banques. C’est la sortie paresseuse. Si nous ne comprenons pas comment fonctionne le système, la génération de nombres peut nous rassurer. Mais les chiffres n’impliquent pas la compréhension.
En effet, la crise actuelle a surpris tout le monde malgré tous les modèles sophistiqués, tous les stress tests et tous les chiffres. Je pense que la principale leçon à tirer de la crise est que les institutions financières qui maîtrisaient bien la gestion du risque de liquidité ont obtenu les meilleurs résultats. Ce sont la gestion et les processus internes qui importent – pas la qualité du modèle. En effet, le problème créé par les conduits ne peut pas être résolu par des modèles, mais le problème aurait pu être évité par une meilleure gestion et surtout une meilleure réglementation.
Avec ces faits de plus en plus compris, il est incompréhensible pour moi que les autorités de contrôle préconisent de plus en plus l’utilisation de modèles pour évaluer le risque des institutions individuelles et la stabilité financière. Si la tarification induite par les modèles a permis à la crise de se produire, qu’est-ce qui nous fait croire que les futurs modèles seront meilleurs?
Par conséquent, l’une des leçons les plus importantes de la crise a été l’exposition du manque de fiabilité des modèles et de l’importance de la gestion. L’opinion fréquemment exprimée par les superviseurs selon laquelle la solution à un problème comme la crise des subprimes est Bâle II n’est pas vraiment vraie. La raison en est que Bâle II est basé sur la modélisation. Ce qui manque, c’est que les autorités de surveillance et les banques centrales comprennent les produits échangés sur les marchés et aient une idée de l’ampleur, du potentiel de risque systémique et des interactions entre les institutions et le risque endogène, couplées à une volonté d’agir lorsque cela est nécessaire. Dans cette crise, le problème clé réside dans la supervision bancaire et la banque centrale, ainsi que dans les banques elles-mêmes.