Billet invité
Lorsque la Securities and Exchange Commission (SEC) exigea aux États-Unis, il y a cinq ans, d’appliquer le principe de fair value (juste valeur) à la valorisation des actifs détenus par les établissements financiers (norme FAS 157), se doutait-elle avoir mis le doigt avec innocence dans un redoutable engrenage ? Une telle opération-vérité était à l’époque indispensable afin d’avoir une vision claire de leurs bilans, d’effectuer les dépréciations et le renforcement des fonds propres correspondants. Mais une fois dit qu’il fallait prendre en compte la valeur de marché effective des actifs, restait encore à la déterminer…
Une classification sommaire des actifs en trois catégories était proposée, selon que le prix d’un actif résultait d’une cotation boursière dans le premier cas (« Marked-to-market »), de cotations sur des marchés peu actifs dans le second, ou bien ne correspondait à aucun des deux cas précédents et fondé alors sur des modèles maison (« Marked-to-model », que Warren Buffett appela un jour : « Marked-to-myth » ;
voir ici). Ne clarifiant pas la situation, il en est ressorti que 85 % des actifs financiers correspondaient à la seconde catégorie, qui se révélait très hétérogène, comprenant aussi bien des actifs proches de la première que de la troisième catégorie… Compliquant encore le jeu, les classements se révélèrent par ailleurs soumis à des différences d’appréciation d’un intervenant à l’autre : ainsi, les fonds communs de placement rangent généralement la dette US dans la deuxième catégorie, alors que les banques lui attribuent la première… Ce qui justifie une certaine circonspection : si les principaux acteurs du marché ne peuvent pas s’entendre sur une classification aussi élémentaire d’un actif des plus liquide et réputé si sûr, qu’en est-il des autres ?
Si l’on prend le cas le plus difficile à régler des produits OTC (over-the-counter), négociés de gré à gré hors de toute chambre de compensation, toute une panoplie de méthodes de valorisation est utilisée, depuis de simples cotations aux origines incertaines fournies par des courtiers, jusqu’à des modèles d’évaluation des plus simples aux plus compliqués (ce qui n’est pas un brevet de qualité dans ce dernier cas). Dans un tel maquis, l’une des dispositions les plus avancées prises par les régulateurs aura été d’imposer aux entreprises de fournir dans leur documentation des informations sur les méthodes de valorisation de leurs actifs qu’elles utilisent, avant audit de précaution systématique, ne faisant que repousser le problème à ce nouvel échelon !
Les régulateurs sont à la recherche d’un peu de transparence dans un monde où elle n’est pas légion, mais les résultats présentés sont maigres. Les valorisations restent un défi sans espoir de réussite pour des actifs faisant l’objet de transactions peu nombreuses ou négociées de gré à gré. Pour les produits standard, appelés à utiliser des chambres de compensation et qui ne représentent qu’une fraction minoritaire des produits dérivés, un autre problème est apparu. Ces chambres doivent procéder à des appels de marge destinés à couvrir les risques de dévalorisation des actifs dont elles enregistrent les transactions. Il faut donc évaluer ce risque pour en déterminer le montant initial, quitte à le revoir en effectuant ultérieurement des appels de marge complémentaires, et procéder pour cela à une analyse portant sur l’évolution prévisible de la valorisation de ces actifs. Et c’est là que le bât blesse ! Car il ne s’agit plus seulement de déterminer la valeur des actifs mais d’anticiper leur évolution…
Les calculs mathématiques complexes de la Value at Risk (VaR), très largement utilisée pour calculer les pertes potentielles, reposent notamment sur une analyse de l’historique de la valeur d’un actif donné, dont le caractère prédictif est limité quand des circonstances hors normes apparaissent. Par ailleurs, puisque l’on parle du risque, celui d’une pénurie de collatéral de qualité (apporté en garantie) est grand sans pouvoir être clairement identifié. Afin de le réduire, les appels de marge pourront n’être calibrés qu’a minima, les empêchant alors de remplir leur fonction. Ou conduisant en droite ligne à des montages sophistiqués d’utilisation multiple d’un même collatéral afin de garantir plusieurs transactions ! Les deux n’étant pas incompatibles.
Même en faisant abstraction des manipulations avérées ou présumées qui font actuellement l’objet d’enquêtes retentissantes et d’amendes sans précédent dans le premier cas – affectant notamment le marché des changes et, via la famille du Libor, le prix d’un nombre colossal de contrats de toutes natures qui y sont indexés – les prix des actifs financiers gardent tout leur mystère. En effet, il ne suffit pas de savoir comment ils sont calculés pour que le calcul en soit juste…
Impossible de reconnaître que ce dernier rencontre des obstacles insurmontables, devant lesquels il est préféré collectivement fermer les yeux, car cela serait reconnaître qu’il faut reprendre tout l’édifice financier à la base ! Il est tout autant exclu d’admettre que le coût du risque dont se gargarisent les banquiers en se faisant fort de le calculer chacun dans son coin – au nom de cette fausse vérité qu’ils sont les mieux placés pour les calculer, puisqu’ils les prennent – est tout autant sujet à caution. Les pertes avérées étant déjà masquées dans les bilans bancaires (ou discrètement évacuées), que penser de l’estimation des pertes attendues ? Des éclaircissements méthodologiques et des harmonisations des normes sont recherchés, mais une chatte continue à ne pas y retrouver ses petits. Le principe de la régulation, qui repose sur le renforcement des fonds propres afin d’amortir les pertes, n’en sort pas conforté, car il n’aurait de sens que si l’effet de levier des banques était très strictement limité, pour parer aux incertitudes portant sur le calcul des prix et du risque. C’est loin d’être le cas, le ratio officiel est d’un ridicule 3 %. Si cela devait être le cas, il en découlerait une forte contraction du système financier régulé et l’expansion accélérée du shadow banking, qui est déjà en cours.
La complexité derrière laquelle les financiers se réfugient n’est pas un argument, mais elle devient à force un obstacle insurmontable pour eux-mêmes… Les régulateurs sont pour leur part condamnés à produire des volumes de règlements qui se perdent dans les détails à défaut d’aller à l’essentiel.