PAREF-gigabanniere 8 janv fin fev 2018.gif

  Marchés financiers : la peur n’est pas le risque

Par : edicom

Par Mathieu Vaissié, Ph.D., responsable de la recherche chez Ginjer AM

Après Herbert Simon en 1978, Daniel Kahneman en 2002 et Robert Shiller en 2013, c’est au tour de Richard Thaler de voir ses travaux sur la rationalité limitée de l’Homme récompensés en 2017 par le prix Nobel d’économie. L’Homo Economicus de la théorie économique classique semble bel et bien enterré. En effet, même s’il se comporte le plus souvent de façon raisonnable, il ressort de ces différents travaux que l’Homme n’est pas un supercalculateur optimisant en toutes circonstances sa fonction d’utilité ; il lui arrive de faire preuve d’une certaine irrationalité, de ne pas toujours agir dans son propre intérêt. C’est particulièrement vrai lorsqu’il évolue dans un environnement ambigu (i.e., les différents paramètres du problème ne sont pas clairement définis) et/ou incertain (i.e., les probabilités associées aux différents états du monde sont inconnues), et qu’il doit prendre, sous la pression du temps, une décision aux conséquences potentiellement douloureuses. Situation à laquelle les agents économiques sont régulièrement confrontés sur les marchés financiers.

Les déterminants des prix des actifs financiers sont, en effet, multiples et variables dans le temps, les motivations des différents intervenants sur le marché sont le plus souvent inconnues, et les valeurs intrinsèques desdits actifs sont par nature non observables. L’incertitude est absolue. La porte est donc grande ouverte à tous les biais cognitifs et comportementaux documentés dans la littérature académique (e.g., ancrage, représentativité, comptabilité mentale, disponibilité, confirmation, etc.). Et, laisser libre cours aux « esprits animaux » de Robert Shiller et Daniel Kahneman peut se révéler être une expérience très coûteuse sur les marchés financiers. Il suffit pour s’en convaincre d’observer le comportement du marché actions lorsque l’« indice de la peur » atteint des sommets.

Si les investisseurs étaient parfaitement rationnels, ils ne réagiraient qu’à l’apparition de risques avérés, et les pics d’aversion au risque – mesurés par la volatilité implicite des actions (i.e., le VIX pour le S&P 500 ou le V2X pour l’Euro Stoxx 50) – seraient systématiquement suivis par une baisse des marchés, liée à l’augmentation de la prime de risque exigée par lesdits investisseurs pour supporter le risque additionnel. Or les deux illustrations suivantes montrent que les pics d’aversion au risque ont, par le passé, été aussi bien suivis par de fortes baisses, que par de fortes hausses des marchés actions. La dispersion des trajectoires historiques, vingt jours de Bourse après un épisode de stress, est supérieure à + 50 % (i.e., de - 17 % à + 3 5 % pour l’Euro Stoxx 50 et de - 19 % à + 38 % pour le S&P500) ! En d’autres termes, la peur n’est très clairement pas le risque !

A ce titre, il est intéressant de noter que la perte moyenne sur vingt jours de Bourse pour un investisseur qui aurait systématiquement vendu ou couvert sa position à la suite d’un pic d’aversion au risque s’élève à - 3 % (i.e., - 36 % sur une base annualisée). Surréagir à un regain de volatilité sur le court terme peut donc coûter très cher à un investisseur sur le long terme.

De façon plus générale, dans un monde qui n’est de toute évidence pas stationnaire, faire l’hypothèse que les risques réalisés observés aujourd’hui, sont représentatifs des risques potentiels pour demain, reviendrait à conduire sur une route de montagne en ayant les yeux rivés sur le rétroviseur. Ames sensibles s’abstenir…

Compte tenu de la complexité des marchés de capitaux modernes, le véritable enjeu pour les investisseurs n’est pas de quantifier le risque supporté dans le passé (i.e., la partie émergée de l’iceberg), mais bien de qualifier les risques pris aujourd’hui, pour demain (i.e., la partie immergée de l’iceberg). Dis autrement, il est indispensable avant de prendre une décision de gestion de connaître la structure sous-jacente du risque pris à la date T, pour s’assurer du fait que le risque qui sera (potentiellement) réalisé à la date T+1, est cohérent avec ses préférences en termes de rendement et de risque.

Certes, il n’y a pas de rendement sans risque ; encore faut-il s’assurer que les risques pris sont acceptables. Tout le monde a encore en tête les fonds monétaires tiltés qui délivraient de très bonnes performances… grâce notamment à des subprimes !

L’approche classique a atteint ses limites

Seule solution pour un investisseur pour gérer cette incertitude « knightienne » et tenter d’optimiser son processus de prise de décision : réduire la dimension du problème en imposant, de façon normative, une structure au modèle. Toute la difficulté consiste alors à choisir le bon prisme pour pouvoir décoder la dynamique des marchés financiers correctement. Or il existe aujourd’hui un large consensus sur le fait que les modèles traditionnels, communément utilisés par les intervenants de marché, ont atteint leurs limites. Selon l’approche classique, qui sous-tend la plupart des modèles qui servent aujourd’hui encore de référence, les déterminants de la dynamique des marchés financiers sont supposés être de nature fondamentale et exogènes aux marchés.

Pourtant, dès 1981, Robert Shiller montrait que la volatilité des prix des actifs financiers observée empiriquement était très nettement supérieure au niveau justifié par l’évolution des fondamentaux. Depuis, de nombreuses études ont confirmé que les fondamentaux ne permettaient d’expliquer qu’une part modeste (respectivement négligeable) des variations journalières (respectivement minute par minute) des prix des actifs financiers (cf. l’illustration ci-dessous). Et la situation ne semble pas s’améliorer avec le temps. D’où les diatribes récurrentes sur l’« exubérance irrationnelle » des marchés financiers.

Pourquoi les fondamentaux ne permettent-ils plus d’expliquer la dynamique des marchés financiers ? Il est utile, pour pouvoir répondre à cette question, de s’interroger sur ce que sont, par essence, les marchés financiers. Un marché, est d’abord et avant tout un lieu où se rencontrent l’offre (i.e., des vendeurs) et la demande (i.e., des acheteurs). Sur les marchés financiers, les vendeurs et les acheteurs s’échangent – de façon plus ou moins implicite – des risques. Ces risques portent sur des flux financiers, liés à des entités macro (e.g., des gouvernements) ou micro (e.g., des entreprises) économiques. Et l’échange entre les acheteurs et les vendeurs se fait via des instruments financiers aux caractéristiques diverses et variées.

Il y a donc trois composantes à prendre en considération : des agents qui interagissent les uns avec les autres, des systèmes socio-économiques et des instruments financiers. Y a-t-il eu au cours des dernières décennies un changement structurel dans la façon dont les agents prennent leurs décisions ? La réponse est non. Les avancées faites en neurobiologie et plus généralement dans les sciences cognitives confirment que les biais comportementaux auxquels nous avons fait référence précédemment sont le fruit de milliers d’années d’évolution.

A noter que l’apparition du trading haute fréquence ou des « robo-advisors » n’altère pas fondamentalement la façon dont les décisions d’acheter ou de vendre sont prises, elle rend simplement le processus plus rapide et automatique ; certains diraient plus stéréotypé. Y a-t-il eu au cours des dernières décennies un changement structurel au niveau des systèmes socio-économiques sur lesquels portent les risques échangés sur les marchés ? Là encore, la réponse est non. Certains pays se sont développés d’un point de vue économique et ont désormais accès aux marchés de capitaux ; de la même manière, de nouveaux secteurs d’activités ont fait leur apparition à mesure que nous évoluions vers une société post-industrielle. Même si la sensibilité aux facteurs fondamentaux peut varier d’un pays à l’autre, ou d’un secteur à l’autre, un bilan reste un bilan, et un compte de résultat, un compte de résultat.

Enfin, y a-t-il eu au cours des dernières décennies un changement structurel quant à la nature des instruments financiers qui sont échangés ? Cette fois-ci, la réponse est oui. L’explosion des produits synthétiques fait que le système financier n’est plus dirigé par l’offre, c’est-à-dire par la quantité (limitée) de titre de propriété (i.e., actions) et/ou de créances (i.e., dettes) émise par une entité clairement identifiée, mais par la demande, c’est-à-dire par la volonté d’un investisseur le plus souvent non identifié, de s’exposer dans des proportions potentiellement illimitées au risque de son choix (i.e., le seul vrai frein est la volonté/capacité des établissements bancaires à vendre un risque auquel ils pourraient avoir à faire face dans un cas extrême).

Comme cela a été souligné dans la littérature académique, ce type de changement, qui conduit naturellement à une plus grande complexité du système, est de nature à modifier en profondeur la dynamique des marchés financiers. Pour ce qui est de la partie émergée de l’iceberg, cela se traduit par une dynamique intermittente, c’est-à-dire des phases de grand calme (i.e., faible volatilité) interrompues par des périodes d’intense agitation (i.e., forte volatilité). Pour ce qui est de la partie immergée de l’iceberg, cela se traduit par l’apparition de nouvelles forces qui ne sont ni fondamentales ni exogènes au système.

Décrypter l’impact des produits synthétiques

Ces nouvelles forces sont-elles complètement irrationnelles, comme le suppose la théorie classique ? Non, bien au contraire. Il est, cette fois, encore utile de revenir aux bases pour en comprendre l’origine. Si l’achat d’une action ou d’une obligation génère un unique acte de gestion, l’achat d’un produit synthétique (e.g., option, produit structuré, CDS, etc.) déclenche une cascade d’actes de gestion. En effet, il est important de garder à l’esprit qu’acheter un produit synthétique à un établissement bancaire revient implicitement à lui déléguer une partie de sa gestion ; et pour délivrer le profil de rendement/risque défini contractuellement, sans avoir à porter des risques sur son propre bilan, ce dernier doit mettre en place une stratégie de couverture dynamique des risques.

C’est la mise en œuvre systématique de ces stratégies dites de « delta hedging » qui va générer des mouvements mécaniques sur les marchés. Parce que ces acteurs ne cherchent pas à maximiser une performance sous contrainte de risque, mais à contrôler leurs risques sous contrainte de liquidité, leur comportement va être fondamentalement différent de celui des autres investisseurs. Ils vont notamment être insensibles au prix, ce qui leur fait perdre tout ancrage avec les fondamentaux. L’impact de ce type d’acteur a été pointé du doigt dès 1988 dans le rapport de la Brady Commission publié au lendemain du krach de 1987. Depuis, de nombreuses études académiques ont montré comment les produits synthétiques pouvaient, au travers de l’activité de leurs promoteurs, avoir une influence majeure sur l’évolution des cours (i.e., volatilités) des actifs financiers, même les plus liquides, ainsi que sur leurs co-mouvements (i.e., covariances). C’est d’ailleurs la raison pour laquelle les produits synthétiques sont régulièrement stigmatisés, et qu’ils sont considérés par certains comme des armes de destructions massives (voir notamment les commentaires de Warren Buffet dans le rapport annuel de Berkshire Hathaway de 2002).

En revanche, cela signifie également que les mouvements de marché qui ne sont pas expliqués par les modèles traditionnels sont – au moins pour partie – déterministes et donc exploitables, pour ceux qui les comprennent. Les stratégies de couverture mises en œuvre de façon systématique par les promoteurs de produits synthétiques sont en effet intimement liées à la mécanique même des produits. Une bonne compréhension de la mécanique de ces produits, très largement standardisés, peut donc permettre d’identifier les paramètres de marché qui sont impactés par les différentes stratégies de « delta hedging », et ce faisant, de décrypter la part de la volatilité des marchés qui restait jusqu’alors non-expliquée. C’est précisément l’objet de la « Matrice » que nous avons développée chez Ginjer AM et qui nous permet de suivre en temps réel, pour 49 pays et 600 sociétés, les pressions que viennent exercer ces nouvelles forces mécaniques sur les marchés financiers. A titre d’exemple, l’illustration suivante montre comment ces nouvelles forces se sont propagées dans l’espace et dans le temps lors de la crise des subprimes (i.e., chaque ligne correspond à un pays et chaque colonne à une date). Ce sont d’ailleurs les recherches que nous menons sur le sujet qui ont été auditées par les experts du Ministère de la Recherche, et qui nous ont permises d’obtenir le statut de jeune entreprise innovante (JEI) en 2013.

S’il ne s’agit pas de bruit, de quelle information ces nouveaux facteurs de risques sont-ils alors porteurs ? Ils nous renseignent sur les déséquilibres qui s’accumulent dans certaines circonstances entre l’offre et la demande, et qui viennent, le cas échéant, fragiliser le système. Dit plus trivialement, ils nous permettent d’approximer le risque systémique. Tant que les intérêts à l’achat ou à la vente pour un risque donné restent équilibrés, les promoteurs de produits synthétiques ont en effet la possibilité, pour se défaire des risques liés aux produits qu’ils ont vendus, de les transférer d’un vendeur vers un acheteur.

Tout se passe alors sur le marché des dérivés ; les marchés physiques ne sont pas touchés. Cela n’est plus le cas dès lors que tous les agents décident de se positionner dans le même sens, que ce soit à la vente ou à l’achat. Il devient dans ce cas impératif pour les promoteurs de produits synthétiques d’opérer sur les marchés pour couvrir leurs risques.

Les marchés physiques sont alors mis sous pression. En effet, si la liquidité latente est très importante, la liquidité révélée, c’est-à-dire celle que le marché est en mesure d’offrir à un instant donné, pour un actif et une quantité donnés, à un prix donné, est en pratique limitée. La hausse des marchés et les injections massives de liquidité dans le système par les banques centrales à travers le monde nous l’ont un peu fait oublier, mais la liquidité est la ressource rare dans les marchés financiers. Plus cette ressource rare est consommée rapidement, du fait d’une accélération de la demande des investisseurs pour certains produits synthétiques (i.e., augmentation des montants de « delta hedge ») et/ou d’une plus grande agressivité des stratégies de « delta hedging » de leurs promoteurs (i.e., augmentation des montants de « gamma hedge »), et plus le stress se propage dans le système. Lorsque la capacité du système à absorber du risque est épuisée, il devient fragile, prêt à s’effondrer au moindre choc exogène. Ces nouvelles forces que nous appelons interactions – du fait des liens qu’elles peuvent créer entre différents actifs – nous permettent de suivre ces risques qui se construisent progressivement sous la surface, et donc d’identifier lorsque le système s’approche du point de rupture.

Gestion tactique ou gestion stratégique ?

Quelles conséquences pour les investisseurs et leur stratégie de gestion ? Deux stratégies s’opposent face à la dynamique intermittente des marchés financiers. La première : le tout-tactique. La tentation est en effet grande de se mettre au diapason avec l’environnement et de faire évoluer son portefeuille à chaque soubresaut de marché. La perspective de générer des rendements récurrents, indépendants de la direction du marché, est bien évidemment séduisante. Il faut néanmoins garder à l’esprit que la plupart des études empiriques menées sur la performance des stratégies très dynamique concluent à l’absence de persistance de l’alpha (positif), et que leur faible volatilité (et donc le ratio de Sharpe élevé) est fréquemment associée à un coefficient d’asymétrie de la fonction de distribution des rendements négatif (i.e., les rendements fortement négatifs sont plus fréquents que dans le cas d’une distribution normale). Sans compter la perte de lisibilité et de cohérence dans le temps de la stratégie du fait d’un taux de rotation du portefeuille élevé ; la performance instantanée devient alors le seul juge de paix, avec toutes les conséquences que cela peut avoir sur le profil de rendement/risque de l’investisseur sur le long terme…

La deuxième : le tout-stratégique. Il est illusoire de croire que l’on peut se prémunir contre tous les mouvements de replis du marché. Il est néanmoins possible, grâce à l’étude de ces nouvelles forces mécaniques que nous appelons Interactions, de dissocier les corrections de marché qui sont liées à des réactions épidermiques et qui sont de ce fait généralement suivies par des rebonds tout aussi soudains et violents que la baisse à laquelle ils font écho (cf., les rebonds après le Brexit ou l’élection de Donald Trump), des corrections qui sont liées à la montée des risques systémiques, qui entraînent généralement des pertes en capital sinon permanente du moins inscrite dans la durée (cf., la crise des subprimes en 2008, ou la crise des dettes souveraines de 2011). Il est donc possible d’adapter la stratégie suivie à la nature du risque sous-jacent : maintenir l’exposition quand le mouvement est épidermique, pour ne pas se faire piéger par les soubresauts de marché, et être déjà en position lorsque le marché se retourne, ou réduire l’exposition quand le mouvement est plus structurel, pour préserver le capital, et être en mesure de saisir les opportunités qui voient le jour une fois l’orage passé.

Les bénéfices de cette approche sont multiples. Cela permet tout d’abord de faire un usage parcimonieux de la ressource rare du marché, la liquidité, dont la valeur est très largement sous-estimée aujourd’hui. Cela permet ensuite de redonner du sens aux actes de gestion en ne modifiant la structure du portefeuille que lorsqu’il y a un changement structurel dans le marché ; cela permet par conséquent de conserver une grande lisibilité et une grande cohérence dans le temps. Cela permet enfin de préserver le potentiel de performance sur le long terme en réduisant les coûts de frottement implicites et explicites que doivent supporter les stratégies à plus ou moins haute fréquence. En revanche, le prix à payer est une volatilité de court-terme potentiellement plus élevée. Le temps est enfin venu de mettre un terme au diktat de la volatilité à court terme. Dans le cas contraire, le principal risque sur les marchés financiers va devenir la peur.

  • Mise à jour le : 25/01/2018

Vos réactions