Tremblements de terre, ouragans, tsunamis, les catastrophes naturelles sont des événements exceptionnels et violents difficiles à prévoir. En cas d’occurrence, les conséquences sont souvent dramatiques en termes de pertes humaines et économiques. Entre décembre 2013 et février 2014, la Bretagne, la Réunion et le Var ont été frappé par un enchaînement exceptionnel d’événements climatiques provoquant environ 500 millions d’euros de dégâts.
Lors de la phase difficile de reconstruction, les sociétés d’assurance jouent un rôle primordial. Quel que soit le nombre d’assurés victimes de la catastrophe naturelle, elles doivent pouvoir verser l’intégralité des indemnités au cours d’une période restreinte. Cet objectif est certes impératif du point de vue des assurés mais difficile à atteindre du fait de la volatilité des fonds propres des sociétés d’assurances et du caractère imprévisible et destructeur des catastrophes naturelles. Alors, résignation face à la Nature ou changement d’approche ?
1992, la prise de conscience
L’année 1992 représente la date charnière. Auparavant, les catastrophes naturelles étaient considérées comme des aléas rares, non maîtrisables mais dont les coûts étaient en général absorbés. L’ouragan Andrew en 1992, dont la violence a surpris le monde entier, a agi comme un électrochoc. Les 20 milliards de dollars de dégâts de biens assurés ne purent être indemnisés qu’avec grand peine. Onze sociétés d’assurance américaines firent faillite, l’État américain paya une partie de l’addition. Dès lors, s’est opérée une prise de conscience dans le monde de l’assurance : à l’instar des grandes institutions financières, avancer sans maîtriser raisonnablement les risques peut engendrer l’effondrement du « château de cartes ». Un changement d’approche s’observe depuis une vingtaine d’années. L’avancée la plus significative dans l’appréhension des risques CatNat est le recours à des traités de réassurance de mieux en mieux structurés grâce au perfectionnement continu des outils de simulation de catastrophes. Plus récemment, la règlementation et les pratiques évoluent aussi :
- Solvabilité 2 oblige les assureurs à avoir suffisamment de fonds propres pour absorber le choc dû à un risque majeur.
- En France, en 2012, l’Observatoire National des Risques Naturels est créé et œuvre pour le partage des connaissances et pour le développement de la culture du risque.
Examinons en détail les mécanismes sous-jacents permettant aux assureurs de consolider leur rôle auprès des sinistrés.
Connaître le risque naturel : une approche plus réaliste
Les modèles statistiques des réassureurs mesurent l’impact financier d’une catastrophe naturelle sur le portefeuille d’un assureur. Les résultats de ces modèles représentent, pour les sociétés d’assurance, l’un des piliers de leur stratégie de gestion du risque naturel.
Auparavant, les modèles étaient fondés sur les données historiques des catastrophes naturelles (intensité, degré de destruction, biens assurés détruits…). En comparant les zones sinistrées similaires à la zone analysée (données commerciale de l’assureur), les modèles en déduisaient les pertes assurantielles potentielles.
Pour illustrer l’évolution de l’approche, le modèle actuel de Swiss Re est détaillé ci-dessous. Il reprend les principes fondateurs des anciens modèles en les améliorant. Il résulte de la combinaison de quatre modules :
- L’évaluation des aléas : ce module rassemble l’historique des catastrophes naturelles (lieu, ampleur, fréquence). L’intégration de données scientifiques (modèle climatique, dynamique d’un cyclone…) permet de créer des milliers de catastrophes « vraisemblables » simulées sur de longues périodes temporelles.
- La vulnérabilité : les objets (commerces, résidences…) sont classés par catégorie. Suivant l’intensité de l’événement, le module définit un taux de destruction de ces objets.
- La distribution des valeurs (fournie par l’assureur) : ce sont les données relatives aux objets assurés. Deux grandeurs sont particulièrement importantes, le coût de remplacement de l’objet (Replacement Cost) et le montant assuré (Sum Insured ≤ RC).
- Les conditions d’assurance (fournies par l’assureur) : ce sont par exemple les limites contractuelles ou les pleins de conservation.
Le modèle statistique combine ces modules en faisant « subir » au portefeuille analysé les milliers de scenarii simulés sur plusieurs centaines d’années virtuelles. Chacune de ces simulations donne le montant du sinistre catastrophique. L’échantillon étant conséquent, une analyse probabiliste est fournie à l’assureur : les risques sont cartographiés, l’intensité maximum potentielle et la fréquence d’occurrence annuelle des catastrophes sont calculées. Deux différences fondamentales avec l’ancienne approche sont à noter. Tout d’abord, le modèle Swiss Re agrandit considérablement la taille de l’échantillon statistique en simulant des catastrophes naturelles vraisemblables qui viennent s’ajouter aux événements historiques. L’échantillon est plus représentatif. Par ailleurs, les nouveaux modèles comme celui de Swiss Re intègrent de mieux en mieux les dernières connaissances scientifiques concernant la formation des cyclones ou plus généralement l’évolution du climat. Les résultats fournis aux assureurs deviennent plus réalistes. Les sociétés d’assurance connaissent donc mieux leur exposition aux risques naturels grâce à ce type de modèle plus complet qu’auparavant.
Couvrir les risques de catastrophes naturelles : sur la bonne voie mais…
Une fois les résultats d’analyse du portefeuille connus, le montant des primes est recalculé suivant la sinistralité potentielle des zones géographiques couvertes par l’assureur. Si le risque est trop important, il est réparti de manière optimale entre plusieurs acteurs grâce à un traité de réassurance approprié. L’amélioration des modèles de prédiction CatNat a des impacts positifs sur ces traités : les résultats statistiques déterminent plus finement les caractéristiques de la couverture de réassurance (priorité/plafond d’un contrat Excess of Loss, Stop Loss, de réassurance finite). Par conséquent, le marché est moins déstabilisé aujourd’hui. On peut le remarquer sur l’exemple suivant (figures 2 & 3), lorsqu’on compare deux ouragans historiques sur deux cycles tarifaires similaires. Les sociétés sont plus robustes et subissent moins de pertes. C’est autant de capital en plus à investir dans l’accompagnement des assurés.
Après vingt ans d’évolutions technique et règlementaire, les différents acteurs de l’assurance sont sur la bonne voie. Ils maîtrisent mieux les cas exceptionnels en optant pour une approche scientifique plus prudente (voir paragraphe précédent). Mais le chemin est encore long :
- En 2013, l’Association de Genève reprochait aux réassureurs de se fonder encore trop fréquemment sur l’ancienne méthode, l’analyse des données historiques.
- Les couches techniques des modèles statistiques sont développées par trois sociétés qui se partagent le marché mondial, RMS, Air et EQECAT. À part les communications plutôt fonctionnelles faites par les réassureurs, quasiment aucune donnée n’est accessible. L’effet « boîte noire » ne permet pas aux utilisateurs de vérifier la fiabilité des hypothèses et des résultats.
Certes ces modèles ont fait leurs preuves jusqu’à présent et sont en constante amélioration ; espérons simplement qu’il ne faille pas attendre une nouvelle catastrophe sans précédent – comme les méga-séismes redoutés en Californie et au Chili – pour exiger plus de transparence et cibler les défauts d’anticipation des modèles utilisés.