La qualité des données, un défi pour demain
A l’heure où l’on parle du Big Data, la «qualité » des données émerge comme un enjeu clé chez les assureurs, contraints d’adopter des politiques de gestion des risques strictes liées à la réglementation Solvabilité 2.
Le contrôle et la responsabilité de la qualité de données mobilisent les métiers mais aussi les DSI, responsables de SI toujours plus connectés.
Face à un volume croissant d’informations disparates, le Cloud Computing peut être une opportunité qui répond à ces nouvelles exigences.
A la croisée des métiers, la donnée fait l’objet de contraintes multiples qui exigent fiabilité
Elle est utilisée aussi bien par les directions métiers que les fonctions support comme la finance ou les fonctions de pilotage ; elle se trouve au cœur du système des entreprises et donc soumise à des exigences multiples.
Les contraintes liées dont elle est l’objet sont principalement de 2 ordres :
- Directes, notamment :
- Financières : obligation de fournir des données comptables détaillées
- Volumétriques : capacité des infrastructures à conserver et à autoriser l’accès et la manipulation des données dans le temps (obligations d’historisations ciblées)
- Indirectes, en particulier :
- Réglementaires : Solvabilité 2, dispositif de gestion des risques…
- Calculatoires : provisions, primes
Une mauvaise qualité des données peut avoir des conséquences financières non négligeables : par exemple, la banque Mizuho a enregistré en 2006 une perte de 286 millions d’euros pour une simple erreur de frappe lors de l’introduction en bourse d’une société cliente….
La nécessité du contrôle
Avec l’arrivée de la réforme Solvabilité 2, les projets de fiabilisation des données (unitaires, agrégées) et des circuits d’alimentation se sont multipliés pour répondre aux contraintes imposées par la mise en place des modèles standards ou internes ; il a fallu revoir le cheminement de la donnée dans l’entreprise de sa source à sa diffusion.
Afin de s’assurer de la qualité des données manipulées, il convient de mettre en place dispositifs et outils qui permettront de procéder aux contrôles adéquats. Ceux-ci peuvent s’appuyer sur 6 critères qui caractérisent la « qualité » d’une donnée :
Sécurité et intégrité sont aussi les gages d’une donnée de qualité : une donnée fiable voit son accès limité et ses possibilités de modification ou de traitement encadrées. Parallèlement, avec l’avènement des réseaux sociaux et des nouvelles sources de données sur les individus, les entreprises doivent veiller au respect de la vie privée (ex : commentaire sur la page Facebook d’un assureur) qui conditionne accès, sauvegarde et traitement des informations.
La DSI est un partenaire et non un responsable de la fiabilisation des données
La DSI facilite en effet la mise en place de contrôles automatisés décrits par les métiers qui évitent les erreurs manuelles et augmentent les capacités d’analyse.
L’automatisation des contrôles entraîne en outre une répartition des tâches : le métier s’assure de la pertinence des vérifications alors que la DSI veille à la bonne exécution des contrôles « mécaniques »; elle est garante de la fiabilité des données du SI.
Dans ce cadre, la responsabilité des contrôles incombe in fine aux métiers qui sont les seuls à même d’identifier les zones à risques et de définir les modalités d’analyse.
Les interconnexions avec les SI externes nécessitent des contrôles renforcés aux interfaces
La multiplication des flux entrants renforce le poids des SI dans la fiabilisation de l’information. Les données issues des réseaux sociaux ou d’objets connectés (ex : Amaguiz propose une assurance au km via des capteurs intégrés aux véhicules) – souvent non structurées – contribuent à une complexification des informations et de leurs contrôles.
A titre d’exemple, les clients SAS consacrent 80% de leur temps à préparer leurs données et seulement 20% à l’analyse : la fiabilisation des données est donc un enjeu majeur.
Les SI internes ne peuvent pas a priori se contenter de rejeter les données en entrée. La qualification et la maille de rejet doivent être encadrées. La norme d’interfaçage est un principe structurant qui participe de la définition partagée de la qualité, même s’il convient de garder une relative latitude pour apprécier la spécificité de certains éléments (ex : granularité des garanties).
Le Cloud Computing, une solution pour sécuriser les transferts de données de qualité entre les SI
A l’heure du Cloud, les outils SaaS permettent de répondre en partie à ces exigences grâce au partage par les divers acteurs des logiciels dont les référentiels et les mailles sont compatibles.
Il s’agit d’une une opportunité pour les SSII qui vont devoir travailler sur la fiabilisation de l’information puisqu’elles apportent une capacité de traitement, d’analyse et de stockage adaptée à cette expansion de données.