Compagnies d’assurance : Que faire pour ne pas rater le tournant du Big Data ?

Publié le 16 avril 2015 par Sia Conseil

En 2010, Éric Schmidt, alors PDG de Google, déclarait que son entreprise créait tous les deux jours autant d'information qu'il en a été créée de l'origine de l'homme jusqu'en 2003, soit 5 exabytes[1]. Ces données, de formats variés, sont générées à très haute fréquence et constituent ce que l'on appelle aujourd'hui communément le Big Data.

La collecte et l'exploitation de cet ensemble de données est si vaste et complexe qu'il est impossible de les traiter à l'aide des systèmes d'informations " traditionnels " possédés aujourd'hui par les entreprises. Utilisables par tous les acteurs de la société, elles permettront une très importante création de valeur pour les compagnies d' assurance qui sauront les recueillir et les exploiter (adaptation d'offres marketing, gestion de la relation client, lancement de nouveaux produits, optimisation de la tarification, commercialisation des données...). De nouveaux acteurs spécialisés dans le recueil et le traitement des données absorberont une partie de la chaîne de valeur et se positionneront en concurrence frontale avec les acteurs traditionnels, qui risquent de " rater le tournant " s'ils ne mettent pas en oeuvre les actions nécessaires.

Quelle est réellement la valeur de ces données ? Comment les compagnies d'assurance doivent-elles faire évoluer leur modèle économique et leur organisation ? Explications.

Pourquoi les données générées par le Big Data sont-elles si précieuses ?

Une multitude d'applications concrètes

Pour les compagnies d'assurance, le Big Data c'est d'abord une immense quantité de données relatives aux assurés, que les services marketing pourront exploiter afin d'augmenter leur efficacité et leur pertinence.

Depuis l'avènement d'internet, le " 2.0 " utilise les données personnelles des assurés (anniversaire, sinistres, changement de véhicule, etc.) afin de déclencher automatiquement des actions de campagne crosscanal (mail, mobile, courrier) et de proposer / adapter de façon automatique les produits commercialisés. Ce marketing basé sur les événements assurés, aussi appelé " triggermarketing ", permet aux compagnies d'optimiser la gestion de leur portefeuille d'assurés, mais surtout de gagner de nouveaux clients en leur proposant une offre adaptée à leurs besoins, et ce au moment opportun. Avec le Big Data, il sera désormais possible de recueillir ces données à une fréquence très élevée et donc de déterminer de façon précise le bon produit à proposer, et surtout le bon moment pour le proposer.

Ce travail pourra être effectué par les assureurs eux-mêmes, mais il existe d'ores et déjà des agrégateurs de données[2] vendant des prestations permettant de proposer de façon prédictive des produits à une personne en fonction de son comportement sur internet (publications Twitter, Facebook, blogs, sites consultés, etc.). La prédiction des évènements assurés ira même plus loin grâce aux objets connectés qui donnent la possibilité aux assureurs d'anticiper la probabilité d'occurrence des sinistres, grâce aux " Gadgets " qui se popularisent notamment dans les domaines de la santé, du sport et de l'automobile. L'analyse textuelle des différentes déclarations de sinistres permet également d'identifier les incohérences dans les déclarations et, donc, de limiter la fraude.

Améliorer les algorithmes actuariels prédictifs

C'est l'essence même du Big data. La quantité de données est telle qu'elle permet d'augmenter de façon drastique la " capacité à prédire " des modèles mathématiques utilisés par les compagnies d'assurance. Avec le Big data, il ne s'agit plus de prédire mais de corréler !

La statistique " classique " aujourd'hui pratiquée par les actuaires a pour objectif de développer des modèles basés sur des variables d'entrée (âge, sexe, CSP, etc.) et vise à prédire des variables de sortie (nombre de sinistre, âge du décès, etc.).

Ces méthodes traditionnellement adaptées à un faible nombre de variables explicatives, obligent les actuaires à faire des hypothèses sur la façon dont les variables d'entrée influencent et expliquent les sorties. Si la statistique traditionnelle répond à la question : " Comment ? ", le Big Data, lui, s'attachera plutôt à répondre à la question : " Quoi ? ".

Cette fois, les données sont présentes en abondance et l'objectif est de corréler des variables, et non plus de les expliquer: en parvenant à corréler des variables facilement observables (publications sur les réseaux sociaux, requêtes Google, informations financières, etc.) à des évènements que l'on cherche à prédire, il est possible d'obtenir des performances explicatives nettement supérieures à celle d'un modèle statistique traditionnel[3].

De plus, les algorithmes effectuant cette corrélation se perfectionnent au fur et à mesure que le volume des données qui les alimentent, affluent. Cette discipline scientifique, qui consiste à mettre au point des algorithmes capables d'" apprendre " et d'évoluer, est connue sous le nom de " machine learning ".

C'est un domaine qui attire à l'heure actuelle toute l'attention des actuaires qui doivent faire évoluer leurs méthodes statistiques, mais aussi leurs systèmes d'informations afin que les méthodes de stockage de ces données reflètent cette nouvelle forme d'exploitation[4].

Quelles transformations pour les compagnies d'assurance ? Stocker et recueillir des volumes gigantesques de données

Même s'il est fort probable que le législateur ne laisse pas les compagnies d'assurance utiliser toutes les ressources à leur disposition, elles géreront très vraisemblablement
un gigantesque ensemble de nouvelles données inorganisées (SMS, photos, données provenant d'objets connectés, réseaux sociaux etc.) et stockées sous des formats différents.

Aujourd'hui, les SI stockent essentiellement des informations de base sur l'assuré: actifs, sinistres, etc. Le SI de demain devra, en plus d'être capable de stocker cette " montagne " d'informations, traduire les nouveaux supports en format textuel ou numérique, les rendre interprétables[5] et gérer l'augmentation des sources entrantes de données. Il devra en outre être capable de mettre en relation des données classiques (âge, sexe etc.), provenant tout aussi bien de l'équipement sportif que de la balance connectée de l'assuré, ou bien plus évoluées, comme des données génétiques. Un défi de taille lorsque l'on sait qu'actuellement 80% des données collectées sont inutilisées, selon Mouloud Dey, SAS.

Quelles équipes pour analyser et exploiter les données ?

Contrairement à d'autres secteurs, l'assurance dispose déjà de collaborateurs capables de manipuler et exploiter des données à grande échelle. Il est ainsi fort probable que les équipes actuarielles participent à cette révolution et acquièrent de nouvelles missions : responsabilité de la qualité des données, transformation en matériel exploitable, respect des lois imposées par le législateur (entre autres, anonymisation des données).

Ces équipes évolueront, elles seront complétées par un nouveau poste clé et transverse: le Chief Data Officer ou directeur de données. Ce cadre de haut niveau aura pour mission de garantir la fiabilité des données et d'alimenter les différentes directions avec des données pertinentes. Ses interlocuteurs seront aussi bien des instances dirigeantes (données stratégiques) que des services plus opérationnels (marketing, communication, back office, RH, etc.).

L'organisation devra donc intégrer ce besoin de coopération constant entre les équipes Big Data et le reste de l'entreprise qui devra apprendra à travailler avec ces données.

Le Chief Data Officer se reposera sur des profils spécialisés comme les data scientists. Ce métier, en cours de définition, regroupe des compétences de data miner (recherche ou " fouille " de données) et de data analyst. Tous deux organisent et traduisent des informations grâce à divers outils informatiques et techniques statistiques. Contrairement au data analyst, le data miner effectue ce travail à un niveau plus poussé et croise des données de sources variées et dispersées. Ces profils polyvalents devront maîtriser des compétences multiples : data mining, statistiques, technologiques, informatiques mais également un savoir-faire métier (marketing ou de gestion des risques assurantiels par exemple).

Se mettre en ordre de bataille pour relever le défi du Big Data va nécessiter des transformations importantes chez les acteurs de l'assurance, aussi bien de leur modèle économique que de leur organisation, recrutement et capacités techniques.

Cette transformation est déjà en cours : 89% des cadres de l'industrie et de la santé, interrogés dans une récente étude menée par Accenture, pensent que les entreprises n'adoptant pas une stratégie d'analyse Big Data dans les 12 mois risquent de perdre des parts de marché.

Sia Partners

[1] : Un exabyte correspond à 10^18 bits, soit 1 milliard de milliard de bits. C'est environ l'espace nécessaire pour stocker 1 milliard de films.

[2] : Le marché des agrégateurs de données est largement dominé par les géants américains Google, Yahoo et Amazon. Le premier agrégateur de données européennes, IODS, à été créé en 2011.

[3] : Ex : Capacité de l'outil " Google Flu Trends " a prédire la propagation de l'épidémie de grippe H1N1 sur le base de requêtes Google.

[4] : Voir les projets " Apache Hadoop " et les bases de données au format " NoSQL ".

[5] : Ex : Comment traduire un ensemble de vidéos sur les réseaux sociaux illustrant une augmentation des conduites à risque chez un segment de la population ?