Insurance Blog | Accenture

Dans un contexte où les pressions extérieures pèsent de plus en plus fortement sur les directions financières, qu’elles soient économiques ou règlementaires, la capacité qu’auront les organisations à répondre rapidement aux attentes de suivi et de projection de la performance financière est un des enjeux de transformation des prochaines années.

Ainsi, 81% des CFOs interrogés globalement dans le secteur de l’Assurance (étude accenture #CFO Reimagined) sont d’ores et déjà convaincus que les méthodes traditionnelles de contrôle de gestion (ou « EPM » pour Entreprise Performance Management) vont devoir évoluer pour permettre d’identifier de nouvelles pistes d’optimisation de la profitabilité et, plus généralement, d’accompagnement du développement de l’assureur.

Les contraintes à prendre en compte pour embrasser ce changement avec succès dessinent un terrain de jeu complexe où :

  • les attentes du management se portent vers des réponses en temps réel, dans un marché hautement concurrentiel et disrupté par des acteurs plus agiles, notamment autour des nouveaux entrants,
  • les règles de valorisation sont imposées par des règlementations de plus en plus complexes (IFRS9, IFRS17,…), et introduisent une difficulté de modélisation « simplement » du portefeuille autour de « proxys[1]» fiables et pertinents,
  • les données requises pour réaliser des projections fines et éprouvées nécessitent d’accéder à des technologies plus adaptées aux volumes et aux puissances de calcul requises.

Dans un tel contexte, la transformation du contrôle de gestion ne pourra pas être résolue par la seule construction d’une plateforme EPM plus puissante, bien que celle-ci soit de plus en plus indispensable, mais devra bien prendre en considération les enjeux plus complets sur les équipes et les compétences, les données nécessaires aux calculs et leur granularité, ainsi que la clarification des rôles et responsabilités des différents départements de la direction financière (actuariat, risque, comptabilité) vis-à-vis des équipes du contrôle de gestion dans le cadre de l’exercice de planification.

LES TENDANCES DU MARCHE

Il y a depuis toujours eu sur le marché des progiciels des solutions orientées autour des sujets analytiques – prévisionnel – simulation mais très souvent ces solutions étaient soit très spécifiques à un métier, soit peu flexibles dans leur modèle, soit intimement liées à Excel. Dans tous les cas, Excel était, et est encore la plupart du temps, LA solution d’exploitation et de simulation de la donnée pour les contrôleurs de gestion.

Depuis le début des années 2010, de nouveaux acteurs sont arrivés sur le marché des outils d’EPM (Entreprise performance management) pour faire face aux différents enjeux des entreprises et de leurs équipes. Plus de granularité, plus de flexibilité, une meilleure connectivité entre les pôles opérationnels, plus de rapidité dans les simulations, plus de transparence… et surtout plus d’automatisme afin de libérer de la matière grise au sein des équipes réduites à un rôle de producteur de reporting.

Le marché de l’EPM est assez vaste aujourd’hui et justifie une réflexion amont à un investissement. Contrairement à un périmètre régi par une règlementation forte, l’analytique et le contrôle de gestion sont des domaines adaptés au métier, à l’activité, au processus mais aussi à la politique de l’entreprise.

Par conséquent, la meilleure solution est celle qui s’adapte le mieux à toutes ces composantes car chacune d’entre elles a ses forces et sa philosophie.

  • Nouveauté ou Refonte : des solutions sont nées avec la vocation d’être une solution EPM, d’autres se sont dotées d’une composante planning et budgeting en complément de leurs fonctionnalités existantes et enfin certaines ont investi dans un coup de rajeunissement.
  • « Excel Killer » ou Consolidation de gestion : là encore, les solutions s’étalent sur un spectre de flexibilité assez étendu. Entre la boite à outils, réel confort du contrôle de gestion mais cauchemar du département IT, et l’outil de consolidation de gestion rassurant mais bien moins ajustable, il est nécessaire de bien calibrer son besoin.
  • Spécialiste (« Niche player ») et/ou généraliste : dans le domaine de l’analytique, les différents outils généralistes couvrent généralement les besoins du contrôle de gestion avec plus ou moins de facilité. Néanmoins, pour des besoins très spécifiques, il peut s’avérer plus intéressant et moins coûteux de combiner des solutions de niche à celles d’un généraliste.

Quelle est la promesse éditeur ?

Quelle que soit la solution choisie, les messages portés par les éditeurs EPM répondent tous aux mêmes grands problèmes :

  • Puissance de Calcul – Calculer plus vite et afficher de la donnée en temps réel ou presque.
  • Granularité – Couvrir les processus existants à un niveau plus fin qu’auparavant et pouvoir creuser davantage dans la donnée
  • Multi-dimensionnalité – Pouvoir rajouter autant d’axes d’analyse que souhaité, les croiser et les restituer
  • Multiplicité des cas d’usage – Gérer l’ensemble des différentes composantes fonctionnelles de l’entreprise et les rassembler en un seul outil de pilotage
  • Facilité d’intégration –Insérer simplement dans une architecture IT via des connecteurs standards
  • Reporting intégrés – Restituer des données de manière structurée et pré-formatée.

Tous, qu’il s’agisse de nouveaux acteurs ou d’anciens, investissent énormément dans le développement de leurs plateformes et présentent des roadmaps très ambitieuses sur des sujets d’avenirs attendus par les consommateurs :

  • Intégrer davantage de capacité de Business Intelligence et de Data Visualisation (qu’on ne se trompe pas ici, un outil EPM n’a pas vocation à être un outil de data visualisation, même si les capacités en la matière de chaque outil varient, il n’en demeure pas moins que ce sont deux technologies différentes).
  • Faire du prospectif sur la donnée – fournir des moteurs de projection basés sur des scénarios préétablis, sur des bases de données historiques ou encore sur des règles statistiques.

Et sur le terrain ?

Forts de notre expérience acquise sur des programmes de transformation EPM, nous avons pu constater que, même si les nouvelles solutions sont de plus en plus orientées pour être laissées à la main des utilisateurs, avec des interfaces de paramétrage intuitives et des modèles de données fonctionnels, le projet de mise en œuvre ne doit pas être pris à la légère et plusieurs thématiques doivent faire l’objet de la plus grande attention pour sécuriser l’atteinte des objectifs attendus d’une telle transformation.

La matière première : la donnée

Que ce soit pour des motifs règlementaires ou pour répondre aux enjeux analytiques sur les différents leviers de croissance (distribution, segmentation clients, etc.), l’avenir des solutions EPM passera une plus forte granularité et un accès plus fluide aux données dont dispose l’assureur. Une telle tendance impose par construction aux projets d’adresser un premier enjeu autour de l’harmonisation du modèle de données.

En effet, dans le cadre d’un exercice prospectif qui a vocation à anticiper des reportings comptables de plus en plus granulaires, il ne semble plus envisageable de maintenir une plateforme de contrôle de gestion sans harmoniser les référentiels et les données manipulées pour permettre aux simulations et analyses d’être homogènes sur l’ensemble du périmètre. Il est donc plus que recommandé de dédier un groupe de travail au modèle de données cible de la plateforme.

D’ailleurs, ce type de chantier étant généralement très chronophage – lié notamment à la multiplicité des acteurs à impliquer – il est très fréquent de l’anticiper pour éviter in fine de freiner les travaux de conception de la solution.

L’architecture : comment s’intégrer dans l’existant ?

Le sujet n’est pas aisé : de multiples systèmes sources, des flux amonts et avals de natures variées et s’appuyant sur des technologies souvent hétérogènes…, tels sont quelques-uns des challenges à relever dans ce type de projet.

Néanmoins, quelques principes de base permettent d’éviter les déconvenues – ou en tout cas de les minimiser.

  • D’abord, s’intégrer au plus près de la gestion. Même si cela peut paraitre intuitif quand on parle de contrôle de gestion, il n’est pas rare de retrouver de multiples couches de transformation et de retraitement rendant les données méconnaissables pour les équipes métier. A éviter donc.
  • Ensuite vient l’éternel sujet de la réconciliation avec la comptabilité… Ici la réponse peut prendre la forme d’un hub ou d’un centralisateur de données adossé à la comptabilité, permettant de « sourcer » l’information à la maille désirée et par construction réconciliée avec l’ERP (via des mises à disposition conditionnées par exemple).

La démarche : pour favoriser la co-construction

Contrôleurs de gestion, responsables d’application, architectes, data officer, comptables… Tous doivent travailler de concert, sous la houlette de sponsors impliqués et clairs sur l’ambition et les objectifs de la transformation.

Les différents chantiers doivent idéalement être menés par des équipes mixtes, impliquant à la fois des représentants métier et IT, pour « rendre plus agile » le processus de conception / réalisation / recette et éviter l’effet tunnel souvent rencontré dans les projets d’envergure.

En termes de comitologie, cela passe notamment par une gouvernance multipartite permettant aux différents contributeurs d’apporter leurs savoir-faire pour coconstruire une solution intégrée dans l’écosystème. Cela peut notamment prendre la forme d’une « design authority » permettant de prendre des décisions éclairées et de façon transparente.

L’ambition fonctionnelle

Compte tenu de la performance et de la flexibilité des outils aujourd’hui disponibles, il peut être tentant de (sur)complexifier les modèles mis en œuvre dans un objectif de précision absolue. Même si la technologie pouvait éventuellement le permettre, la mise en pratique peut s’avérer très difficile, voire insurmontable. On peut notamment citer les freins liés à la qualité de la donnée, à la maintenabilité de la solution, à l’adhésion des équipes « périphériques » au contrôle de gestion, etc…

Il est donc plutôt recommandé de privilégier l’utilisation de modèles plus simples, quitte à définir des proxys[1] et éventuellement progressivement enrichir les modèles au fil de l’eau.

Pour découvrir plus en détail notre vision des enjeux de la transformation du contrôle de gestion, que ce soit du point de vue des tendances technologiques, de la gestion des données ou des modèles opérationnels, contactez les équipes Finance & Risque d’Accenture :

@Damyen Aquilina (Managing Director Banque et Assurance)

@Fernand Goncalves (Senior Manager Banque et Assurance)

@Adrien Meyer (Senior Manager Banque et Assurance)

[1] Proxys = Méthodes de calcul simplifiées approximant le calcul complet requis pour la production des comptes publiés.