Math+Design au service du Core Business

Leçons retenues de notre accompagnement du datalab d'Euler Hermès

Par MFG Labs
27/04/2020
Leçons retenues de notre accompagnement du datalab d'Euler Hermès

Conférence « un datalab au cœur d’une transformation métier »

Lundi 9 mars 2020, Marie David, chief data officer chez Euler Hermes et Julien Laugel, chief data scientist chez MFG Labs étaient invités par le groupe des alumnis des Arts & Métiers spécialisés dans les Métiers du Conseil (GP24), pour présenter un retour d’expérience.

Après une rapide introduction sur Euler Hermes, leader mondial de l’assurance-crédit, Marie David explique les missions de son datalab et en particulier le mandat qu’elle a obtenu pour transformer le processus de « credit limit request » :

Ce processus est au cœur du métier d’Euler Hermes et repose sur le travail d’un expert : l’arbitre (underwriter). Celui-ci doit prendre une décision dans un temps très court (de l’ordre de la minute) sans pouvoir s’appuyer sur des données ou des algorithmes pertinents pour jauger à la fois, le risque, la profitabilité attendue et l’historique client.

La mission s’est concentrée sur la conception et la réalisation d’un modèle qui répond de manière optimale aux demandes de limites des clients.

La phase de conception a nécessité une bonne compréhension des trois points suivants :

  • Arbitrage rendement/risque sur différentes échelles de temps
  • Les enjeux du policyholder (satisfaction/insatisfaction client),
  • Le processus actuel et en particulier sa gouvernance

La phase de conception s’est déroulée en 5 étapes :

  1. Enquête terrain
  2. Cartographie data
  3. Spécification du problème
  4. Définition du « Target Operating Model » cible
  5. Choix de la bonne approche de modélisation parmi trois pistes (Rule based+Machine Learning, Machine Learning avec Simulation ou Fonction d’optimisation)

La phase de prototypage du modèle s’est déroulée en mode agile, en parallélisant plusieurs tâches

  1. Définition de l’architecture technique et sa mise en oeuvre
  2. Qualification des données brutes et construction des objets métiers
  3. Construction et calculs des KPIs clés pour les modèles
  4. Itérations sur les modèles

Bilan de la mission :

  • Pour les risques faibles, automatisation des décisions (Bénéfices : gain de temps arbitre, gain temps client, réponse optimisée)
  • Pour les risques moyens, mise en place d’un modèle recommandant une décision permettant à l’arbitre d’avoir le dernier mot et de valider l’arbitrage optimal proposé par l’algorithme (et donc de bénéficier de la puissance de recommandation de l’algorithme pour prendre de meilleures décisions, et plus rapidement)
  • Pour les risques importants, mise en place d’une BI « intelligente » via des tableaux de bord pour assister les arbitres dans les décisions complexes avec des indicateurs avancés

Points clés à retenir :

  • Un datalab orienté transformation et création de valeur nécessite :
    • Un sponsorship au plus haut niveau (Comex)
    • Un leadership exigeant mais pragmatique et orienté sur le delivery
    • Un budget solide, indexé sur la création de valeur dégagé par les projets
  • L’apport du service design permet :
    • Le retro-engineering du savoir d’expert
    • Au métier d’être partie prenante et d’initier le changement
    • La mise en place d’une représentation mentale unique afin d’aligner l’ensemble des acteurs du projets
    • La définition des interactions possibles entre métier/algorithme dans le processus de décision
  • Le data engineering au service d’un projet complexe nécessite :
    • Une approche Top-Down pour définir le bon niveau d’abstraction des données
    • Une approche Bottom-Up pour analyser et filtrer ces données, définir le bon périmètre et valider notre compréhension
    • De la patience pour faire le pont entre données brutes et objets métiers. La complexité des données ne doit pas freiner la livraison de valeur ; la compréhension des données et du métier s’enrichit progressivement
    • De construire une infrastructure et un pipeline de données permettant d’avoir un asset data de travail garantissant qualité, consistance, traçabilité et une single version of truth pour tous
  • L’art subtil de paralléliser des tâches habituellement successives :
    • Afin d’obtenir rapidement des résultats permettant de valider l’approche, il est nécessaire d’avancer en parallèle sur la structuration des données et sur la modélisation
    • Bien qu’indispensables, les méthodes agiles montrent leurs limites dans un tel contexte parce que la modélisation est une expérimentation avec son lot d’incertitudes.
  • Les challenges et avantages d’une modélisation par fonction d’optimisation :
    • Exprimer mathématiquement des intérêts business difficilement quantifiables est un challenge qui nécessite une véritable expertise
    • Il est impossible d’intégrer toutes les spécificités métiers dans une formule unique, ce qui peut être difficile à accepter pour des experts
    • Comprendre comment articuler et pondérer des objectifs de nature différente (risque, profitabilité, satisfaction client, …) nécessite une approche expérimentale rigoureuse
    • L’approche d’optimisation peut être facilement comprise par les différentes parties prenantes du projet - l’explicabilité étant ici un sujet clef
    • Une telle approche se prête bien à l’analyse d’exemples, permettant de travailler avec le métier sur le comportement du modèle, et de les impliquer dans le projet tout en enrichissant les connaissances métiers de l’équipe projet

Pourquoi avoir fait appel à MFG Labs ?

  • Le projet est complexe et bénéficie d’un second regard pour avancer rapidement dans la bonne direction
  • Le projet fait appel à des compétences larges en mathématiques appliquées, notamment en optimisation et en modélisation, qui dépassent les compétences habituelles des data scientists
  • Le datalab n’avait pas l’ensemble des compétences nécessaire à la mission de conception et de réalisation, notamment en cartographie des processus (équipe service design) ou en accompagnement (profils expérimentés en conseil et data science)

Les conférenciers

Marie DAVID Responsable du Data lab d’Euler Hermes

Après une carrière dans les services financiers, Marie David a dirigé plusieurs équipes dédiées au Big Data et à l’IA dans le secteur de la banque et de l’assurance avant de rejoindre Euler Hermes comme Chief Data Officer, où elle développe et industrialise les modèles de Machine Learning. Ingénieur diplômée de Polytechnique et de l’ENSAE, Marie David est également co-auteur de l’ouvrage “Intelligence artificielle, la nouvelle barbarie”, paru aux éditions du Rocher en octobre 2019.

A propose de Euler Hermes : Leader Mondial de l’Assurance Crédit

N°1 mondial de l’assurance-crédit. Nous protégeons vos actifs et accompagnons votre entreprise au quotidien pour que vous puissiez saisir les opportunités de marché, là où elles se trouvent. Avec plus de 90 ans d’expérience dans la collecte et l’analyse d’informations, notre connaissance des risques est inégalée. Euler Hermès est une filiale d’Allianz, notée AA.

Julien LAUGEL Chief Data Scientist de MFG Labs

Un long parcours dans divers secteurs de la finance a développé chez Julien Laugel le sens de la “valeur” d’une information, l’art délicat de faire parler les données… et de les transformer en actifs tangibles ! Chief Data Scientist de MFG Labs, il est aujourd’hui expert dans les systèmes de gestions de données massives, l’exploration interactive de ces jeux de données et dans l’implémentation d’algorithmes de Machine Learning. Il a étudié l’actuariat à l’Institut de Statistiques de l’Université Pierre & Marie Curie (ISUP).

A propos de MFG Labs

MFG Labs est une société de conseil et réalisation experte en data et en intelligence artificielle. Nous aidons nos clients à modéliser leurs challenges stratégiques ou opérationnels, et à les résoudre grâce à des solutions construites sur-mesure en utilisant l’IA et la data.

See other news