Data science for the financial sector (Joint Interview)
Main use cases, risk management based on artificial intelligence, maturity level of technologies and implementation methodologies
Philippe STRUILLOU
Directeur du pôle conseil, Lincoln
Après un parcours classique en statistiques, Philippe STRUILLOU a intégré Lincoln en 1995. Durant 20 années il a effectué des missions variées tout d’abord en développement data puis en direction de projets. Il a rejoint la direction de Lincoln en 2015, d’abord comme Directeur d’une business unit dédiée aux activités BI. Il occupe aujourd’hui les fonctions de Directeur du pôle conseil. Le pôle conseil accompagne et conseille les clients de Lincoln dans leurs projets stratégiques data et digital.
Christophe LE LANNOU
Fondateur et CEO, dataLearning
Christophe Le Lannou est le fondateur de Data Learning, un cabinet de conseil destiné aux dirigeants cherchant à mieux utiliser la donnée, l’IA et la technologie pour une meilleure efficacité de leurs sociétés. Christophe Le Lannou a précédemment passé 17 ans dans le secteur financier, dont 5 ans à la tête de la recherche et du trading chez Carrousel Capital, un important hedge fund basé à Londres. Il est diplômé de l’École polytechnique et de l’École supérieure des mines de Paris. Outre son poste de président chez Data Learning, il est conférencier à la Toulouse Business School sur la visualisation des données.
Frank LEONARD
Consultant big data, TIBCO Software
Franck Leonard travaille depuis 1991 dans l’édition de logiciels. Il a connu différents services et rempli plusieurs missions depuis la réalisation de projet jusqu’à la gestion de data center. Afin de favoriser l’efficience et le pragmatisme, il a activement participé à la démocratisation de solutions cloud, d’ordonnancement et de distribution logicielle. Depuis quatre ans, il a rejoint le monde analytique. Il intervient dans de nombreux projets de data visualisation, de statistique descriptive et d’analyse prédictive notamment dans le cadre d’initiatives big data pour le compte de TIBCO Software.
Quels sont selon vous les cas d’usage les plus emblématiques de l’analytique dans les secteurs financiers ?
Philippe Struillou, Lincoln : Le secteur financier entretient des liens étroits avec la data depuis toujours. Les fonctions compliance, risque, trading sont des métiers ayant un fort besoin de data analyse, de pilotage, de reporting, de modélisation…
La plus grosse évolution ces dernières années se situe du côté des outils. Ils permettent d’entrer dans une nouvelle dimension de l’analytique, en raccourcissant les temps de traitement de la donnée, en allant plus loin dans la personnalisation, en traitant de nouveaux types de données, notamment des données non structurées, comme des données de texte, d’images, de son, etc. La data visualisation, avec TIBCO Spotfire, apporte par exemple aux entreprises de l’agilité et de la rapidité de prise de décision grâce à un meilleur pilotage de l’activité. Le topic modeling, l’analyse des sons, des sentiments permettent de détecter aujourd’hui une insatisfaction client dans le ton de la voix et d’enclencher dans la foulée une action auprès de celui-ci afin de traiter son insatisfaction.
Christophe Le Lannou, Datalearning : Le secteur financier que ce soit l’assurance, les banques, la finance a toujours été un grand consommateur de données, de statistiques et de méthodes numériques. Mais le plus marquant depuis quelques années est l’augmentation exponentielle des volumes de données, de leur variété et de leur vélocité, phénomène qui a permis d’enrichir la vision des acteurs de la finance et leur compréhension du monde. Les données sont devenues les nouvelles pépites d’or qui permettent l’innovation, l’amélioration de son offre, la baisse de ses coûts et ultimement la mise en place de nouveaux business modèles disruptifs. On peut prendre l’exemple des
assurances automobiles qui adaptent leurs tarifs en fonction de l’observation quotidienne de la conduite via des boîtiers embarqués, ou des banquiers qui en fonction des données recueillies sur les réseaux sociaux établissent des profils de risque pour les prêts.
Franck Leonard, TIBCO : On trouve des usages particulièrement révélateurs de l’apport des outils analytiques dans le domaine de l’inspection des finances. Avant de s’appuyer sur des outils tels que TIBCO Spotfire, les inspecteurs devaient souvent composer avec un grand nombre de fichiers imbriqués, ce qui rendait la manipulation des données complexe. En leur permettant de gagner en autonomie et en flexibilité, les outils analytiques changent la nature des rapports entre l’auditeur et l’audité. En cas de désaccord sur une analyse, il est désormais possible de reprendre un calcul ou d’expliquer un chiffre de manière dynamique et interactive, d’expliquer facilement la provenance des données. L’audité peut ainsi réagir en direct, il n’y aucune perte de temps. Même chose pour une analyse de risques. Là où Excel nécessitait plusieurs jours de travail par trimestre pour mettre à jour des calculs de risques, TIBCO Spotfire permet de répondre dynamiquement aux questions en pleine séance de travail. L’outil banalise la manipulation de la donnée et permet de se focaliser sur le métier plutôt que sur la méthodologie de calcul de la formule.
“ La Data visualisation, avec TIBCO Spotfire, apporte aux entreprises de l’agilité et de la rapidité de prise de décision grâce à un meilleur pilotage de leurs activités. ”
Philippe STRUILLOU
Quelles sont les répercussions de l’IA sur les pratiques actuelles en matière de gestion des risques ?
Franck Leonard : La gestion des risques est une préoccupation essentielle des conseils d’administration des banques et assurances, leur faculté à les gérer fait d’ailleurs l’objet d’une notation, avec le fameux triple A. Sur ce point, les apports de l’intelligence artificielle et du machine learning sont nombreux. Des lois statistiques telles que l’auto-encodage ou la régression linéaire aident à détecter les fraudes. Le machine learning améliore constamment les modèles et aide l’utilisateur métier à mettre plus facilement le doigt sur des suspicions de risque ou de fraude élevés.
Christophe Le Lannou : Effectivement, l’IA offre de nouveaux outils puissants de gestion des risques en combinant un volume de données de plus en plus important. Le logiciel Tibco Spotfire met cette puissance de l’IA à la portée des experts métiers — traders, gestionnaires de risques, auditeurs, inspecteurs — en leur permettant de réaliser simplement des études de plus en plus complexes. Par exemple, l’IA permet de regrouper des millions de transactions financières selon la similarité de leurs risques. L’expert métier peut ensuite facilement à travers Spotfire analyser les résultats, interpréter les paramètres de calcul et détecter ainsi d’éventuelles concentrations anormales des risques.
Philippe Struillou : L’IA permet de répondre à des problématiques de détection des fraudes, d’anticiper des évènements comme l’endettement d’un client, ou son comportement futur. On exploite désormais de nouveaux gisements de données pour alimenter de nouveaux scorings et mieux prédire les comportements. Par exemple, nous avons récemment accompagné l’un de nos clients dans la mise à jour de ses modèles de « credit scoring ». Sur ce type de projet, les algorithmes d’IA prennent en compte non seulement l’historique financier issu des institutions financières (INSEE, chambre de commerce…) mais également des données web qui permettent de se faire une idée de la stabilité de l’entreprise, comme le niveau d’engagement des salariés, les démissions, etc.
“L’IA offre de nouveaux outils puissants de gestion des risques en combinant un volume de données de plus en plus important.”
Christophe LE LANNOU
Comment réduire les cycles de détection des fraudes ? Les technologies anti-fraude basées sur l’analyse des données sont-elles matures ?
Franck Leonard : Les technologies anti-fraude évoluent très rapidement. On constate une nette amélioration dans un domaine tel que l’identification des fausses anomalies. Prenons l’exemple d’une suspicion de fraude suite à l’identification d’un achat réalisé en Espagne avec la carte bleue d’un client français. En rapprochant les données avec celles publiées sur les réseaux sociaux, on peut désormais s’assurer que la personne est bien en voyage en Espagne, ce n’est plus la peine de la contacter. A ce niveau, la data visualization démocratise l’accès à la donnée et donne les moyens de couvrir un spectre de données beaucoup plus large.
Christophe Le Lannou : Les fraudes évoluent au rythme des technologies et les fraudeurs sont toujours à la recherche de nouvelles opportunités. De leur côté, les établissements financiers doivent développer des outils de plus en plus puissants, grâce à des algorithmes pour déterminer des anomalies, des données manquantes, des patterns qui ne devraient pas avoir lieu… Mais les fraudeurs s’adaptent et tout se joue sur la faculté de l’humain à analyser ces données et à comprendre la situation, afin de déterminer si la fraude est avérée ou pas. Pour y parvenir, il faut disposer d’outils permettant d’agréger et d’étudier de gros volumes de données mais également d’outils de visualisation puissants permettant la compréhension des résultats. TIBCO Spotfire permet à la fois la mise en place de tableaux de bord avec des indicateurs de fraude en temps réel mais également l’analyse d’une alerte et la prise de décision. L’expérience permet ensuite d’améliorer les algorithmes et engager un cercle vertueux d’apprentissage. Ces cycles sont souvent bien matures sur des fraudes de carte bancaires mais restent encore balbutiants sur d’autres types de fraude.
Philippe Struillou : La réduction du cycle de détection des fraudes passe souvent par une adaptation de l’infrastructure et de la capacité à alimenter les environnements Big Data de données temps réel. Il faut distinguer les technologies, les méthodes et leur mise en oeuvre dans les organisations. Je pense que les méthodes sont désormais éprouvées et matures. L’apprentissage semi supervisé, les méthodes séquencielles donnent de bons résultats. Par contre, sur la fraude comme pour d’autres sujets traités par la data science, leur mise en oeuvre autour de datalabs peine à trouver un ROI car elles débouchent sur des cas d’usage trop éloignés du terrain et des métiers, donc peu industrialisables. Dans ce contexte, les plateformes de data science facilitent l’échange et le collaboratif en regroupant l’ensemble des travaux réalisés autour de la data dans un même outil, et permettent de faire le lien entre ce qui est développé dans les data labs et les métiers.
“La data visualisation démocratise l’accès à la donnée.”
Franck LEONARD
Quel est le potentiel de l’analytique pour avancer dans la connaissance du client et améliorer la personnalisation des offres financières ?
Franck Leonard : Les acteurs de la banque ou de l’assurance exploitent de plus en plus des méthodes de scoring pour réaliser des comparatifs sur des produits financiers en fonction de profils d’utilisateurs. TIBCO Spotfire intègre d’ailleurs des formules de clustering permettant de réaliser ce type de comparatifs.
Christophe Le Lannou : Le potentiel est énorme et nécessite de passer par différentes étapes. D’abord une analyse descriptive, étape qui a presque toujours existé avec l’utilisation de statistiques et de catégorisation simples des clients tels que la fameuse « ménagère de 50 ans » qui a été longtemps le graal du marketing. Mais avec l’explosion de la quantité et de la variété des données, il est maintenant possible d’effectuer des analyses beaucoup plus fines. TIBCO Spotfire permet une visualisation 360 degrés des données clients et la mise en place d’algorithmes tels que les groupements de clients, beaucoup plus fins, précis et exploitables directement par les services commerciaux. Ensuite vient l’analyse prédictive où l’on comprend les dynamiques des caractéristiques des clients afin de prédire leurs intentions puis l’analyse prescriptive qui assiste les responsables commerciaux dans leurs prises de décision. TIBCO Spotfire nous facilite ces démarches avec ses outils intégrés de data science, son accès au langage de programmation R ou Python et l’apprentissage automatique (machine learning).
Philippe Struillou : Les méthodes de machine learning permettent effectivement d’aller plus loin dans la connaissance client, à tel point que les actions marketing deviennent hyper personnalisées. Dans certains secteurs, à un micro segment voire à un individu correspond une offre ou une promotion.
La qualité des données et leur traçabilité est une problématique majeure pour les services financiers. Comment l’améliorer ?
Christophe Le Lannou : Il s’agit non seulement d’une problématique mais également d’une obligation. Les nombreuses régulations qui ont vu le jour ces dernières années obligent les établissements à améliorer la qualité et la traçabilité des données, je pense notamment au nouveau standard de réglementation bancaire mis en place par le Comité de Bâle, le BCBS 239. Globalement, les banques d’investissements et les régulateurs ont des exigences de plus en plus élevées en matière de qualité des données. L’avènement du Chief Data Officer (CDO) s’inscrit dans cette logique d’amélioration de la data en interne.
Mais la meilleure façon d’améliorer la qualité et la traçabilité des données financières est de faire en sorte que les utilisateurs, les experts métiers s’emparent de la donnée et délèguent moins aux informaticiens qui n’ont pas de connaissance spécifique sur le contenu des données qu’ils stockent. Le but est de déplacer le curseur pour que les données appartiennent à ceux qui la comprennent et la manipulent au quotidien. Il est important que les managers définissent des stratégies pour faire monter en compétence leurs collaborateurs métiers avec en particulier, la mise en place de programmes de formations et une création d’une culture de la donnée. TIBCO Spotifre est un outil très intuitif qui permet aux gestionnaire de risques, aux auditeurs, aux commerciaux sans expertise informatique de manipuler les données et d’extraire de l’information pertinente. Plus les métiers prendront la responsabilité de leurs données, plus la qualité de ces données sera améliorée et enrichie.
Philippe Struillou : Le secteur financier nous plonge effectivement dans un cadre réglementaire où la conformité est extrêmement importante. Il est essentiel de s’adapter en organisant une gouvernance de la donnée forte. Cela implique de définir précisément les rôles et les responsabilités autour de la donnée et de mettre en place une véritable entité avec un Chief Data Officer et un Data Protection Officer, responsables de la maîtrise de la data et en charge des différents chantiers d’amélioration de la qualité de la donnée.
Ces dernières années, la tendance a été de multiplier les flux de données et de regrouper l’ensemble dans une plateforme big data, en pensant que le potentiel des nouveaux outils permettrait d’en tirer parti. Mais tout cela n’est pas envisageable sans une véritable gouvernance de la donnée. Il faut être en mesure de tracer l’origine des flux, de cartographier la donnée et la structurer en amont. On parle beaucoup de data lineage mais cela ne se fait pas tout seul ! La mise en place de cette gouvernance passe aussi par le déploiement de nouveaux outils.
TIBCO propose par exemple une solution de data virtualisation qui permet de manager les données et les rendre plus accessibles grâce à une couche d’abstraction.
Franck Leonard : Les outils analytiques permettent également à l’utilisateur métier de mesurer la qualité de la donnée et d’avancer main dans la main avec les services IT. Admettons qu’un responsable métier constate une erreur dans un jeu de données, par exemple la mention « viza » au lieu de « visa ». TIBCO Spotfire lui permet d’ajouter une règle dynamique afin de corriger cette erreur qui peut provenir d’une mauvaise manipulation ou d’une application qui inscrit cette mention erronée par défaut. Ensuite, rien n’empêche l’utilisateur métier d’alerter l’IT sur ce type de problématiques. Ainsi, on met en place un cercle vertueux alliant collaboration et prise de décision en temps réel côté métier.
“La meilleure façon d’améliorer la qualité et la traçabilité des données financières est de faire en sorte que les utilisateurs, les experts métiers s’emparent de la donnée.”
Christophe LE LANNOU
Comment insuffler une culture de la data dans les instances financières ?
Christophe Le Lannou : Cette culture est déjà très présente dans les Fintechs ou Insurtechs. Les sociétés plus anciennes doivent maintenant s’adapter pour survivre et devenir des entreprises « data-driven », c’est l’un des challenges actuels des CDOs. Une clé de la réussite est la mise en place d’une conduite du changement, avec des formations pour éduquer les collaborateurs et améliorer leurs compétences en gouvernance et exploitation des données. Cette évolution vers une structure plus data-driven implique la mise en place de nouveaux outils adaptés et intuitifs tels que TIBCO Spotfire pour répondre facilement aux besoins d’étude et d’analyse des données.
Franck Leonard : Le monde financier est depuis toujours «data-driven » mais nous sommes effectivement en train de franchir une étape supplémentaire. Pour accélérer le processus, il faut s’appuyer sur l’appétence naturelle des utilisateurs financiers pour l’exploration de données grâce à un outil simple, qui les accompagne aussi naturellement qu’un fichier Excel. Ensuite, il y a un effet boule de neige : ces utilisateurs partageront leurs données, leurs templates avec d’autres utilisateurs moins naturellement attirés par la technologie. Les services IT ont un rôle à jouer pour insuffler cette culture de la data, ils doivent faciliter l’accès à la donnée, tout en veillant à la sécurité du SI.
Philippe Struillou : Je rejoins Franck sur le fait que le secteur financier a une culture naturelle historique de la
data. Désormais le challenge est de savoir la vulgariser et l’étendre à l’ensemble des acteurs de l’institution financière. Cela passe par un accompagnement à la conduite du changement — autre facette évoquée par Christophe. Chez Lincoln, nous veillons toujours à rassembler les différentes directions, à les faire interagir et les impliquer dans les mêmes pratiques. Il faut à la fois de la cohésion, un véritable suivi de projet et des livrables assez rapides. Ces « quick wins » permettent de prendre conscience de l’intérêt d’une démarche axée sur l’exploitation de la data et de déterminer un ROI pas toujours évident à estimer si l’on raisonne à trop grande échelle.
“Il faut s’appuyer sur l’appétence naturelle des utilisateurs financiers pour l’exploration de données avec un outil simple, qui les accompagne aussi naturellement qu’un fichier Excel.”
Franck LEONARD