Comment Dataiku a aidé la Bred à améliorer la gestion de ses GAB grâce aux données

Comment Dataiku a aidé la Bred à améliorer la gestion de ses GAB grâce aux données

Un article mindFintech

Depuis 2018, la Bred utilise les services de Dataiku pour ses projets de Big Data. Lors du salon Big Data Paris 2019, deux de ses data scientists ont présenté un cas d’usage portant sur la gestion du parc de guichets automatiques bancaires (GAB).

Comment limiter le temps d’indisponibilité de ses 620 guichets automatiques bancaires (GAB), aussi bien en France que dans les DOM-TOM ? C’est de ce besoin exprimé par la Bred, banque du groupe BPCE, qu’est né un projet de machine learning présenté par le data scientist François Simeonidis lors du dernier salon Big Data Paris 2019.
Pour y parvenir, la Data Factory de la banque a fait appel à Dataiku, une entreprise de Service as a platform (SaaS) fondée en 2013 par Florian Douetteau, Marc Batty, Clément Sténac et Thomas Chabrol. Son outil phare : le Data Science Studio (DSS), une plateforme collaborative qui permet aux équipes de data scientists, data analysts, aux directions business ou aux équipes IT de mener leurs projets big data de bout en bout, de la préparation des données jusqu’à l’outil data opérationnel.


Variations d’indisponibilité

François Simeonidis explique : “nous avions une base de relevés d’indisponibilité de nos guichets, et nous souhaitions nous en servir pour améliorer leur gestion et les interventions”. Avec son équipe et Dataiku, ils travaillent sur un Proof of Concept. Dans la proposition : une interface unifiée, une couche de data science, et une autre de data visualisation. Le temps de les chiffrer, de présenter les premiers résultats, puis de livrer : le PoC est prêt 30 jours plus tard. Et les résultats sont probants.

“Les données nous ont permis de constater que, sur la totalité des relevés d’indisponibilité des guichets, la répartition de la durée de ces pannes était très asymétrique”, explique le data scientist, graphique à l’appui. 20% de ces arrêts durent moins de 4 secondes, 40% moins de 2 minutes, et seulement 20% dépassent les 15 minutes. Autre découverte de l’équipe de la Data Factory : ces indisponibilités s’avèrent tout à fait irrégulières dans le temps. “Dans les DOM-TOM, on devine qu’un événement climatique peut avoir des effets sur la mécanique de plusieurs GAB à la fois”, avance l’ingénieur, mais autrement, il reste difficile d’expliquer pourquoi plus de machines tombent en panne en mars 2018 qu’en mars 2017.

Les analystes regroupent alors les GAB par types et par durée d’indisponibilité, et réalisent que 72,25% d’entre eux ne rencontrent que rarement des problèmes. “Sur les autres, les analyses de données ont permis de faire remonter des défauts techniques : certains ont des problèmes de crypteurs, d’autres présentent plutôt des faiblesses de lecture de carte, ou bien de communication avec le réseau”, relate François Simeonidis. Une autre approche a aussi été tentée, en construisant des agrégats d’indisponibilités pour observer si les pannes antérieures permettaient d’anticiper les suivantes, mais cette technique n’a pas fonctionné correctement. “Finalement, nous avons choisi d’établir des seuils de durée d’indisponibilité au delà-desquels nous savons désormais qu’il faut envoyer une équipe réparer le guichet automatique”, ajoute le responsable du projet. Comme certaines indisponibilités de GAB durent moins d’une ou deux secondes, l’équipe a aussi construit des outils de paramétrage pour pouvoir conserver les seules informations de la base de données qui les intéressent, et en évacuer le bruit.


Montée en compétences

Puis est venue l’étape de la mise à l’échelle : la Data Factory utilise alors les fonctionnalités du DSS permettant de séparer le processus en sous-projets, plus simples à produire. La plateforme a aussi permis d’implémenter les différentes approches de l’analyse des données remontées du parc de GAB : le modèle général, mais aussi ceux concernant des sous-populations, par zones géographiques ou selon le mainteneur des machines par exemple. L’outil construit pour ce cas d’usage a été installé en deux fois, d’abord pour le cluster de test, puis pour celui de production.

François Simeonidis souligne le besoin d’y dédier une personne à plein temps pendant les premiers mois d’utilisation, mais aussi la possibilité qu’a offert Dataiku de commencer l’industrialisation dès la phase de prototypage, et la souplesse de sa solution. “Elle nous a notamment permis de gagner du temps dans l’analyse des données et dans les premiers choix de nos paramètres de classification, tout en nous laissant programmer en python ou R quand c’était plus efficace”, indique-t-il.

Plus globalement, le recours aux services de Dataiku a permis à la BRED de structurer les projets de data science, de mieux les suivre, et a favorisé l’acculturation au big data dans l’entreprise. Gilles Demarre, account manager de Dataiku, confirme le constat : plusieurs cas d’usage ont été identifiés par la BRED – des scores d’appétence, des risques d’attrition, ou encore de la lutte contre la fraude, notamment. “Or l’un de nos buts est d’opérer un vrai transfert de compétences vers les utilisateurs du DSS”, explique-t-il. Si, dans un premier temps, Dataiku a envoyé son partenaire Avisia aider à définir les besoins précis de la Data Factory, l’entreprise a ensuite mis sa plateforme à disposition, puis laissé les data scientist et les data analyst en utiliser les fonctions qui les intéressaient. Devant le cas des GAB, Gilles Demarre estime que “les équipes de la BRED ont visiblement gagné en agilité et en rapidité dans la réalisation de leurs projets big data.”


Une rationalisation pour une meilleure exploitation des données


En 2015, la Bred réfléchit à son usage de la data science : elle développe son cluster de données, le couple à des outils de l’écosystème Hadoop – un framework libre et open source qui facilite la fabrication d’applications distribuées et leur mise à l’échelle – tels qu’Apache Spark ou Apache Hive, et réalise ses premiers cas d’usage. En 2018, elle crée une Data Factory pour gérer les projets de data science de la DSI, ainsi que, notamment, ceux des divisions développement et risque et conformité.
“Il est arrivé un moment où nous avions trop d’outils différents pour les maintenir et les utiliser efficacement”, explique Bertrand Ring, en charge de la Data Factory. Par ailleurs, les métiers sont souvent obligés de se tourner vers la DSI pour préparer les données, accéder au cluster correspondant, ou lors de la mise à l’échelle. L’équipe se tourne donc vers Dataiku, dont le Data Science Studio rassemble la majeur partie de ce que d’autres logiciels font séparément. “Il a donné une autonomie nouvelle aux métiers, reconnaît Bertrand Ring. Un autre point positif est l’accent mis par le DSS sur la collaboration, rendue beaucoup plus simple via sa plateforme qu’à coups de mails et de téléphones.”

Grégory Herbert, vice-président Europe continentale de Dataiku, confirme : “notre vision est de sortir l’intelligence artificielle de la boîte noire qu’elle représente. Donc de la rendre explicable, et d’en faciliter la prise en main par les métiers”. C’est l’une des raison pour lesquelles l’entreprise intégrée au DSS des outils comme AutoML, un instrument d’automatisation du machine learning utilisable par des gens qui ne codent pas. “Cela participe à l’acculturation des entreprises au big data”, estime Grégory Herbert.

par Mathilde Saliou

Ravi Menon (Autorité Monétaire de Singapour) : “Les banques manquent d’une vision complète des besoins de leurs clients”

Ravi Menon (Autorité Monétaire de Singapour) : “Les banques manquent d’une vision complète des besoins de leurs clients”

Un article mindFintech

Dans une conférence donnée à la Banque de France en mai 2019, le gouverneur de l’Autorité Monétaire de Singapour a développé sa vision du futur de l’industrie financière. L’évolution du secteur ne peut se faire selon lui sans s’appuyer sur les trois pieds que sont la finance pure, la technologie, et la confiance.

La finance, la technologie et la confiance. C’est sur ces trois piliers que Ravi Menon, Gouverneur de l’Autorité Monétaire de Singapour (AMS), considère que l’évolution de l’industrie financière doit s’appuyer. Car “pour maintenir notre croissance, l’innovation est un passage obligé”, a déclaré lors d’une intervention à la Banque de France le 14 mai 2019 celui qui dirige l’AMS depuis huit ans. De concert avec son homologue français François Villeroy de Galhau, Ravi Menon constate effectivement que l’industrie financière est en butte au ralentissement persistant de l’économie, auquel s’ajoutent “des régulations toujours plus strictes et une compétition accrue”, et qu’il est nécessaire de trouver des leviers pour y répondre.
La finance, donc, coeur de métier, en est un. Mais “les utilisateurs trouvent cette industrie trop compliquée à approcher”. Ravi Menon prévient : “certains commencent même à perdre confiance, à ne plus considérer que les banques sont capables de gérer leur argent !” Un paradoxe qu’il explique notamment par le manque de vision cohérente et complète qu’ont les banques des besoins de leurs clients. Le besoin de s’adapter et celui de mettre l’expérience client au centre des activités sont grands. Et pour y parvenir, la technologie est “un facteur critique de succès” insiste cet ancien secrétaire du ministère des finances singapourien.


Expérience client et interopérabilité

Car l’usage accru des données, les innovations des fintechs et des bigtech, les nouvelles technologies en elles-même permettent d’améliorer l’expérience client, et de la rendre “complète, personnalisable, et sans friction”. C’est aussi avec ce parcours utilisateur en tête que Ravi Menon milite pour l’interopérabilité entre les services imaginés par les acteurs traditionnels comme par les fintechs. Un programme sur lequel l’AMS travaille déjà à sa manière, lorsqu’elle promeut le système de paiement instantané par téléphone PayNow institué par neuf banques de la petite République asiatique, ou via le projet Ubin, qui utilise des technologies de registres distribués pour tester actuellement des échanges transfrontaliers instantanés avec le Canada ou la Thaïlande.
Point de vue business, la technologie permet aussi d’améliorer la gestion du risque et d’améliorer la rentabilité, ne manque pas de souligner le gouverneur de l’AMS. A la question de KPI démontrant l’efficacité de l’usage des technologies pour l’industrie, il cite les coûts de traitement d’un chèque (au moins un dollar pour chaque) et du cash. Ravi Menon vise clairement la disparition du premier et la réduction significative de l’usage du second, “ce qui permettrait de gagner sur les coûts de traitement, de transport des fonds, de sécurité…”


Des modes de régulation voués à évoluer

Mais pour que tout cela fonctionne, le dirigeant de l’AMS, d’un commun accord avec le Gouverneur de la Banque de France, souligne le besoin de travailler la confiance. Gérer le risque cyber pour assurer la pérennité des systèmes est une urgence : “En moyenne, aujourd’hui, il faut 78 jours pour détecter une intrusion. Cela doit changer !” lance-t-il. La sécurité des informations est le pendant de la cybersécurité sur lequel banque et régulateurs doivent aussi se pencher, autant pour des raisons business que pour s’assurer la confiance des clients. “Ce qu’il est socialement acceptable de faire avec des données varie énormément d’un pays à l’autre” note-t-il, soulignant la nécessité de dessine une gouvernance forte sur ces thématiques sur lesquelles “les Etats-Unis et la Chine ne sont pas tellement avancés.”. C’est aussi sur la gestion des risques de l’usage d’intelligence artificielle et du big data qu’il voit se dégager un rôle important pour les régulateurs : “sans confiance envers les règles fixées, envers l’usage et les analyses réalisées, les acteurs financiers n’auront simplement pas la licence, l’autorisation sociale d’utiliser ces données.” Et de citer les règles préliminaires (purement indicatives pour le moment) qu’a établies l’AMS à propos de l’usage de l’intelligence artificielles.
Mais Ravi Menon n’envisage pas l’évolution globale de l’industrie sans accompagnement cohérent des instances régulatrices. Alors que les fintech bousculent le marché en morcelant la chaîne de valeur, le Gouverneur de l’Autorité Monétaire de Singapour imagine donc une régulation morcelée elle aussi, “qui ne s’intéresserait plus à des secteurs financiers entiers, mais bien à chaque activité qui le compose”- et permettre ainsi aux nouveaux entrants de ne demander que les licences qui les intéressent précisément, plutôt que de devoir se plier à des règles pensées pour des institutions aux activités pus larges et plus risquées. Une vision que l’on retrouve déjà dans certains secteurs, celui des paiements notamment : en Europe, où il est possible de ne demander qu’un agrément précis (AISP ou PISP par exemple), mais aussi à Singapour, où la récente loi sur les services de paiement a séparé en 6 chapitres ce qui n’était autrefois régulé que d’un seul tenant.
par Mathilde Saliou

Teaser N°2

Mais que se passe-t-il au Fin&Tech Summit ?

Découvrez ce que vous réserve notre évènement Fin&Tech Summit en visionnant ce deuxième teaser réalisé exclusivement pour vous !

Cécile Wendling (AXA) : “La confiance devient endogame, et c’est un enjeu pour les assureurs”

Cécile Wendling (AXA) : “La confiance devient endogame, et c’est un enjeu pour les assureurs”

Entretien publié par mind Fintech le 6 mars 2019

WENDLING Cécile

Fin janvier 2019, AXA a publié son premier rapport public de prospective. Intitulé “Powering Fast Forward Thinking”, cette étude est un condensé du travail réalisé par le département prospective de l’assureur courant 2018. Entretien avec sa directrice, Cécile Wendling.

Quels sont les grands sujets de prospective qui vous ont occupée en 2018 ?

Nous avons travaillé sur l’avenir des inégalités et sur celui de l’alimentation. Dans tous les cas, nous cherchons à avoir une approche systémique du sujet. Si l’on prend celui de l’alimentation, par exemple, on pense à son impact sur la santé et à la façon dont on pourra gérer les risques associés. AXA assure aussi des agriculteurs : les évolutions environnementales et celles des modes d’alimentation auront certainement un impact sur leurs activités. Nous couvrons aussi des producteurs alimentaires, donc il faut réfléchir à ce que peuvent être les bonnes et mauvaises pratiques dans ces domaines, anticiper les risques qu’ils peuvent provoquer ou rencontrer, etc.

En pratique, qu’avez vous fait pour travailler sur ces sujets ? Comment fonctionne le département prospective d’AXA ?

La prospective est un travail de temps long. C’est aussi un travail transversal : nous étudions aussi bien les évolutions à l’intérieur qu’à l’extérieur de l’entreprise. Nous sommes une équipe de cinq personnes et nous essayons de détecter les signaux faibles de changements profonds à venir. Comme nous disposons de très peu de données pour évaluer ces signaux, nous utilisons surtout des modèles qualitatifs. Nous les alimentons de nos lectures de livres et d’études, de nos entretiens avec des experts, et de nos liens fréquents avec le fonds d’AXA pour la recherche, et les départements chargés de l’innovation, des risques émergents ou encore de la stratégie.
Nos échanges nous permettent d’identifier une liste de sujets dont on pense qu’ils vont le plus modifier le monde – et les activités de l’entreprise – à un horizon de dix ans. Cela nous permet de fournir deux études par an, destinées à un usage interne, dans lesquelles nous classons nos résultats en fonction des quatre volets chers à Axa : évolutions socio-économiques, environnement, santé et innovations technologiques. Récemment, nous avons aussi décidé de rendre une partie de notre travail publique car nous estimons qu’il peut être utile à tous. C’est la raison pour laquelle nous avons publié notre trendbook et que nous commençons à organiser des évènements.

Dans le podcast Sismique, vous évoquez la nécessité pour le prospectiviste d’aller à l’encontre de schémas dominants. Qu’entendez-vous par là ?

Lorsqu’ils arrivent dans une organisation pour évoquer un nouveau point d’enquête, les prospectivistes s’entendent souvent répondre “ce n’est pas un sujet” par les métiers. C’est normal : au quotidien, les salariés ont un flux de priorités et d’actions à réaliser, et nous venons leur demander de faire un pas de côté. On vient bousculer leurs schémas. C’est pour cela qu’il y a cinq ans, on me regardait avec des yeux ronds lorsque j’évoquais la possibilité de voitures autonomes ; c’était de la science-fiction. Mais aujourd’hui, on réfléchit au moyen d’assurer l’usage de ce type de transport.

Il vous arrive aussi d’évoquer l’évolution de la confiance. De quoi s’agit-il et quel est l’impact pour les assureurs ?

La confiance a tendance à devenir endogame. C’est-à-dire que de plus en plus, les gens ne font confiance qu’à ceux qui pensent comme eux, qui font partie de leur “bulle de filtre”, pour reprendre une expression popularisée par l’usage des réseaux sociaux. Cela a pour effet une diminution de la cohésion sociale puisque l’on écoute de moins en moins ceux qui nous sont différents.
C’est un réel sujet pour les assureurs parce que leur métier repose sur la confiance. Et que si, en prenant l’exemple des vaccins, tout un pan de la clientèle est sur un même type de groupe Facebook où l’on dit que les vaccins sont mauvais pour la santé, ces personnes feront confiance à cette idée, se déconnecteront d’une analyse croisée des points de vue d’experts, de scientifiques, de politiques qui expliquent l’intérêt des vaccins, et leur santé sera potentiellement en danger. Par ailleurs, ce phénomène peut venir compliquer la relation de confiance que l’assureur essaie de créer avec son client.

Vous êtes directrice du département de prospective d’Axa depuis cinq ans. Dans quelle mesure suivez-vous si les scénarios que vous aviez envisagés pour les sujets des années passées se sont effectivement déroulés ?

Une fois notre étude terminée, nous commençons par réaliser des workshops avec les entités des pays où AXA est présent, afin de voir comment elle réagissent. Tout ne peut pas mener à des expérimentations ou à des cas pratiques, et ces derniers peuvent varier selon le contexte social, économique ou environnemental dans lequel baigne l’entité. Pour un suivi de plus long terme, notre équipe a développé le foresight radar. Celui-ci consiste à noter à la fois en interne et en externe ce qui s’est effectivement traduit par des actions, des changements, des modifications, et ce qui ne l’a pas été.

Avez-vous des exemples de dossiers de prospective qui ont mené à des décisions prises à l’échelle de toute l’entreprise ?

En 2015, par exemple, AXA a décidé de sortir du charbon [de se désinvestir des entreprises qui tirent plus de de 50% de leur chiffre d’affaires du charbon, puis, depuis 2017, plus de 30% de leur CA, ndlr]. C’était une action logique, car s’inquiéter des risques que provoque la détérioration de l’environnement, des besoins que cela crée en termes de santé, mais continuer d’investir dans des industries qui provoquent ces problèmes, n’aurait pas eu de sens. Dans le même esprit, nous sommes retirés du tabac en 2016.
Cette ligne de conduite a été maintenue lorsque nous avons changé de directeur général, et lorsque AXA a racheté XL, nous lui avons imposé les mêmes règles. C’est important parce que cela donne une forme d’exemple à suivre. On se doute bien que ça n’empêche pas d’autres acteurs de souscrire aux risques d’entreprises dont les pratiques sont néfastes pour l’environnement. Mais on peut commencer par travailler sur nous-mêmes et rendre publics certaines décisions et les sujets sur lesquels on estime important de travailler. C’est un préalable nécessaire à la constitution d’alliances et d’associations.

A quoi doivent servir ces alliances ?

Si l’on veut réellement initier des changements, on est beaucoup plus efficace en concluant des partenariats avec d’autres acteurs, qu’ils soient professionnels, institutionnels, etc. C’est à travers ces actions collectives que les grands groupes peuvent avoir un impact dans le monde.
A mon avis, créer des entités sur des sujets précis, sur l’éthique des intelligence artificielles par exemple, peut aussi permettre de mieux atteindre les clients. Car à l’heure actuelle, ils se posent peu la question de savoir si leurs assureurs sont responsables ou pas. Ils réfléchissent à la responsabilité des entreprises lorsqu’ils achètent de la nourriture ou des vêtements, alors pourquoi ne pas le faire quand ils souscrivent des assurances ?

Parmi les focus thématiques sur lesquels vous aviez travaillé, pourriez-vous nous présenter quelques-uns des signaux faibles que vous avez relevés dans la santé ?

Nous avons étudié la santé des femmes. Nous nous sommes rendus compte que tout un pan des nouvelles technologies, des “femtech”, avait été construit pour elles. Et qu’il répond à une différence préexistante entre les traitements réservés aux hommes et aux femmes : les maladies propres à ces dernières sont moins bien étudiées, ou alors elle connaissent mal leurs symptômes, en cas d’AVC par exemple, pour la bonne et simple raison que l’on a moins communiqué sur le sujet.
Un autre domaine est celui de la santé de pair-à-pair, ces réseaux interpersonnels qui peuvent permettre aux parents d’enfants atteints de maladies rares de s’aider plus efficacement qu’auparavant. Ou bien aux médecins installés dans des déserts médicaux de pouvoir échanger plus et mieux avec leurs collègues. Et nous avons travaillé sur les health data hubs, ces dépôts de données non personnelles de santé pensés, au Royaume-Uni ou en Israël notamment, pour améliorer la santé dans un domaine ou une région précise.

Et du côté des nouvelles technologies ?

Nous nous sommes intéressés à la voix, qui recouvre plein de questions : quelle voix donne-t-on à AXA ? Les enceintes connectées permettent de récupérer certaines données : que collecte-t-on ? Comment ? L’affective computing est une autre tendance qui nous a occupés, avec là encore des questions sonores : un chercheur a réussi à mettre au point un filtre qui permet de pousser l’auditeur à faire confiance à la voix qu’il entend. Qu’est-ce que ça implique ?
Nous avons aussi étudié le quantum computing, la façon dont il peut aider ou menacer la cyber-assurance, ce que cela demande en termes d’évolutions cryptographiques, etc. Et enfin le mouvement data for good, et son dérivé give data back, dans lequel les assureurs peuvent se révéler très utiles. Dans ce cas là, il s’agit de redonner une partie des données collectées à la communauté. Par exemple, au Mexique, AXA est en mesure de dire quelles sont les routes les plus dangereuses. Elle a rendu ces données publiques afin que, si la collectivité décide de faire les travaux correspondants, elle puisse déterminer facilement quel chantier est le plus urgent. On peut imaginer plein d’autres usages à ce type de retour de données : fournir des cartographies sur les types de fuite d’eau constatés le plus souvent par quartier, ou les types de cambriolage les plus récurrents dans une zone géographique.

A quelle tendance globale les assureurs devraient-ils s’intéresser ?

A mon avis, il faut s’intéresser aux jeux vidéos. Les communautés de gamers se professionnalisent, et même sans en arriver là, il y a de nombreux sujets autour des “biens immatériels”, des digital assets, ou quelle que soit la manière dont on finira par les appeler. Il y a à la fois des enjeux de paiement – des joueurs qui veulent transférer l’argent obtenu dans un jeu vers un autre – des enjeux de propriété – on m’a encore parlé récemment de personnes qui avaient conquis un “terrain virtuel” et cherchaient des moyens de se l’approprier pour de bon – des questions qui recoupent celles de la mort numérique aussi. Si un joueur décède, doit-on lui organiser des funérailles numériques ? Après tout, la pratique existe déjà dans certaines communautés de gamers.


par Mathilde Saliou