IA & Banque : pourquoi le secteur a un temps d’avance

La data n’est pas un sujet nouveau dans la banque. Comme le souligne Florian Caringi, Manager Big Data & Data Architecture du Groupe BPCE, même si l’intelligence artificielle apporte son lot de nouveaux défis, les établissements bancaires sont armés pour les relever et mettre en œuvre des usages innovants.

– Par Florian Caringi, Manager Data AI Plateform & Architecture, Leader Open Source, Groupe BPCE

On recommence, mais en mieux ! L’arrivée de l’intelligence artificielle dans nos systèmes d’information rappelle immanquablement ce que nous avons vécu il y a un peu moins de 10 ans, lorsque tout le monde parlait de big data et que la donnée était « le nouvel or noir ».

À l’époque déjà, deux grands défis se présentaient à nous : celui de la qualité des données et celui de l’industrialisation des modèles. Aujourd’hui, l’IA a remplacé le big data dans les conversations, mais la qualité et l’industrialisation sont toujours des enjeux de premier plan.

Les LLM, le nouveau nouvel or noir ?

Sauf que nous ne repartons pas de zéro. Beaucoup a été fait dans le secteur bancaire ces dernières années pour exploiter cet or noir. Entre 2015 et 2020, nous avons déployé le socle technique permettant aux utilisateurs d’aller stocker, « processer » ou mettre à disposition de la donnée, mais également mis en place des politiques de gouvernance, avec notamment l’apparition de la notion de domaine métier, où chaque domaine est responsable de la donnée qu’il apporte et peut utiliser la plateforme selon ses besoins.

À partir de 2021, à la sortie de la crise sanitaire, l’ère de la « data science » est celle de l’accès à la demande et voit la mise en œuvre d’un nouvel outillage au-dessus des plateformes permettant d’activer la donnée. L’un des sujets majeurs a été de fédérer les accès à la donnée dans un environnement multicloud. En tant qu’OIV (Opérateur d’Importance Vitale), les banques doivent conserver certains pans du SI on-prem. Mais les services cloud ont également de la valeur pour certaines applications, ce qui a entraîné la création de différents silos data complexes à gérer.

Et nous voici face à l’arrivée des LLM, les grands modèles de langages, pour lesquels il faut ouvrir de nouveaux accès à la donnée et garantir la qualité de cette donnée, tout en respectant les exigences en matière de sécurité et de confidentialité.

Pour résumer la situation data, nous sommes aujourd’hui face à des interrogations pas si nouvelles en matière d’IA, dans un environnement réglementaire toujours contraignant, mais avec l’expérience et l’outillage des dernières années pour y répondre.

Trouver l’information pertinente dans les corpus documentaire

La première question que tout le monde se pose concernant l’IA : pour quoi faire ? Il y a une infinité d’usages que chacun pourra explorer, mais dans la banque, je vois deux grands sujets se dégager : le documentaire et le développement.

Le premier est un sujet commun à beaucoup d’organisations : faciliter la recherche d’informations pertinentes dans un corpus documentaire de plus en plus important. Les établissements bancaires ont des solutions de GED, des documents Back ou Middle Office, de la documentation fonctionnelle ou juridique… Nous avions déjà mené des projets de NLP (Natural Language Processing, ou Traitement du Langage Naturel) il y a quelques années pour faciliter la recherche.

L’IA générative permet d’aller plus loin en entrant dans une logique conversationnelle, en l’intégrant directement à l’outillage des utilisateurs et en allant jusqu’à créer les contenus pour les métiers, dans le département marketing par exemple.

Dans un second temps, cela permet de répondre à un autre enjeu, commun cette fois à tous les acteurs du retail : améliorer l’expérience client. Les chatbots déjà en place manquent souvent d’humanité et peuvent vite se trouver à court de réponse si l’on sort du schéma conversationnel prédéfini. Avec l’IA générative, on n’indique pas au bot quelle réponse apportée à quelle question. C’est l’IA qui va générer la bonne réponse en analysant la donnée à sa disposition. D’où l’importance de garantir la qualité de cette donnée !

L’IA générative au secours du legacy

L’autre grand volet est plus technique. On a souvent tendance à l’oublier, mais il peut avoir une immense valeur !

Les banques ont des systèmes d’information complexes et doivent composer avec un legacy très important (ça, impossible de l’oublier). Au fil des années, une perte de connaissance peut se produire, avec des développements pas toujours parfaitement documentés, ce qui peut rendre très compliquée une évolution ou une migration vers un autre environnement.

Dans cette situation, les LLM permettent de faire du rétro-engineering et d’expliquer par exemple à quoi sert une ligne de code. Les modèles peuvent également indiquer très rapidement comment coder telle ou telle fonction pour faire évoluer le programme.

Ces exemples qui, même si je suis convaincu qu’ils parleront à nombre de DSI du secteur, sont évidemment loin de représenter toute l’étendue du potentiel de l’intelligence artificielle dans la banque, nous amène à la question suivante : quelle plateforme mettre en œuvre pour exécuter ces nouveaux workloads ?

Je vous donne rendez-vous dans la seconde partie de cette série pour parler infrastructure, cloud, performance et souveraineté !

About the Author: Florian Caringi

Florian Caringi est Manager Data AI Plateform & Architecture, Leader Open Source au sein du Groupe BPCE.