IA & Banque : quelle plateforme pour assurer performance et souveraineté ?

Les DSI de la banque le savent bien, innovation et réglementation ne sont pas toujours les meilleures amies. Mais comme nous l’explique Florian Caringi, Manager Big Data & Data Architecture du Groupe BPCE, en matière d’IA, il est possible de mettre en œuvre une plateforme qui offre toutes les ressources nécessaires à l’exécution des modèles, tout en répondant aux exigences de conformité.

– Par Florian Caringi, Manager Data AI Plateform & Architecture, Leader Open Source, Groupe BPCE

Nous avons vu dans la première partie de cette série d’articles à quoi peut bien servir l’intelligence artificielle dans le secteur bancaire (et pourquoi la banque est bien positionnée pour en tirer parti).

Répondons ici à une deuxième question : quelle plateforme mettre en œuvre pour prendre en charge ces nouveaux usages ?

Et pour cela, reprenons rapidement l’historique. Pour suivre le rythme du big data, nous avons eu besoin ces dernières années de déployer davantage de compute et de stockage. Ensuite, pour répondre aux besoins d’accès aux données, nous avons mis en place des outils BI (Business Ingelligence). Puis est venu le move-to-cloud, pour gagner en agilité. Aujourd’hui, l’IA demande de faire évoluer à nouveau le stack technique pour intégrer un nouveau composant : le GPU.

Comment mettre à disposition ces nouvelles capacités de calcul en essayant de conserver le même outillage pour les data scientists ?

Le cloud, l’étagère et le conteneur

La question du cloud revient assez rapidement sur le tapis. Vaut-il mieux utiliser des services cloud, comme des applications en mode SaaS ou du IaaS de type GPU-as-a-Service, ou utiliser sa propre infrastructure ?

Même la banque, secteur ô combien réglementé, a fait évoluer sa position vis-à-vis du cloud. La politique du château-fort, qui consistait à dresser des murs infranchissables autour du système d’information, a laissé place à un contrôle plus granulaire des flux entrant et sortant. Le cloud est aujourd’hui une évidence pour certains usages. On ne se pose par exemple plus la question pour Microsoft 365.

Mais certaines données, et donc particulièrement dans le secteur bancaire, ne peuvent tout simplement pas aller dans le cloud, pour des raisons de sécurité et de conformité. Par ailleurs, l’IA n’est pas qu’une question de plateforme, mais aussi de compétences. Disposer en interne des personnes capables de gérer de tels systèmes est un gage de souveraineté pour les banques qui réduisent ainsi leur dépendance vis-à-vis des fournisseurs.

Dans ce cas, quid des innovations disponibles sur étagère dans le cloud ? L’un des atouts du cloud est sa capacité à proposer des services innovants de manière extrêmement simple. Impossible aujourd’hui pour une équipe data de proposer un service de piètre qualité à des utilisateurs qui peuvent très facilement trouver ce dont ils ont besoin à l’extérieur. Qu’on se rassure, l’on-prem n’est évidemment pas incompatible avec l’innovation. L’une des réponses est dans la conteneurisation. Il existe en effet aujourd’hui des services de Cloud Providers que l’on peut exécuter en interne, en rapatriant la technologie sous forme de conteneurs.

Pour les organisations qui ont déjà un stack big data maîtrisé, il est donc possible de la faire évoluer et de capitaliser sur cet investissement, en adoptant la technologie Kubernetes par exemple. Et cerise sur le gâteau, cela évite également de multiplier les silos de données en provisionnant différents services cloud chez différents fournisseurs.

Serveurs, GPU, conteneurs, fédérer l’écosystème de la data

Pour les organisations qui devraient se doter d’une nouvelle infrastructure, il y aura deux grandes écoles. En fonction de la taille de l’organisation, des compétences présentes en interne et de la capacité d’investissement, il est possible d’acquérir simplement les infrastructures avec les bonnes configurations et de prendre en charge toutes les différentes couches de déploiement, intégration et gestion au-dessus.

Mais c’est un modèle qui ne conviendra pas à toutes les entreprises. Une solution de type appliance, intégrant une plateforme validée, l’outillage et les services de mise en œuvre associés, peut permettre de répondre aux enjeux de plateforme et aux enjeux applicatifs en une seule fois.

Une troisième voie est de faire appel à un fournisseur qui sera capable de fédérer autour de lui tout l’écosystème nécessaire à la mise en place de la plateforme. J’ai eu l’occasion par exemple de travailler avec Dell, qui a pu nous mettre en relation avec les équipes NVIDIA, pour toutes les questions liées au GPU, et avec celles de Red Hat, pour les sujets liés à la conteneurisation. Cela nous a permis de réunir tous les acteurs autour de la même table pour nous accompagner dans le projet, tout en conservant la pleine maîtrise de notre infrastructure.

Et la maîtrise de nos données ? On en parle dans le prochain article !

About the Author: Florian Caringi

Florian Caringi est Manager Data AI Plateform & Architecture, Leader Open Source au sein du Groupe BPCE.