L'intelligence artificielle et le secteur financier : analyse des enjeux et opportunités avec Laurence Van Meerhaeghe, Data Expert chez Febelfin

Tenez-vous au courant des dernières avancées dans le secteur

25 mars 2025 - 9 min de lecture

L’adoption accrue des nouvelles technologies, dont l’intelligence artificielle (IA), transforme de nombreux secteurs, y compris celui de la finance. Laurence Van Meerhaeghe, Senior Legal Counsel et Data Expert chez Febelfin, discute de ce que cela représente pour les banques en termes de nouveautés, de défis et d’opportunités. 

 

1. Tout d’abord, Laurence, peux-tu te présenter en quelques mots et nous expliquer en quoi consiste ton rôle chez Febelfin ?

 

Je suis juriste de formation et passionnée de droit. Avant de rejoindre le département juridique d’une banque en 2015, j’ai d’abord été avocate au Barreau de Bruxelles pendant plus de huit ans. Depuis septembre 2020, je travaille chez Febelfin, où je surveille les développements réglementaires nationaux et européens, analyse leurs impacts potentiels et prépare le secteur à leur mise en œuvre. Spécialisée dans les questions juridiques liées aux données, allant de la protection des données personnelles aux nouvelles technologies, j'ai également obtenu un executive master en droit et intelligence artificielle pour rester à jour.

 

2. C’est quoi exactement l’IA ? Est-ce qu’on parle d’une IA ou y a-t-il différents types d’IA ? Est-ce vraiment une révolution ?

 

On a tendance à résumer l’IA à ChatGPT, alors que c’est plus vaste que cela. L'intelligence artificielle (IA) est un terme générique qui englobe diverses technologies, allant des algorithmes de base aux systèmes complexes d'apprentissage profond et d'IA générative. L'IA regroupe plusieurs types de systèmes en fonction de leurs objectifs (prédiction, prise de décision, etc.) et de la manière dont ils sont programmés et entraînés. Bien que les technologies d'IA existent depuis des décennies, leur adoption a récemment accéléré grâce à l'augmentation de la puissance de calcul des ordinateurs, la croissance des données générées (réseaux sociaux, objets connectés) et les avancées en recherche et développement qui ont amélioré les algorithmes.

 

3. Quels sont des exemples concrets d’applications de l’IA au sein du secteur financier ?

 

Dans les back offices, certaines applications peuvent ou pourraient être utilisées pour assurer des tâches plus répétitives comme la récolte et la vérification de documents. Cela pourrait améliorer la gestion des risques rendue plus rapide et efficace (moins d’erreurs humaines).

Dans la relation/communication avec les clients, l’utilisation de chatbots et d’assistants virtuels permet de répondre rapidement à des questions simples, ce qui rassure le client directement..  

En matière de fraude, des applications peuvent aider à détecter des fraudes ou des transactions suspectes.

 

4. L’intégration de l’IA dans le secteur financier apporte son lot d’opportunités, mais aussi de défis. Quels sont ces défis et comment les banques belges abordent-elles ceux-ci ?

 

Comme pour toutes les découvertes (feu, électricité…), l’IA offre des avantages significatifs et comporte aussi des dangers.

Les principaux défis qui sont pointés du doigt sont liés à la sécurité, à la protection de la vie privée, à la transparence des systèmes et à l’éthique (biais).

Les banques belges traitent déjà ces défis de plusieurs manières. Tout d’abord, elles appliquent des réglementations strictes, comme l’AI Act (Règlement européen sur l'intelligence artificielle) mais aussi le Règlement Général sur la Protection des Données (RGPD), qui vise la protection des données à caractère personnel et qui s’applique aux systèmes d’IA qui fonctionnent à base de données. Par ailleurs, il existe d’autres nombreuses législations belges et européennes qui s’appliquent au secteur et qui couvre d’une manière ou d’une autre ces éléments (AML, PSD...).

Ensuite, les banques disposent de services internes qui suivent les évolutions que l'IA implique dans leurs domaines respectifs, comme les départements juridiques, compliance, IT, gestion des risques et audit. Certaines institutions ont même constitué des comités ou groupes de réflexion dédiés à l'IA, par exemple pour discuter des questions éthiques. Enfin, les banques forment leur personnel à l'utilisation correcte des systèmes d'IA. Ceci est essentiel pour garantir que les employés comprennent les technologies qu'ils utilisent et les exploitent de manière correcte et sécurisée.

Un défi, qui est plus général, concerne la sensibilisation de la société.  Il est, en effet, crucial d’informer et de sensibiliser le public à l’utilisation aux nouvelles technologies pour leur permettre de mieux identifier les avantages et de faire face aux potentiels dangers. Ce travail est un travail collectif.

 

5. D’un point de vue légal, l’AI Act est entré en vigueur en août 2024. Pourquoi a-t-on estimé qu’un Règlement sur l’IA était nécessaire, n’y avait-il pas de cadre juridique ou existe-t-il déjà des lois ? Quelles protections va-t-elle apporter ?

 

Avec l’AI Act, l’Europe a voulu harmoniser les règles concernant la fabrication, la mise sur le marché et l’utilisation de l’IA au sein de l'Union européenne. L’objectif est d’assurer la confiance, le respect des droits fondamentaux, la santé et la sécurité des citoyens européens.

Il classe les systèmes d’IA en trois catégories. Les systèmes interdits concernent plus spécifiquement des « pratiques », qui s’appuient sur des systèmes d’IA, et qui sont considérées comme étant tellement risquées qu’elles sont prohibées. Ces pratiques incluent, par exemple, la manipulation des comportements, l'exploitation des vulnérabilités des individus, et la reconnaissance faciale biométrique à distance et en temps réel dans des espaces publics par les autorités.

Ensuite, il y a les systèmes à haut risque, dont l'impact est considéré comme potentiellement élevé dans des domaines considérés comme sensibles. C’est le cas pour la santé, la justice, l'éducation, le travail, certains services (ex. credit scoring), le maintien de l'ordre, et les infrastructures critiques. Ces systèmes sont soumis à des exigences strictes de gestion des risques et de contrôle humain.

Enfin, les systèmes à risque limité sont ceux dont l'impact est considéré comme limité et pour lesquels des exigences moins lourdes sont prévues (transparence).

Certaines dispositions de l’AI Act sont entrées en vigueur en février 2025, notamment celles concernant les systèmes interdits et la définition du système d’IA.

 

6. Les clients et les consommateurs doivent-ils craindre l’IA ?

 

L'IA présente de nombreux avantages, mais suscite aussi des préoccupations. Il est légitime d’avoir certaines craintes. Mais dans ce contexte, il est crucial de se méfier de la désinformation et de se renseigner par des sources fiables.

Aujourd’hui, la digitalisation croissante de la société implique la nécessité pour les consommateurs de s’informer et d’être acteurs proactifs de ces évolutions, et ce, pour justement ne pas perdre le contrôle et pouvoir utiliser les nouvelles technologies en toute sécurité. Dans ce contexte, il est important de veiller à l'inclusion de ceux qui n'ont pas accès aux ressources suffisantes. Sensibiliser tout le monde est crucial pour éviter les malentendus et les peurs infondées.

 

7. Comment l’IA est-elle utilisée dans la lutte contre la fraude bancaire ? 

 

La détection des transactions frauduleuses fonctionne déjà à l’aide d’applications de type « IA ». D’autres applications pourraient être utilisées, mais cela doit toujours se faire en conformité avec le cadre juridique qui s’applique au secteur. Cette nécessaire conformité du secteur à plusieurs règlementations belges et européennes peut parfois représenter un défi pour l’adoption de solutions innovantes.  

 

8. En quoi l’IA peut-elle améliorer l’accessibilité bancaire ?

 

L’IA a le potentiel de transformer l’accessibilité bancaire de plusieurs façons.

En rendant certains services plus agiles et flexibles, il devient possible de personnaliser davantage les services, ce qui permettrait de répondre aux besoins spécifiques de certains groupes.