25 mars 2025 - 9 min de lecture
L’adoption accrue des nouvelles technologies, dont l’intelligence artificielle (IA), transforme de nombreux secteurs, y compris celui de la finance. Laurence Van Meerhaeghe, Senior Legal Counsel et Data Expert chez Febelfin, discute de ce que cela représente pour les banques en termes de nouveautés, de défis et d’opportunités.
Je suis juriste de formation et passionnée de droit. Avant de rejoindre le département juridique d’une banque en 2015, j’ai d’abord été avocate au Barreau de Bruxelles pendant plus de huit ans. Depuis septembre 2020, je travaille chez Febelfin, où je surveille les développements réglementaires nationaux et européens, analyse leurs impacts potentiels et prépare le secteur à leur mise en œuvre. Spécialisée dans les questions juridiques liées aux données, allant de la protection des données personnelles aux nouvelles technologies, j'ai également obtenu un executive master en droit et intelligence artificielle pour rester à jour.
On a tendance à résumer l’IA à ChatGPT, alors que c’est plus vaste que cela. L'intelligence artificielle (IA) est un terme générique qui englobe diverses technologies, allant des algorithmes de base aux systèmes complexes d'apprentissage profond et d'IA générative. L'IA regroupe plusieurs types de systèmes en fonction de leurs objectifs (prédiction, prise de décision, etc.) et de la manière dont ils sont programmés et entraînés. Bien que les technologies d'IA existent depuis des décennies, leur adoption a récemment accéléré grâce à l'augmentation de la puissance de calcul des ordinateurs, la croissance des données générées (réseaux sociaux, objets connectés) et les avancées en recherche et développement qui ont amélioré les algorithmes.
Dans les back offices, certaines applications peuvent ou pourraient être utilisées pour assurer des tâches plus répétitives comme la récolte et la vérification de documents. Cela pourrait améliorer la gestion des risques rendue plus rapide et efficace (moins d’erreurs humaines).
Dans la relation/communication avec les clients, l’utilisation de chatbots et d’assistants virtuels permet de répondre rapidement à des questions simples, ce qui rassure le client directement..
En matière de fraude, des applications peuvent aider à détecter des fraudes ou des transactions suspectes.
Comme pour toutes les découvertes (feu, électricité…), l’IA offre des avantages significatifs et comporte aussi des dangers.
Les principaux défis qui sont pointés du doigt sont liés à la sécurité, à la protection de la vie privée, à la transparence des systèmes et à l’éthique (biais).
Les banques belges traitent déjà ces défis de plusieurs manières. Tout d’abord, elles appliquent des réglementations strictes, comme l’AI Act (Règlement européen sur l'intelligence artificielle) mais aussi le Règlement Général sur la Protection des Données (RGPD), qui vise la protection des données à caractère personnel et qui s’applique aux systèmes d’IA qui fonctionnent à base de données. Par ailleurs, il existe d’autres nombreuses législations belges et européennes qui s’appliquent au secteur et qui couvre d’une manière ou d’une autre ces éléments (AML, PSD...).
Ensuite, les banques disposent de services internes qui suivent les évolutions que l'IA implique dans leurs domaines respectifs, comme les départements juridiques, compliance, IT, gestion des risques et audit. Certaines institutions ont même constitué des comités ou groupes de réflexion dédiés à l'IA, par exemple pour discuter des questions éthiques. Enfin, les banques forment leur personnel à l'utilisation correcte des systèmes d'IA. Ceci est essentiel pour garantir que les employés comprennent les technologies qu'ils utilisent et les exploitent de manière correcte et sécurisée.
Un défi, qui est plus général, concerne la sensibilisation de la société. Il est, en effet, crucial d’informer et de sensibiliser le public à l’utilisation aux nouvelles technologies pour leur permettre de mieux identifier les avantages et de faire face aux potentiels dangers. Ce travail est un travail collectif.
Avec l’AI Act, l’Europe a voulu harmoniser les règles concernant la fabrication, la mise sur le marché et l’utilisation de l’IA au sein de l'Union européenne. L’objectif est d’assurer la confiance, le respect des droits fondamentaux, la santé et la sécurité des citoyens européens.
Il classe les systèmes d’IA en trois catégories. Les systèmes interdits concernent plus spécifiquement des « pratiques », qui s’appuient sur des systèmes d’IA, et qui sont considérées comme étant tellement risquées qu’elles sont prohibées. Ces pratiques incluent, par exemple, la manipulation des comportements, l'exploitation des vulnérabilités des individus, et la reconnaissance faciale biométrique à distance et en temps réel dans des espaces publics par les autorités.
Ensuite, il y a les systèmes à haut risque, dont l'impact est considéré comme potentiellement élevé dans des domaines considérés comme sensibles. C’est le cas pour la santé, la justice, l'éducation, le travail, certains services (ex. credit scoring), le maintien de l'ordre, et les infrastructures critiques. Ces systèmes sont soumis à des exigences strictes de gestion des risques et de contrôle humain.
Enfin, les systèmes à risque limité sont ceux dont l'impact est considéré comme limité et pour lesquels des exigences moins lourdes sont prévues (transparence).
Certaines dispositions de l’AI Act sont entrées en vigueur en février 2025, notamment celles concernant les systèmes interdits et la définition du système d’IA.
L'IA présente de nombreux avantages, mais suscite aussi des préoccupations. Il est légitime d’avoir certaines craintes. Mais dans ce contexte, il est crucial de se méfier de la désinformation et de se renseigner par des sources fiables.
Aujourd’hui, la digitalisation croissante de la société implique la nécessité pour les consommateurs de s’informer et d’être acteurs proactifs de ces évolutions, et ce, pour justement ne pas perdre le contrôle et pouvoir utiliser les nouvelles technologies en toute sécurité. Dans ce contexte, il est important de veiller à l'inclusion de ceux qui n'ont pas accès aux ressources suffisantes. Sensibiliser tout le monde est crucial pour éviter les malentendus et les peurs infondées.
La détection des transactions frauduleuses fonctionne déjà à l’aide d’applications de type « IA ». D’autres applications pourraient être utilisées, mais cela doit toujours se faire en conformité avec le cadre juridique qui s’applique au secteur. Cette nécessaire conformité du secteur à plusieurs règlementations belges et européennes peut parfois représenter un défi pour l’adoption de solutions innovantes.
L’IA a le potentiel de transformer l’accessibilité bancaire de plusieurs façons.
En rendant certains services plus agiles et flexibles, il devient possible de personnaliser davantage les services, ce qui permettrait de répondre aux besoins spécifiques de certains groupes.