AccueilActualités informatiqueChangement de jeu : l'IA explicative - une arme miracle pour les...

Changement de jeu : l’IA explicative – une arme miracle pour les régulateurs ?

Quand les institutions financières envisagent d’utiliser l’intelligence artificielle, la réglementation est souvent un casse-tête pour elles car les décisions de l’IA ne sont généralement pas compréhensibles. Mais il existe une solution.

Les méthodes d’utilisation de l’IA sont variées, telles que les réseaux neuronaux, les arbres de décision, les forêts aléatoires, les régressions, etc. En général, en choisissant le bon algorithme d’entraînement, des résultats prometteurs peuvent être obtenus, en particulier pour les fournisseurs de services financiers. Cependant, selon la complexité et la structure de l’algorithme d’entraînement choisi, les résultats obtenus ou les prévisions sont souvent difficiles à comprendre.

Dans le cadre de la troisième vague d’IA, la validation des résultats de l’IA, appelée Explicable IA, est étudiée en particulier. Cela se concentre notamment sur la compréhension rétrospective des éléments de décision locaux d’un modèle complexe et non sur le développement d’un modèle transparent qui peut déjà révéler par sa structure comment certaines prévisions ou décisions sont calculées. Des premières conclusions, par exemple grâce à l’algorithme LIME, sont déjà utilisées aujourd’hui pour identifier les failles dans les modèles et leurs données sous-jacentes, pour améliorer les modèles rétroactivement et pour vérifier les décisions critiques.

Cette nouvelle étape de l’IA semble jusqu’à présent avoir peu d’impact sur le monde financier, bien qu’elle résolve un problème central : la satisfaction des exigences réglementaires. Les appréhensions quant à l’introduction de l’IA sont encore trop grandes, le niveau de risque et le savoir-faire dans la plupart des institutions sont trop faibles. Quelle place pratique la validation rétrospective des résultats des modèles occupe-t-elle réellement dans le monde de la finance ? – Un bref aperçu.

Sommaire

La compréhensibilité des modèles est explicitement demandée par la BaFin

Pour 42 % des banques, les obstacles réglementaires dans les affaires courantes sont un défi important et coûteux. Cela ressort d’une étude de Capgemini en novembre 2020, qui souligne notamment les strictes exigences de la BaFin pour les institutions financières. Les fournisseurs de services financiers dépendent donc fortement des directives du régulateur, même pour l’introduction de nouveaux produits et modèles commerciaux.

Cela s’applique particulièrement aux processus et décisions techniquement assistés. La BaFin a déjà constaté en juin 2018 dans une étude sur l’utilisation de l’IA que la compréhension rétrospective des décisions prises doit être garantie, en particulier dans les applications critiques. Cependant, cela ne peut être garanti que pour quelques rares algorithmes d’entraînement qui ont une faible complexité et qui soutiennent ainsi une procédure d’entraînement transparente, par exemple les arbres de décision. Une valeur ajoutée réelle est toutefois créée principalement par l’utilisation de méthodes d’entraînement plus profondes, qui, en tant que telles, ne donnent tout d’abord aucun aperçu du processus de décision en raison du soi-disant principe de la boîte noire.

Lors d’une étude menée en 2020 par le cabinet de conseil PwC sur l’IA dans le secteur financier, avec 151 décideurs de l’industrie financière interrogés, 27 % des répondants ont indiqué considérer ce problème de boîte noire comme un obstacle à l’introduction et à la maintenance des systèmes d’IA.

Cela montre que pour pouvoir utiliser des modèles rentables dans les banques, il est nécessaire de garantir que les décisions prises par l’IA peuvent être expliquées rétrospectivement. Bien que cela ne puisse être garanti que par des approches locales qui peuvent expliquer une décision spécifique après coup, mais pas par des principes globaux qui expliquent le fonctionnement de l’ensemble du modèle. L’IA Explicable comble ainsi le fossé entre la nécessité d’algorithmes d’entraînement complexes et l’exigence réglementaire de pouvoir prouver le fonctionnement pour des décisions individuelles.

Les éclaircissements nécessaires vis-à-vis du client ne sont souvent pas possibles

Selon une autre étude menée par PwC en 2020, 63 % des dirigeants d’entreprise ont des préoccupations concernant la protection des données lors de l’utilisation d’algorithmes d’IA, car seules certaines caractéristiques peuvent être utilisées pour obtenir des informations pendant la formation des modèles. Outre la limitation légale de l’utilisation d’une base de données spécifique, les fournisseurs de services financiers doivent également respecter une autre directive dans le contact direct avec le client, à savoir le RGPD. Selon cette directive, chaque client a droit à des informations sur les raisons d’une décision, mais surtout sur l’utilisation appropriée de ses données.

Dans de nombreux algorithmes d’entraînement, une déclaration sur le type de données utilisées et leur utilisation exacte n’est pas facilement possible en raison de leur complexité. Toutefois, lors d’une demande individuelle concernant un client spécifique, l’IA Explicable peut aider à identifier les données utilisées pour une décision spécifique et même à montrer leur pondération dans le processus de décision. Après l’examen de certains paramètres, les connaissances acquises peuvent éventuellement être utilisées pour améliorer le modèle. Une attention particulière doit être accordée au fait qu’il s’agit ici de connaissances locales individuelles qui ne sont pas nécessairement en corrélation avec d’autres données clients ou la logique globale du modèle dans son ensemble.

En effet, l’IA Explicable détermine les voies de résultat locaux rétrospectivement en approximant des valeurs individuelles à l’aide d’algorithmes moins complexes, c’est-à-dire transparents. Ainsi, un cas de décision d’un réseau neuronal peut être dérivé, par exemple, à un certain moment en utilisant une régression linéaire. Les valeurs dérivées avec cette méthode ne s’appliquent toutefois qu’à un cas spécifique. Les valeurs aberrantes qui ne sont pas prises en compte par un algorithme simplifié peuvent avoir un comportement contraire en cas de paramètres légèrement différents.

Solutions par l’IA Explicable

Ainsi, l’IA Explicable peut déterminer rétrospectivement les facteurs d’influence et leur pondération qui ont une incidence sur une décision assistée par l’IA dans le cas de modèles d’IA complexes. Grâce à cette technologie, les institutions financières sont donc en mesure de concevoir des processus complexes assistés par l’IA, de réduire les coûts et de respecter simultanément les exigences réglementaires des législateurs. Toutefois, lors de l’utilisation de l’IA Explicable, il convient de considérer l’évaluation comme une seule déclaration qui est étroitement liée aux données utilisées par le modèle.

Plus d'articles