AccueilActualités informatiqueFacteur de succès des données dans les processus d'IA dans les institutions...

Facteur de succès des données dans les processus d’IA dans les institutions financières

De nombreux processus importants interviennent dans le développement et la mise en service des modèles à valeur ajoutée dans le domaine de l’intelligence artificielle. Mais c’est avant tout une étape qui est la base d’un projet de l’IA réussi.

Les développements en matière d’Intelligence Artificielle (IA) sont tout aussi complexes que les projets de logiciels. En particulier, les banques ont besoin de processus à plusieurs étapes pour garantir la qualité du produit final. Ces processus peuvent être généralement divisés en trois phases pricipales : les données, le modèle et le déploiement.

C’est d’abord les données qui doivent être identifiées, analysées et préparées pour la formation de modèles intelligents. Ces données sont ensuite utilisées dans un processus itératif pour la formation et la validation de certains prototypes de modèles. Le modèle qui sera probablement le plus précis en production est finalement intégré aux systèmes informatiques de la banque.

En aval, les gestionnaires doivent enregistrer les résultats du modèle dans l’application productive pour pouvoir réagir à d’éventuelles défaillances. Ceci est particulièrement important pour les systèmes critiques et ceux qui sont en interaction directe avec le client final. Le développement de ces étapes est accompagné par continuent les échanges avec des experts techniques qui, grâce à leurs connaissances du domaine, fournissent un soutien et identifient les obstacles réglementaires.

Sommaire

Les données sont la base de la démarche à suivre

Il est à noter que chaque étape du processus est fondamentalement basée sur les autres. Pour un projet de l’IA réussi, il est donc essentiel de prendre en compte l’ensemble des données, du modèle et de la publication. Le prétraitement des données revêt une responsabilité particulière dans ce contexte. Car, en tant que première étape du processus, elle détermine le cap pour la formation des candidats au modèle.

Des données différentes sont nécessaires selon l’application finale visée, et ces données doivent d’abord être rassemblées automatiquement dans un processus. Par exemple, un modèle de détection de fraude serait entraîné à partir de données de transaction, tandis qu’une vérification de la solvabilité serait basée sur l’historique des prêts des clients de la banque. D’autres produits tels que les fonds intelligents peuvent prendre des décisions sur la base de données non structurées – c’est-à-dire, d’images, de fichiers, d’enregistrements audio et autres.

Le nombre de caractéristiques dans les données détermine la précision du modèle

La précision et l’efficacité d’un modèle d’IA dépendent finalement de la qualité et de la quantité des données disponibles qui sont utilisées pour former le modèle. Plus les informations sont variées et pertinentes, plus les prédictions et recommandations du modèle seront précises. À l’inverse, un grand nombre de données non pertinentes, erronées ou redondantes affectera négativement la précision du modèle.

Un élément essentiel pour établir une base solide pour la formation est la classification des données – en anglais, le « labelling ». Pour aider le modèle à comprendre et à classer les données existantes, des informations ou des identificateurs sont ajoutés aux données lors de cette étape. Des étiquettes pourraient être ajoutées à un algorithme d’évaluation de la solvabilité, par exemple, pour reconnaître certains attributs tels que le salaire, la position professionnelle et l’historique de crédit. Cette approche est certes chronophage et coûteuse, mais elle est essentielle pour une formation précise du modèle.

La qualité de la base de données doit être vérifiée techniquement et en termes de contenu

Les données bancaires devraient d’abord être analysées en fonction d’un certain nombre de facteurs, notamment l’uniformité, l’actualité, l’exactitude et l’étendue de la collecte de données. Différentes techniques sont utilisées pour ce faire, qui mettent les données en forme correcte formellement et les vérifient partiellement en termes de contenu.

Dans ce contexte, les données devraient d’abord être validées en termes de format. Ceci inclut une vérification automatique des champ de données, qui identifie en particulier les valeurs aberrantes statistiques ou les valeurs sans sens en termes de contenu, par exemple une chaîne de texte dans un champ de date. Ces analyses peuvent être effectués automatiquement au départ grâce à des algorithmes qui reconnaissent certains modèles ou normes et mettent en évidence les exceptions à ces modèles.

Le savoir-faire dans le domaine rend les équipes interdisciplinaires un facteur clé

En complément, des tests manuels restent nécessaires, qui identifient les erreurs graves dans les données en échantillonnant. Cela peut s’appliquer à certains groupes de clients ou à des limites de montants qui n’ont pas encore été vérifiés de façon automatisée. Il est donc essentiel d’impliquer les départements spécialisés pour véritablement former des modèles utiles avec des données la majorité du temps exempte d’erreur. Car les erreurs dans les données ne peuvent être identifiées de manière automatisée que si les balises de guidages de base ont été définies avec l’aide de l’expertise du domaine des experts concernés.

Cela s’applique également et surtout à l’évaluation réglementaire du projet d’IA. Grâce à l’étude intensive des directives et restrictions possibles, les gestionnaires doivent déjà déterminer à ce stade du projet quels données peuvent être utilisées et à quelle fins. Cela établit déjà les bases les plus importantes pour un modèle qui tient le coup en termes de conformité et de réglementation avant même la formation. Il est donc essentiel pour des projets d’IA véritablement efficaces d’avoir une relation étroite entre la technologie et le contenu spécialisé. Les équipes interdisciplinaires, composées de programmeurs, de scientifiques des données, d’experts du secteur et de juristes, peuvent jouer un rôle central dans cette entreprise, car elles favorisent l’échange naturel entre des experts de différents domaines.

Quiconque ne traite pas les données de façon exhaustive paiera le double

En collectant et en traitant soigneusement les données bancaires, les institutions financières créent la base pour des modèles d’IA fiables. Mais surtout, en établissant cette base solide, les décideurs évitent les coûts élevés qui pourraient résulter d’un grand nombre de données défectueuses lors du processus de formation. Il est essentiel d’impliquer des experts spécialisés pour répondre aux questions réglementaires et aux pièges spécifiques aux banques – par exemple, en créant des équipes interdisciplinaires.

Plus d'articles