AccueilSécuritéVérifier par blueprint : Quelle est la sécurité des systèmes d'IA dans...

Vérifier par blueprint : Quelle est la sécurité des systèmes d’IA dans les voitures ?

En collaboration avec le TÜViT et l’entreprise technologique ZF, l’Office fédéral allemand pour la sécurité des technologies de l’information a lancé un nouveau projet qui doit fournir des connaissances sur la manière de tester la sécurité informatique des systèmes d’IA dans les voitures « selon des critères généralement reconnus ». À moyen terme, les résultats de l’étude devraient permettre de développer des critères de test pour les systèmes d’IA, qui déboucheront sur une directive technique modulaire. Cette directive pourra à son tour contribuer au développement de futurs tests de sécurité pour les voitures et aux efforts internationaux de normalisation.

La condition préalable à la protection optimale des systèmes d’IA est de savoir comment les attaquants procèdent, explique le chef de projet Dr Georg Schneider du AI Lab Saarbrücken de ZF. C’est pourquoi le laboratoire simule des attaques et analyse la réaction des systèmes d’IA. Ce sont surtout les attaques dites adversaires contre un système actuel de reconnaissance des panneaux de signalisation basé sur l’IA qui sont étudiées dans différentes variantes.

Sommaire

Ces attaques consistent en des manipulations de signaux optiques qui sont ensuite mal interprétés par les systèmes d’IA et auxquels ils réagissent par des opérations non souhaitées. Dans la circulation routière, cela signifierait par exemple qu’un panneau de limitation de vitesse à 60 km/h manipulé pourrait être lu comme un panneau de limitation de vitesse à 120 km/h.

Pour pouvoir profiter des avantages des systèmes d’IA dans le domaine de la mobilité, une utilisation sûre est impérative. Mais jusqu’à présent, il manque aussi bien des outils permettant de vérifier les risques que des concepts et des méthodes à cet effet, explique la directrice du département Cybersécurité dans la numérisation et pour les identités électroniques au BSI, Dr Silke Bargstädt-Franke. La complexité des cas d’application basés sur les interactions entre les logiciels classiques, les systèmes d’IA et l’environnement physique ne permet pas de développer des critères de contrôle sur une base théorique, il faut identifier les problèmes pratiques dans l’entreprise, selon Mme Bargstädt-Franke.

Lire aussi

Le projet se concentre désormais sur l’expérimentation et le développement d’exigences, de méthodes et d’outils. Des cas d’application ciblés seront ensuite testés dans deux projets de suivi. La directive technique qui sera alors l’objectif du projet pourrait par exemple être utilisée dans le cadre des efforts de normalisation internationaux du Forum mondial de la CEE-ONU pour l’harmonisation des règlements concernant les véhicules.

Plus d'articles