AccueilActualités informatiqueAWS re:Invent 2021 : Amazon CodeGuru reçoit un chien renifleur d'IA pour...

AWS re:Invent 2021 : Amazon CodeGuru reçoit un chien renifleur d’IA pour les données codées en dur

Pendant la conférence des développeurs AWS re:Invent qui se déroule actuellement à Las Vegas et à l’hybride, Amazon Web Services (AWS) présente à nouveau un kaléidoscope de nouveautés en 2021. Pour les développeurs, trois annonces dans les domaines du Machine Learning, de la technologie des conteneurs et de la technique quantique devraient être particulièrement pertinentes :

Le logiciel de révision CodeGuru peut dès à présent identifier les secrets codés en dur et les sécuriser avec l’AWS Secrets Manager, et pour Kubernetes, il existe Karpenter, un nouvel autoscaler de clusters open source et très performant. En outre, AWS a présenté Amazon Braket Hybrid Jobs, un outil pour la mise en place, la surveillance et l’exploitation de charges de travail hybrides dans le domaine de l’informatique quantique.

Sommaire

L’outil automatisé appelé Secrets Detector fait partie de la suite logicielle Amazon CodeGuru et permet aux développeurs de trouver dans le code source et les fichiers de configuration des secrets tels que des mots de passe, des clés API, des clés SSH ainsi que des jetons d’accès. Le logiciel de révision scanne les applications Java et Python et est conçu pour découvrir des erreurs potentielles dans son propre code. Il permet aux équipes de développement de rechercher des vulnérabilités, de limiter les fuites, de détecter les problèmes de concordance, de valider les entrées de manière incorrecte et de constater les écarts par rapport aux meilleures pratiques.

L’intégration directe (codage dur) de clés ou de mots de passe en texte clair, par exemple, au lieu de les obtenir à partir de sources externes ou de les générer au moment de l’exécution, n’est pas forcément considérée comme une bonne pratique, mais elle existe réellement dans le quotidien des développeurs, par exemple pour des raisons de temps et de raccourcissement. Parfois, les valeurs codées en dur sont délibérément définies pour protéger les logiciels contre les manipulations. Elles sont également justifiées pour tester le logiciel, mais restent parfois involontairement dans le code source et ne sont pas faciles à retrouver par la suite. Selon l’entrée du blog d’AWS, le nouveau détecteur de CodeGuru est formé par l’apprentissage automatique (ML) afin de reconnaître les secrets codés en dur lors de la révision du code et de les proposer à la vérification. Ainsi, les utilisateurs devraient pouvoir s’assurer, avant de fusionner et de déployer de nouvelles parties de code, qu’aucune donnée d’application ne se trouve plus involontairement dans le code source.

CodeGuru findet Geheimes wie hartkodierte Passwörter und Zugangsdaten mit dem Secrets Detector

CodeGuru trouve depuis peu les mots de passe et données d’accès codés en dur dans le code source avec le Secrets Detector – les développeurs peuvent vérifier le contexte et intervenir si nécessaire.

(Image : AWS)

Si le chien renifleur trouve quelque chose, il propose des solutions comme la sauvegarde des trouvailles dans l’AWS Secrets Manager, un service géré pour le stockage, la rotation, la gestion et la récupération automatisés des données d’accès et des clés API. Le Secrets Detector supporte donc nativement de nombreux fournisseurs d’API fréquemment utilisés comme Atlassian, Datadog, Databricks, GitHub, Slack et Tableau. La nouvelle fonctionnalité est déjà incluse dans le CodeGuru Reviewer et son utilisation ne devrait pas entraîner de coûts supplémentaires, selon l’entrée du blog. Ceux qui s’intéressent de plus près à ce sujet trouveront des exemples d’application et de code dans l’annonce du blog sur le détecteur de secrets d’Amazon CodeGuru.

Dans le cadre de sa conférence maison, AWS a également présenté un nouvel outil pour l’autoscaling des clusters Kubernetes : Karpenter est open source sous la licence Apache 2.0 et doit, selon le billet de blog, augmenter la disponibilité des clusters et rendre l’utilisation des ressources plus planifiable – en mettant à disposition de manière automatisée la capacité de calcul nécessaire pour des charges de travail fluctuantes au cas par cas. Karpenter doit mettre les ressources à disposition juste à temps et aider à réduire l’empreinte énergétique ainsi que les coûts.

Selon AWS, cet outil répond aux souhaits des clients, car les utilisateurs de Kubernetes auraient trouvé les possibilités d’adaptation dynamique de la capacité de calcul pour leurs clusters laborieuses et trop restrictives jusqu’à présent. Dès que Karpenter est installé dans le cluster, il observe tous les événements ainsi que les besoins en ressources des pods non planifiés et contrôle le démarrage de nouveaux nœuds ainsi que l’arrêt des pods. Pour cela, l’outil envoie des commandes au service de calcul du fournisseur de cloud sous-jacent, dans le cas d’AWS donc à Amazon Elastic Compute Cloud (EC2). Selon l’entrée du blog, Karpenter devrait être neutre vis-à-vis des fournisseurs et fonctionner non seulement avec des fournisseurs de cloud public, mais aussi sur site. Ceux qui souhaitent contribuer au projet peuvent participer au développement de Karpenter sur GitHub.

Karpenter: autoskalierbare Kubernetes-Cluster bei AWS

Karpenter est un outil open source, prêt à être mis en production, permettant de redimensionner automatiquement la capacité de calcul nécessaire aux clusters Kubernetes – pas seulement, mais aussi chez les fournisseurs de cloud comme AWS.

(Image : AWS)

Lors de re:Invent 2019, AWS avait déjà présenté Braket, un service d’informatique quantique géré qui permet de créer, de tester et d’exécuter des algorithmes quantiques sur des simulateurs et des ordinateurs quantiques. Les nouveaux algorithmes sont basés sur les bits quantiques (qubits), qui étendent le concept dual des bits (ayant la valeur 0 ou 1) à une combinaison de deux états quantiques différents. La valeur d’un qubit peut être l’un des deux états possibles, et les qubits peuvent être combinés entre eux. La probabilité d’un état dépend de la combinaison des états de tous les qubits reliés, et la modification d’un qubit (par exemple lors de la lecture de sa valeur) modifie déjà les états des autres. Ce concept est connu en physique théorique par la mécanique quantique.

Les nouveaux algorithmes développés avec les qubits ont le potentiel d’être beaucoup plus rapides que ceux des ordinateurs classiques. Les algorithmes quantiques nécessitent toutefois l’exécution de centaines de milliers, voire de millions de portes quantiques. Actuellement, la génération d’unités de traitement quantiques (QPU) est encore soumise à un bruit qui provoque des erreurs limitant le fonctionnement à quelques centaines ou tout au plus quelques milliers de portes. Au-delà de ces dimensions, selon l’entrée du blog d’AWS, les erreurs prennent le dessus.

Hybride Algorithmen im Quantencomputing: Infografik

Algorithmes hybrides : comparaison entre le calcul classique avec GPU en machine learning et le calcul quantique avec QPU

(Image : AWS)

L’une des solutions réside dans l’apprentissage automatique : au lieu de circuits quantiques fixes qui s’orientent vers la logique de l’algorithme, il est également possible de concevoir un algorithme comme « capable d’apprendre » en adaptant les paramètres. Si les développeurs permettent à l’algorithme d’optimiser lui-même le circuit pour certains problèmes, le bruit peut être adapté en fonction du dispositif (algorithmes quantiques auto-apprenants). Comme pour l’entraînement de modèles pour la vision par ordinateur, les algorithmes ML « apprennent » alors les bonnes caractéristiques en réajustant de manière itérative les paramètres de leur réseau neuronal.

Les algorithmes hybrides utilisent les QPU (les processeurs utilisés par les ordinateurs quantiques) de la même manière que l’apprentissage automatique fonctionne avec les GPU. Ils reposent sur des calculs rapides et itératifs entre les ordinateurs classiques et les QPU, ce qui n’est pas facile à réaliser d’un point de vue technique. Les QPU sont des ressources partagées et inélastiques qui se font concurrence pour l’accès. La qualité des résultats et les coûts peuvent apparemment varier de manière parfois imprévisible lorsque des charges de travail importantes d’autres clients ralentissent l’algorithme et prolongent le temps d’exécution total, parfois même l’interrompent.

C’est là qu’interviennent les jobs hybrides présentés lors de re:Invent 2021, une nouvelle fonctionnalité d’Amazon Braket qui prend en charge la configuration, la surveillance et l’exécution d’algorithmes hybrides (combinant les techniques quantiques et classiques). Selon un article de blog, les tâches peuvent être entièrement gérées, l’accès aux QPU doit se faire par ordre de priorité et selon les besoins. Lors de la création d’une tâche, Braket s’occupe de l’instance de la tâche et met à disposition un environnement CPU basé sur Amazon EC2, exécute l’algorithme avec du matériel quantique ou des simulateurs et libère les ressources une fois la tâche terminée, de sorte que les coûts s’orientent sur l’utilisation réelle.

Schema der Hybrid Jobs bei Amazon Braket

Déroulement schématique des jobs hybrides chez Amazon Braket avec l’interface correspondante

(Image : AWS)

Il devrait également être possible de définir des métriques personnalisées pour les algorithmes, qu’Amazon CloudWatch consigne et affiche dans la console pendant l’exécution, avec une latence prétendument faible. La définition d’algorithmes peut être effectuée non seulement avec le SDK Braket, mais aussi avec une bibliothèque open source pour l’informatique quantique hybride comme Penny Lane. Ceux qui souhaitent se plonger plus profondément dans le sujet peuvent consulter les exemples pratiques dans l’entrée du blog.

Lire aussi

La dixième édition de la conférence des développeurs AWS re:Invent a débuté le 29 novembre et se poursuivra jusqu’au 3 décembre 2021. Pour se tenir au courant des principales annonces, les organisateurs ont publié un billet de blog collectif sur les points forts de la conférence (selon eux). Il est possible d’accéder à certaines ou à toutes les actualités tech à partir de la contribution de distribution, et il existe un podcast d’accompagnement qui reprend les keynotes de re:Invent.

Plus d'articles