AccueilActualités informatiquePCI Express 6.0 et CXL 2.0 devraient bouleverser les serveurs

PCI Express 6.0 et CXL 2.0 devraient bouleverser les serveurs

L’association industrielle PCI SIG a adopté la spécification pour PCI Express 6.0 dans sa version finale 1.0. Elle est surtout importante pour les serveurs et leurs composants, notamment en association avec Compute Express Link (CXL).

PCIe 6.0 double – comme d’habitude lors des changements de génération PCIe – le taux de transfert de données par rapport à PCIe 5.0 à 64 giga-transferts par seconde, de sorte qu’une seule voie (PCIe 6.0 x1) transfère jusqu’à 8 GByte/s par direction. Les SSD PCIe 4.0 actuels ont besoin pour cela de quatre voies.

Sommaire

Avec PCIe 6.0, un slot x16 atteint 128 Go/s par direction. Pour que les transferts DMA soient possibles à cette vitesse, il faut quatre canaux de mémoire DDR5-4800 qui transfèrent ensemble plus de 150 Go/s.

Samsung CXL Memory Expander avec RAM DDR5

(Image : Samsung )

En d’autres termes, PCIe 6.0 x4 est, avec 32 Go/s, plus rapide qu’un canal de mémoire DDR4 3200 avec 64 lignes de signaux de données. Cela permet de nouvelles architectures comme les serveurs désagrégés, qui peuvent être interconnectés de manière flexible à partir de pools de ressources en fonction des besoins de calcul.

Samsung prévoit déjà des modules de mémoire CXL pour CXL 1.1 sur la base de PCIe 5.0. Les fonctions étendues de CXL 2.0 faciliteront ensuite la gestion de la mémoire non volatile, comme Optane DC Memory ou d’autres mémoires de classe de stockage, dans des pools accessibles à plusieurs nœuds de serveur.

Un PCIe plus rapide est également utile pour les prochains SSD, pour les accélérateurs de calcul IA ainsi que pour les adaptateurs Ethernet avec 800 Gbit/s par port (800GE).

CXL pourrait en outre accélérer l’utilisation de nouveaux concepts tels que la RAM avec fonctions de calcul ou le stockage informatique, ainsi que les SmartNIC ou les unités de traitement des données (DPU, IPU, AWS Nitro).

Taux de transfert de données PCIe et RAM
Interface Taux de transfert

4 canaux DDR5-4800

154 Go/s

PCIe 6.0 x16

128 Go/s

2 canaux DDR5-4800

77 Go/s

PCIe 6.0 x8

64 Go/s

PCIe 5.0 x16

64 Go/s

1 canal DDR5-4800

38 Go/s

PCIe 6.0 x4

32 Go/s

PCIe 5.0 x8

32 Go/s

PCIe 4.0 x16

32 Go/s

1 canal DDR4-3200

26 Go/s

PCIe 6.0 x1

8 Go/s

PCIe 4.0 x4

8 Go/s

PCIe 3.0 x8

8 Go/s

taux de transfert maximal par direction

La modulation PAM4 transfère 2 bits par transfert

(Image : Intel)

Pour atteindre des taux de transfert de données extrêmes, PCIe 6.0 apporte de sérieux changements au niveau physique par rapport à ses prédécesseurs. Ainsi, le procédé de modulation utilisé est la modulation d’amplitude d’impulsion à quatre niveaux (PAM4), qui transfère désormais deux bits par transfert au lieu d’un seul (0 ou 1), et qui fonctionne donc avec quatre niveaux de tension. Pour compenser la plus grande sensibilité aux perturbations qui en résulte, on utilise la correction d’erreur Forward Error Correction (FEC). Celle-ci nécessite à son tour des paquets de données de même longueur, appelés Flow Control Units (FLITs).

Les versions PCIe 6.0 restent toutefois rétrocompatibles avec les anciennes versions PCIe.

En mars 2021, Pat Gelsinger, CEO d’Intel, a annoncé la génération Xeon SP « Granite Rapids » pour 2023.

(Image : Intel)

Pour 2022, Intel a annoncé la quatrième génération de Xeon-SP comme « Sapphire Rapids » avec PCIe 5.0 et CXL 1.1. Pour les PC de bureau, le Core i-12000 « Alder Lake » est déjà sur le marché avec PCIe 5.0, mais sans CXL. Le Power10 d’IBM maîtrise également le PCIe 5.0.

Pour traiter les taux de transfert de données élevés, les futurs processeurs de serveurs disposent de plus de canaux DRAM (AMD Genoa avec Zen 4, DDR5 et PCIe 5.0 environ 12 au lieu de 8) ou de RAM HBM2E rapide (Intel Sapphire Rapids).

Intel a annoncé pour 2023 la génération suivante de processeurs pour serveurs, appelée Granite Rapids ; on ne sait toutefois pas si elle apportera PCIe 6.0 et CXL 2.0.

Le concept d’interconnexion Gen-Z, autrefois concurrent, est désormais de l’histoire ancienne. Depuis 2019, ARM, AMD, IBM et Nvidia collaborent également à CXL et entretiennent parallèlement leurs propres interconnexions cohérentes comme CCIX, InfinityFabric, OpenCAPI et NVLink.

Plus d'articles