
Petit à petit l’abandon du disque est un fait et l’utilisation des disques SSD se développe de plus en plus. Cependant, ce changement ne se produit pas seulement dans le monde des ordinateurs personnels, mais également dans celui des serveurs. Le protocole NVMe-oF a beaucoup à voir avec tout cela. Que signifient ces acronymes et pourquoi peuvent-ils marquer l’avenir du stockage sur PC ?
La transition progressive vers l’utilisation de disques SSD NVMe pour le stockage dans tous les secteurs de l’informatique se poursuit de manière régulière, déterministe et sans freins. Cela inclut les systèmes de réseau, qui intercommuniquent aujourd’hui divers ordinateurs entre eux, que ce soit sur un réseau local ou dans un centre de données.
La plupart des unités de stockage sont du type DAS ou Direct Access Storage dans lequel seul le PC sur lequel ladite unité est installée peut accéder à son contenu et, par conséquent, dans un environnement réseau, il est nécessaire de développer des protocoles qui, par exemple, dans un superordinateur ou des données environnement central composé de dizaines ou de centaines de disques permet d’accéder à l’ensemble de l’infrastructure de stockage.
Comment se passe la communication dans un data center ?
Avant d’aborder le fonctionnement de NVMe-oF et en quoi il consiste. Il faut garder à l’esprit que les technologies utilisées dans un centre de données ou un réseau local pour faire communiquer son stockage interne sont appelées SAN, qui signifie Storage Area Network ou stockage en réseau local. Pour ce faire, trois technologies différentes sont aujourd’hui utilisées, toutes basées sur le vétéran SCSI.
- Fibre Channel Protocol (FCP) : Il s’agit d’un protocole qui transporte des commandes SCSI sur un réseau à fibre optique , bien qu’il puisse également être transporté sur des lignes en cuivre. Leurs débits peuvent aller de 1 à 128 Go/s.
- iSCSI : ce qui combine le protocole TCP/IP d’Internet et les commandes SCSI . Celui-ci est basé sur des cartes réseau conventionnelles et est conçu pour les réseaux à très faible bande passante car il est limité à leurs capacités Ethernet. Ainsi, des vitesses de 1 Go/s sont courantes, bien que ces derniers temps, 10 Go/s commencent à être vus .
- Serial Attached SCSI : le plus largement utilisé de tous et basé sur des câbles SAS qui permettent de connecter jusqu’à 128 unités de stockage via des adaptateurs de bus hôte ou des HBA. La vitesse de ceux-ci peut être de 3 Go/s, 6 Go/s, 12 Go/s et même 22,5 Go/s.
Cependant, toutes ces technologies sont destinées à communiquer avec des disques durs conventionnels. Et nous devons partir du principe que l’accès à un disque dur est différent de celui d’un lecteur basé sur la mémoire flash. Ce qui fait que l’utilisation de ces protocoles n’est pas la plus appropriée.
Qu’est-ce que NVMe-oF ?

Eh bien, ils sont l’acronyme de NVMe over Fabric et c’est que ce protocole n’a pas été prévu uniquement pour communiquer avec des unités de mémoire flash ou non volatiles, mais aussi pour l’intercommunication des différents éléments d’un système via des infrastructures d’intercommunication. Nous devons comprendre que nous nous référons à une structure de communication entre deux éléments. Ce qui peut être deux processeurs, une RAM et un processeur, un accélérateur et une ROM, etc. N’oublions pas que les topologies utilisées pour ce cas utilisent les mêmes structures qu’en télécommunications, mais à très petite échelle.
Cependant, cela sera utilisé pour communiquer les SSD NVMe sur le réseau. Soit pour faire communiquer différents éléments au CPU au sein d’un même PC ou, à défaut, par l’intermédiaire d’une carte réseau. On parle donc de grands centres de données. L’avantage d’utiliser NVMe-oF ? Eh bien, par rapport aux protocoles SATA et SAS utilisés dans les disques durs, ceux-ci sont capables de prendre en charge une file d’attente allant jusqu’à 65 000 requêtes de bout en bout et jusqu’à 65 000 commandes différentes par requête , contre une seule requête et moins de 256 commandes. . . Ce qui est essentiel dans les environnements avec de plus en plus de cœurs faisant des demandes de données au stockage qui pourraient saturer le réseau.
Types de NVMe-OF
Il existe actuellement deux variantes, qui sont les suivantes :
- NVMe-of avec canal fibre optique : qui a été conçu pour s’intégrer dans les centres de données et les serveurs existants en prenant en charge les anciens protocoles tels que SCSI. Cela facilitera la transition vers l’utilisation de lecteurs flash dans les centres de données et les serveurs existants.
- NVMe via Ethernet : qui est utilisé pour que deux ordinateurs échangent des données via un accès direct à la mémoire à distance (RDMA) et, par conséquent, fait référence à deux ordinateurs pouvant échanger le contenu de leurs mémoires flash sur des SSD NVMe sans impliquer le CPU de l’un des deux systèmes dans le processus. Dans ce cas, la communication n’utilise pas les paquets dits SCSI.
N’oublions pas que les mémoires Flash NAND sont également appelées RAM non volatile en raison du fait que leur nature lors de leur accès est la même que celle de la RAM, seulement qu’elles ne perdent pas d’informations lorsqu’elles cessent de recevoir une charge électrique. Ceci permet le déploiement de technologies permettant d’intercommuniquer deux mémoires RAM distinctes pour le faire avec les différentes mémoires flash.
De quelles vitesses parle-t-on ?
N’oublions pas que les disques SSD NVMe utilisent des interfaces PCI Express, donc la version fibre optique de celui-ci sera l’un des candidats possibles pour connecter les différents SSD NVMe au sein de l’infrastructure d’un data center ou d’un réseau local. Cependant, Ethernet continuera à dominer en tant que protocole de communication standard pour les réseaux pendant encore longtemps. Il ne fait aucun doute que des interfaces réseau à des vitesses de 50, 100 et même 200 Gigabits par seconde sont en cours de développement et seront bientôt déployées dans les centres de données.