▼
Scroll to page 2
of
303
Guide d’utilisation Adaptateurs réseau convergents série 41xxx AH0054602-02 F Renseignements de tiers fournis gracieusement par Dell EMC. Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Historique de révision du document Révision A, 28 avril 2017 Révision B, 24 août 2017 Révision C, 1er octobre 2017 Révision D, 24 janvier 2018 Révision E, 15 mars 2018 Révision F, 19 avril 2018 Modifications Sections touchées Mise à jour des exemples concernant les conventions de documents. « Conventions de la documentation » à la page xix Suppression des sections obsolètes QLogic Contrats de licence et Garantie. Préface Dans Tableau 3-5, ajout d'une note de bas de page : « Des pilotes ESXi supplémentaires pourraient être disponibles après la publication de ce guide d’utilisation. Pour plus d'informations, reportez-vous aux « Notes de mise à jour ». « Pilotes et jeux de pilotes VMware » à la page 28 Dans le Tableau 6-1 : « Systèmes d'exploitation pris en charge et OFED » à la page 66 Mise à jour des valeurs d’OED pour Windows Server et VMware ESXi. Ajout d'une ligne pour VMware ESXi 6.7. Suppression de la note de bas de page, « Le pilote RoCE certifié n’est pas inclus dans cette version. Le pilote non certifié est disponible dans le cadre d'un aperçu anticipé. » Ajout d’une nouvelle procédure d’affichage des compteurs Cavium RDMA pour RoCE et iWARP sous Windows. « Affichage des compteurs RDMA » à la page 73 Après la Figure 7-4, ajout d'une note de référence croisée à la procédure « Affichage des compteurs RDMA » à la page 73. « Configuration d'iWARP sous Windows » à la page 97 Ajout d'informations de configuration d’iSER pour VMware ESXi 6.7. « Configuration d’iSER sous ESXi 6.7 » à la page 116 ii AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx « Déchargement iSCSI dans les environnements Linux » à la page 151 Modification des sections majeures suivantes en sous-sections sous Déchargement iSCSI dans les environnements Linux: « Différences avec bnx2i » à la page 152 « Configuration de qedi.ko » à la page 152 « Vérification des interfaces iSCSI sous Linux » à la page 153 « Considérations relatives à Open-iSCSI et au démarrage à partir de SAN » à la page 155 « Démarrage iSCSI L4 pour SLES 11 SP4 à partir de la migration SAN » à la page 161 Dans la procédure Pour migrer d'une interface sans déchargement vers une interface avec déchargement : Modification del' Étape 1 remplacée par : « Mise à jour des outils open-iscsi et iscsiuio vers les toutes dernières versions disponibles en... » Modification del' Étape 2 avec ajout de « (le cas échéant) » dans la première puce et suppression de la dernière puce (« Annexer rd.driver.pre=qed rd.driver.pre=qedi) Ajout de « et les versions ultérieures » au titre de la section et mise à jour del' Étape 18. « Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures » à la page 166 Ajout d’une note, « Lors de l’installation avec SLES 11 ou SLES 12, le paramètre withfcoe=1 n’est pas requis car l’adaptateur de série 41000 ne requiert plus le démon logiciel FCoE. » « Configuration du déchargement FCoE pour Linux » à la page 179 Ajout d’une note décrivant la fonctionnalité actuelle des interfaces FCoE. « Différences entre qedf et bnx2fc » à la page 180 Ajout d'une section concernant le démarrage FCoE à partir du SAN. « Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures » à la page 182 Suppression de la section obsolète « Considérations relatives au démarrage à partir du SAN ». Chapitre 10 Configuration de FCoE iii AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx « Configuration de SR-IOV sous Linux » à la page 192 Dans la procédure Pour configurer SR-IOV sous Linux : Dansl' Étape 12, commande modifiée de ip link show/ifconfig -a en ip link show | grep -i vf -b2. Remplacement de la Figure 11-12 par une nouvelle capture d’écran. Dansl' Étape 15, modification de la commande de check lspci -vv|grep -I ether en lspci -vv|grep -i ether. « Configuration de SR-IOV sous VMware » à la page 198 Dans la procédure Configuration de SR-IOV sur VMware, réorganisation de certaines étapes : Déplacement de l’étape « Validation des VF par port, émission de la commande esxcli après l’étape « Remplir la boîte de dialogue Modifier les paramètres... ». Déplacement de l’étape « Mise sous tension de la VM... » après l’étape « Installation des pilotes QLogic pour les adaptateurs détectés... » Chapitre 12 Configuration de NVMe-oF avec RDMA Mise à jour des puces d’introduction du chapitre : Troisième puce : Ajout de : « Chaque port peut être configuré individuellement pour utiliser RoCE, RoCEv2 ou iWARP en tant que protocole RDMA sur lequel NVMe-oF s’exécute. » Quatrième puce : Mise à jour en : « Pour RoCE et RoCEv2, un commutateur en option configuré pour le relais de centre de données (DCB, data center bridging), la politique pertinente de qualité de service (QoS) et les vLAN pour porter la priorité de classe de trafic RoCE/RoCEv2 DCB de NVMe-oF. Le commutateur n’est pas requis lorsque NVMe-oF utilise iWARP. » iv AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx « Installation des pilotes de périphérique sur les deux serveurs » à la page 205 Mise à jour de la section comme suit : Dans l’introduction, ajout de « Pour mettre à jour le noyau vers le tout dernier noyau Linux en amont, accédez à <URL>. » Ajout d’une nouvelle Étape 2 pour réinstaller et charger le tout dernier pilote à la suite de la mise à niveau du noyau d’OS. Dansl' Étape 3, modification de la commande de systemctl enable rdma en systemctl enable rdma.service. Mise à jour de l' Étape 2. « Configuration du serveur cible » à la page 206 Remplacement de la Figure 12-3. « Configuration du serveur initiateur » à la page 208 À l’Étape 1, ajout de la commande suivante : « Test des périphériques NVMe-oF » à la page 210 # yum install epel-release Dans la procédure Pour vérifier le trafic iWARP, aprèsl' Étape 3, ajout d'une remarque concernant le script qedr_affin.sh. « Optimisation des performances » à la page 211 Dans le Tableau B-1, ajout d’autres câbles testés et solutions optiques. « Câbles et modules optiques testés » à la page 262 Dans Tableau B-2, ajout d’autres commutateurs testés. « Commutateurs testés » à la page 266 Suppression des sections obsolètes suivantes : Annexe D Contraintes en matière de fonctionnalités La configuration de NPAR n'est pas prise en charge si SR-IOV est déjà configuré La configuration de RoCE et iWARP n’est pas prise en charge si NPAR est déjà configuré v AH0054602-02 F Table des matières Préface Produits pris en charge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Public visé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ce que ce guide comprend . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conventions de la documentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Avis légaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sécurité relative au laser – Avis de la FDA . . . . . . . . . . . . . . . . . . . . . Homologation d'organisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exigences EMI et EMC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . KCC : Classe A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VCCI : Classe A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conformité sécurité du produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Présentation du produit Description fonctionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fonctionnalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Spécifications de l'adaptateur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Caractéristiques physiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Spécifications de normes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1 1 3 3 3 Installation du matériel Exigences système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Précautions de sécurité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Liste de vérification de préinstallation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 xvii xvii xviii xix xxi xxi xxi xxii xxii xxiii xxiii 4 5 6 6 Installation des pilotes Installation du logiciel pilote pour Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes Linux sans RDMA . . . . . . . . . . . . . . . . . . . . . . Suppression des pilotes Linux . . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes Linux à l'aide du paquet RPM src. . . . . . Installation des pilotes Linux en utilisant le package RPM kmp/kmod. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes Linux en utilisant le fichier TAR . . . . . . . Installation des pilotes Linux avec RDMA . . . . . . . . . . . . . . . . . . . . . . vi 8 10 10 12 13 13 14 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Paramètres facultatifs du pilote Linux . . . . . . . . . . . . . . . . . . . . . . . . . Valeurs opérationnelles par défaut du pilote Linux . . . . . . . . . . . . . . . Messages du pilote Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation du logiciel pilote pour Windows . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes Windows . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exécution du DUP dans l'IUG. . . . . . . . . . . . . . . . . . . . . . . . . . . Options d'installation de DUP . . . . . . . . . . . . . . . . . . . . . . . . . . . Exemples d'installation de DUP . . . . . . . . . . . . . . . . . . . . . . . . . Suppression des pilotes Windows. . . . . . . . . . . . . . . . . . . . . . . . . . . . Gestion des propriétés de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . Définition des options de gestion de l'alimentation . . . . . . . . . . . . . . . Installation du logiciel pilote pour VMware . . . . . . . . . . . . . . . . . . . . . . . . . . Pilotes et jeux de pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Paramètres facultatifs des pilotes VMware . . . . . . . . . . . . . . . . . . . . . Paramètres par défaut des pilotes VMware . . . . . . . . . . . . . . . . . . . . Suppression du pilote VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prise en charge de FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prise en charge iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Mise à niveau du micrologiciel Exécution du DUP en double-cliquant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exécution du DUP depuis une ligne de commande . . . . . . . . . . . . . . . . . . . Exécution du DUP à l'aide du fichier .bin . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 35 38 39 Configuration de prédémarrage de l'adaptateur Mise en route . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Affichage des propriétés d'image du micrologiciel . . . . . . . . . . . . . . . . . . . . Configuration des paramètres au niveau du périphérique . . . . . . . . . . . . . . Configuration des paramètres NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de Data Center Bridging . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du démarrage FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du démarrage iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des partitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Partitionnement pour VMware ESXi 6.0 et ESXi 6.5 . . . . . . . . . . . . . . 6 15 15 16 16 16 17 17 24 25 25 26 27 28 28 29 31 33 34 34 34 42 45 46 48 51 53 54 59 64 Configuration de RoCE Systèmes d'exploitation pris en charge et OFED . . . . . . . . . . . . . . . . . . . . . Planification pour RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préparation de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii 66 67 68 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Préparation du commutateur Ethernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du commutateur Ethernet Cisco Nexus 6000 . . . . . . . . Configuration du commutateur Ethernet Dell Z9100 . . . . . . . . . . . . . . Configuration de RoCE sur l'adaptateur pour Windows Server . . . . . . . . . . Affichage des compteurs RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de RoCE sur l'adaptateur pour Linux . . . . . . . . . . . . . . . . . . . Configuration de RoCE pour RHEL. . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de RoCE pour SLES . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de la configuration RoCE sous Linux . . . . . . . . . . . . . . . . Interfaces VLAN et valeurs d'index GID . . . . . . . . . . . . . . . . . . . . . . . Configuration de RoCE v2 pour Linux . . . . . . . . . . . . . . . . . . . . . . . . . Identification de l'index GID de RoCE v2 ou de l'adresse . . . . . Vérification de l'adresse et de l'index GID de RoCE v1 ou v2 à partir des paramètres sys et class. . . . . . . . . . . . . . . . . . . . . Vérification de la fonctionnalité de RoCE v1 ou v2 par les applications perftest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de RoCE sur l'adaptateur pour VMware ESX . . . . . . . . . . . . Configuration des interfaces RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de MTU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mode et statistiques de RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d'un périphérique RDMA paravirtuel (PVRDMA) . . . . . 7 85 86 90 90 91 92 93 Configuration d'iWARP Préparation de l'adaptateur pour iWARP . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d'iWARP sous Windows. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d'iWARP sous Linux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation du pilote. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d'iWARP et de RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . Détection du périphérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Applications iWARP prises en charge . . . . . . . . . . . . . . . . . . . . . . . . . Exécution de perftest pour iWARP . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de NFS-RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prise en charge d'iWARP RDMA-Core sous SLES 12 SP3, RHEL 7.4, et OFED 4.8x. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 68 69 70 70 73 79 80 80 81 83 84 84 96 97 100 101 101 102 103 103 104 106 Configuration d'iSER Avant de commencer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d'iSER pour RHEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d'iSER pour SLES 12. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Utilisation d'iSER avec iWARP sous RHEL et SLES . . . . . . . . . . . . . . . . . . Optimisation des performances Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des UC sur le mode Performances maximales. . . . . . . Configuration des paramètres sysctl du noyau . . . . . . . . . . . . . . . . . . viii 108 109 112 113 115 115 115 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Configuration des paramètres d'affinité d'IRQ . . . . . . . . . . . . . . . . . . . Configuration de la préparation de périphériques de traitement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d’iSER sous ESXi 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Avant de commencer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d’iSER pour ESXi 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . . 9 116 116 116 116 117 Configuration iSCSI Démarrage iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du démarrage iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . Sélection du mode de démarrage iSCSI préféré . . . . . . . . . . . . Configuration de la cible iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des paramètres d'initialisation iSCSI . . . . . . . . . . Configuration du mode de démarrage UEFI de l'adaptateur . . . . . . . . Configuration du démarrage iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de l'initialisation iSCSI statique . . . . . . . . . . . . . . . . . . . Configuration de l'initialisation iSCSI dynamique . . . . . . . . . . . . . . . . Activation de l'authentification CHAP . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de DHCP pour le démarrage iSCSI pour IPv4 . . . . . . . Option DHCP 17, chemin d'accès . . . . . . . . . . . . . . . . . . . . . . . Option DHCP 43, Informations propres au fournisseur . . . . . . . Configuration du serveur DHCP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de DHCP pour le démarrage iSCSI pour IPv6 . . . . . . . Option DHCPv6 16, option de classe fournisseur . . . . . . . . . . . Option DHCPv6 17, informations concernant le fournisseur . . . Configuration des VLAN pour le démarrage iSCSI . . . . . . . . . . . . . . . Déchargement iSCSI sous Windows Server . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes QLogic. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation de l'initiateur Microsoft iSCSI. . . . . . . . . . . . . . . . . . . . . . . Configuration de l'initiateur Microsoft pour l'utilisation du déchargement iSCSI de QLogic . . . . . . . . . . . . . . . . . . . . . . . . . . . . FAQ sur le déchargement iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation du démarrage iSCSI Windows Server 2012 R2 et 2016 . . . Vidage sur incident iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Déchargement iSCSI dans les environnements Linux . . . . . . . . . . . . . . . . . Différences avec bnx2i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de qedi.ko . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification des interfaces iSCSI sous Linux . . . . . . . . . . . . . . . . . . . . ix 120 121 121 122 122 124 127 127 135 137 138 138 138 139 140 141 141 141 142 142 143 143 143 149 150 151 151 152 152 153 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Considérations relatives à Open-iSCSI et au démarrage à partir de SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Démarrage iSCSI L4 pour RHEL 6.9 à partir de la migration SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Démarrage iSCSI L4 pour RHEL 7.2/7.3 à partir de la migration SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Démarrage iSCSI L4 pour SLES 11 SP4 à partir de la migration SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Démarrage iSCSI L4 pour SLES 12 SP1/SP2 à partir de la migration SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Démarrage iSCSI L4 pour SLES 12 SP1/SP2 à partir de la migration SAN à l’aide de MPIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 156 159 161 163 164 166 Configuration de FCoE Démarrage FCoE à partir de SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préparation du BIOS système pour la version de FCoE et le démarrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Spécification du protocole de démarrage du BIOS. . . . . . . . . . . Configuration du mode de démarrage UEFI de l'adaptateur . . . Démarrage FCoE à partir de SAN pour Windows . . . . . . . . . . . . . . . . Installation du démarrage FCoE Windows Server 2012 R2 et 2016 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vidage sur incident FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du déchargement FCoE pour Linux . . . . . . . . . . . . . . . . . . . . Différences entre qedf et bnx2fc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de qedi.ko . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification des périphériques FCoE sous Linux . . . . . . . . . . . . . . . . . . . . . Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 155 170 171 171 171 176 176 177 177 178 179 180 180 181 182 Configuration de SR-IOV Configuration de SR-IOV sous Windows . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de SR-IOV sous Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de SR-IOV sous VMware. . . . . . . . . . . . . . . . . . . . . . . . . . . . x 185 192 198 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx 12 Configuration de NVMe-oF avec RDMA Installation des pilotes de périphérique sur les deux serveurs. . . . . . . . . . . Configuration du serveur cible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du serveur initiateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préconditionnement du serveur cible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Test des périphériques NVMe-oF. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Optimisation des performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Affinité .IRQ (multi_rss-affin.sh). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fréquence d'UC (cpufreq.sh) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 205 206 208 210 210 211 212 213 Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V . . . . . . . . . . . . . . . . . . . . Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout d'un ID VLAN à une NIC virtuelle hôte . . . . . . . . . . . . . . . . . . . . Vérification de l'activation de RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout de NIC virtuelles hôtes (ports virtuels) . . . . . . . . . . . . . . . . . . . . Mappage du lecteur SMB et exécution du trafic RoCE . . . . . . . . . . . . RoCE sur Switch Embedded Teaming . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation de RDMA sur SET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Attribution d'un ID VLAN sur SET . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exécution du trafic RDMA sur SET . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de QoS pour RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de QoS en désactivant DCBX sur l'adaptateur . . . . . . . Configuration de QoS en activant DCBX sur l'adaptateur . . . . . . . . . . Configuration de VMMQ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation de VMMQ sur l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du port virtuel par défaut et non-par défaut de paires de files d'attente (QP) max VMMQ . . . . . . . . . . . . . . . . . . . . . . . . . . Création d'un commutateur de machine virtuelle avec ou sans SRI-OV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation de VMMQ sur le commutateur de machine virtuelle . . . . . . Obtention de la fonction de commutateur de machine virtuelle. . . . . . Création d'une VM et activation de VMMQ sur VMNetworkadapters dans la VM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . NIC virtuelle VMMQ par défaut et maximum . . . . . . . . . . . . . . . . . . . . Activation et désactivation de VMMQ sur une NIC de gestion . . . . . . Surveillance des statistiques de trafic . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de VXLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation du déchargement VXLAN sur l'adaptateur . . . . . . . . . . . . . Déploiement d'un réseau défini par logiciel . . . . . . . . . . . . . . . . . . . . . xi 215 216 217 218 218 219 220 221 221 221 222 222 222 226 229 230 231 231 233 233 234 235 235 236 236 236 237 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Configuration des Espaces de stockage direct . . . . . . . . . . . . . . . . . . . . . . Configuration du matériel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Déploiement d'un système hyper-convergé . . . . . . . . . . . . . . . . . . . . Déploiement du système d'exploitation . . . . . . . . . . . . . . . . . . . Configuration du réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des Espaces de stockage direct. . . . . . . . . . . . . . Déploiement et gestion de Nano Server . . . . . . . . . . . . . . . . . . . . . . . . . . . Rôles et fonctionnalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Déploiement de Nano Server sur un serveur physique. . . . . . . . . . . . Déploiement de Nano Server sur une machine virtuelle . . . . . . . . . . . Gestion à distance de Nano Server. . . . . . . . . . . . . . . . . . . . . . . . . . . Gestion d'un Nano Server avec accès à distance Windows PowerShell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout de Nano Server à une liste d'hôtes de confiance . . . . . . . Démarrage de la session Windows PowerShell à distance . . . . Gestion des adaptateurs QLogic sur Windows Nano Server . . . . . . . Configuration de RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 237 237 238 238 238 240 243 244 245 248 250 250 250 251 251 251 Dépannage Liste de vérification pour le dépannage . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification du chargement des pilotes à jour . . . . . . . . . . . . . . . . . . . . . . . Vérification des pilotes sous Windows . . . . . . . . . . . . . . . . . . . . . . . . Vérification des pilotes sous Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification des pilotes sous VMware . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de la connectivité du réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . Test de la connectivité réseau pour Windows . . . . . . . . . . . . . . . . . . . Test de la connectivité réseau pour Linux . . . . . . . . . . . . . . . . . . . . . . Virtualisation Microsoft avec Hyper-V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Problèmes propres à Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Problèmes divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Collecte des données de débogage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A Voyants de l'adaptateur B Câbles et modules optiques Spécifications prises en charge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Câbles et modules optiques testés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commutateurs testés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . C Configuration du commutateur Dell Z9100 D Contraintes en matière de fonctionnalités 255 256 256 256 257 257 257 258 258 258 259 259 261 262 266 Glossaire xii AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Liste des Figures Figure Page 3-1 Fenêtre Dell Update Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3-2 Assistant QLogic InstallShield : Fenêtre de bienvenue . . . . . . . . . . . . . . . . . . . . . . 18 3-3 Assistant QLogic InstallShield : Fenêtre de contrat de licence . . . . . . . . . . . . . . . . 19 3-4 Assistant InstallShield : Fenêtre de type d'installation . . . . . . . . . . . . . . . . . . . . . . . 20 3-5 Assistant InstallShield : Fenêtre d'installation personnalisée. . . . . . . . . . . . . . . . . . 21 3-6 Assistant InstallShield : Fenêtre Prêt à installer le programme . . . . . . . . . . . . . . . . 22 3-7 Assistant InstallShield : Fenêtre Terminé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3-8 Fenêtre Dell Update Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3-9 Configuration des propriétés d'adaptateur avancées. . . . . . . . . . . . . . . . . . . . . . . . 26 3-10 Options de gestion de l'alimentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 4-1 Progiciel de mise à jour Dell : Écran de démarrage. . . . . . . . . . . . . . . . . . . . . . . . . 36 4-2 Progiciel de mise à jour Dell : Chargement du nouveau micrologiciel . . . . . . . . . . . 36 4-3 Progiciel de mise à jour Dell : Résultats de l'installation . . . . . . . . . . . . . . . . . . . . . 37 4-4 Progiciel de mise à jour Dell : Terminer l'installation . . . . . . . . . . . . . . . . . . . . . . . . 37 4-5 Options de ligne de commande du DUP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 5-1 Configuration du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 5-2 Configuration du système : Paramètres des périphériques . . . . . . . . . . . . . . . . . . . 42 5-3 Page de configuration principale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 Page de configuration principale, réglage du mode de partitionnement sur NPAR . . . 43 5-4 5-5 Propriétés d'image du micrologiciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 5-6 Configuration au niveau du périphérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 5-7 Configuration NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 5-8 Configuration du système : Paramètres de Data Center Bridging (DCB) . . . . . . . . 52 5-9 Paramètres généraux FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5-10 Configuration de cible FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 5-11 Paramètres généraux iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 5-12 Paramètres de configuration de l'initiateur iSCSI. . . . . . . . . . . . . . . . . . . . . . . . . . . 57 5-13 Paramètres de la première cible iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 5-14 Paramètres de la deuxième cible iSCSI. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 5-15 Configuration du partitionnement NIC, allocation de bande passante globale . . . . 59 5-16 Page Allocation de bande passante globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5-17 Configuration de la partition 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5-18 Configuration de la partition 2 : Déchargement FCoE . . . . . . . . . . . . . . . . . . . . . . . 63 5-19 Configuration de la partition 3 : déchargement iSCSI . . . . . . . . . . . . . . . . . . . . . . . 63 5-20 Configuration de la partition 4 Ethernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 6-1 Configuration des propriétés RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 6-2 Boîte de dialogue Ajouter des compteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 6-3 Performance Monitor : Compteurs FastLinQ Cavium . . . . . . . . . . . . . . . . . . . . . . . 75 6-4 Paramètres de commutateur, serveur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 6-5 Paramètres de commutateur, client . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 6-6 Configuration des applications RDMA_CM : Serveur . . . . . . . . . . . . . . . . . . . . . . . 89 6-7 Configuration des applications RDMA_CM : Client . . . . . . . . . . . . . . . . . . . . . . . . . 89 6-8 Configuration d'un nouveau commutateur réparti . . . . . . . . . . . . . . . . . . . . . . . . . . 93 xiii AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx 6-9 6-10 7-1 7-2 7-3 7-4 8-1 8-2 8-3 8-4 8-5 9-1 9-2 9-3 9-4 9-5 9-6 9-7 9-8 9-9 9-10 9-11 9-12 9-13 9-14 9-15 9-16 9-17 9-18 9-19 9-20 9-21 9-22 9-23 9-24 9-25 10-1 10-2 10-3 10-4 10-5 10-6 10-7 Affectation d'un vmknic pour PVRDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réglage de la règle de pare-feu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetOffloadGlobalSetting . . . . . . . . . . . . . . Perfmon : Ajouter des compteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Perfmon : Vérification du trafic iWARP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ping RDMA réussi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Instances de portail iSER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de Iface Transport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de nouveau périphérique iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de cible LIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du système : Configuration NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du système : Paramètres d'amorçage . . . . . . . . . . . . . . . . . . . . . . . . Configuration du système : Utilitaire de configuration des paramètres de périphérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sélection de la configuration NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du système : Configuration NIC, Protocole de démarrage . . . . . . . . Configuration du système : Configuration iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du système : Sélection des paramètres généraux. . . . . . . . . . . . . . . Configuration du système : paramètres généraux iSCSI . . . . . . . . . . . . . . . . . . . . . Configuration du système : Sélectionner les paramètres d'initiateur iSCSI . . . . . . . Configuration du système : paramètres d'initiateur iSCSI . . . . . . . . . . . . . . . . . . . . Configuration du système : Sélection des paramètres de la première cible iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du système : Paramètres de la première cible iSCSI . . . . . . . . . . . . Configuration du système : Paramètres de la deuxième cible iSCSI. . . . . . . . . . . . Configuration du système : Enregistrement des modifications iSCSI . . . . . . . . . . . Configuration du système : paramètres généraux iSCSI . . . . . . . . . . . . . . . . . . . . . Configuration du système : paramètres généraux iSCSI, ID VLAN . . . . . . . . . . . . . Propriétés de l'initiateur d'iSCSI, page de configuration . . . . . . . . . . . . . . . . . . . . . Modification du nom de nœud de l'initiateur iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . Initiateur iSCSI – Détecter le portail cible. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adresse IP du portail cible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sélection de l'adresse IP de l'initiateur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Connexion à la cible iSCSI. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Boîte de dialogue Connexion à la cible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Invite pour installation non préinstallée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de Red Hat Enterprise Linux 7.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du système : Sélection des paramètres de périphérique. . . . . . . . . . Configuration du système : Paramètres de périphérique, Sélection du port . . . . . . Configuration du système : Configuration NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du système : Mode FCoE activé . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du système : Paramètres généraux FCoE. . . . . . . . . . . . . . . . . . . . . Configuration du système : Paramètres généraux FCoE. . . . . . . . . . . . . . . . . . . . . Invite pour installation non préinstallée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiv 94 95 98 98 99 99 110 110 111 112 114 121 124 125 126 127 128 128 129 130 131 132 133 134 135 137 142 144 144 145 146 147 148 149 167 168 171 172 173 174 175 176 183 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx 10-8 11-1 11-2 11-3 11-4 11-5 11-6 11-7 11-8 11-9 11-10 11-11 11-12 11-13 11-14 11-15 12-1 12-2 12-3 12-4 13-1 13-2 13-3 13-4 13-5 13-6 13-7 13-8 13-9 13-10 13-11 13-12 13-13 13-14 13-15 13-16 13-17 13-18 13-19 13-20 13-21 13-22 13-23 Configuration de Red Hat Enterprise Linux 7.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration système pour SR-IOV : Périphériques intégrés . . . . . . . . . . . . . . . . . Configuration système pour SR-IOV : Configuration au niveau du périphérique . . . . Propriétés de l'adaptateur, Avancées : Activation de SR-IOV . . . . . . . . . . . . . . . . . Gestionnaire de commutateur virtuel : Activation de SR-IOV . . . . . . . . . . . . . . . . . Paramètres de la VM : Activation de SR-IOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gestion de périphériques : VM avec adaptateur QLogic . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetadapterSriovVf . . . . . . . . . . . . . . . . . . Configuration du système : Paramètres du processeur pour SR-IOV . . . . . . . . . . . Configuration système pour SR-IOV : Périphériques intégrés . . . . . . . . . . . . . . . . . Modification du fichier grub.conf pour SR-IOV. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sortie de commande pour sriov_numvfs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sortie de la commande ip link show. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Machine virtuelle RHEL68 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajouter un nouveau matériel virtuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Paramètres de modification de l'hôte VMware. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réseau NVMe-oF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . NQN de sous-système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Confirmez la connexion NVMe-oF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation de l'utilitaire FIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation de RDMA dans la NIC virtuelle hôte . . . . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés de la carte Ethernet virtuelle Hyper-V. . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-VMNetworkAdapter. . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . Boîte de dialogue Ajouter des compteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Performance Monitor montre le trafic RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : New-VMSwitch . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapter . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Activer QoS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Configuration d'ID VLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Activation de QoS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Configuration d'ID VLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Activation de RSS de commutateur virtuel. . . . . . . . . . . . . . Propriétés avancées : Configuration de VMMQ. . . . . . . . . . . . . . . . . . . . . . . . . . . . Gestionnaire de commutateur virtuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-VMSwitch . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Activation de VXLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exemple de configuration matérielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapter . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : New-Item . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : New-SMBShare . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapterStatistics . . . . . . . . . . . . . . . . . xv 184 186 186 187 188 190 191 191 192 193 194 195 196 197 198 201 204 209 209 210 216 217 217 218 219 220 221 221 223 224 227 228 230 231 232 233 236 237 252 252 253 253 254 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Liste des Tableaux Tableau Page 2-1 Exigences du matériel hôte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2-2 Exigences minimales du système d'exploitation hôte . . . . . . . . . . . . . . . . . . . . . . . 5 3-1 Pilotes Linux des Adaptateurs série 41xxx QLogic . . . . . . . . . . . . . . . . . . . . . . . . . 8 3-2 Paramètres facultatifs du pilote qede. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 3-3 Valeurs opérationnelles par défaut du pilote Linux . . . . . . . . . . . . . . . . . . . . . . . . . 15 3-4 Pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3-5 Paquets de pilotes ESXi par version . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3-6 Paramètres facultatifs des pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3-7 Paramètres par défaut des pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3-8 Pilote FCoE VMware des Adaptateur série 41xxx QLogic. . . . . . . . . . . . . . . . . . . . 34 3-9 Pilote iSCSI des Adaptateur série 41xxx QLogic . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 5-1 Propriétés de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 6-1 Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED . . . . . . . . . . . . 66 6-2 Propriétés avancées pour RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 6-3 Compteurs d’erreurs FastLinQ RDMA Cavium . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 9-1 Options de configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 9-2 Définition des paramètres de l'option DHCP 17. . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 9-3 Définition des sous-options de l'option DHCP 43 . . . . . . . . . . . . . . . . . . . . . . . . . . 140 9-4 Définition des sous-options de l'option DHCP 17 . . . . . . . . . . . . . . . . . . . . . . . . . . 141 12-1 Paramètres de cible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 13-1 Rôles et fonctionnalités de Nano Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 14-1 Commandes de collecte des données de débogage . . . . . . . . . . . . . . . . . . . . . . . . 259 A-1 Voyants de liaison et d'activité de port de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . 260 B-1 Câbles et modules optiques testés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262 B-2 Commutateurs testés pour l'interopérabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 xvi AH0054602-02 F Préface Cette préface énumère les produits pris en charge, spécifie le public visé, explique les conventions typographiques utilisées dans ce guide et décrit les avis légaux. Produits pris en charge Ce guide d'utilisation décrit les produits Cavium™ suivants : QL41112HFCU-DE Adaptateur réseau convergent 10 Gb, support pleine hauteur QL41112HLCU-DE Adaptateur réseau convergent 10 Gb, support compact QL41162HFRJ-DE Adaptateur réseau convergent 10 Gb, support pleine hauteur QL41162HLRJ-DE Adaptateur réseau convergent 10 Gb, support compact QL41162HMRJ-DE Adaptateur réseau convergent 10 Gb QL41164HMCU-DE Adaptateur réseau convergent 10 Gb QL41164HMRJ-DE Adaptateur réseau convergent 10 Gb QL41262HFCU-DE Adaptateur réseau convergent 10/25Gb, support pleine hauteur QL41262HLCU-DE Adaptateur réseau convergent 10/25Gb, support compact QL41262HMCU-DE Adaptateur réseau convergent 10/25Gb QL41264HMCU-DE Adaptateur réseau convergent 10/25Gb Public visé Ce guide est destiné aux administrateurs système et autres membres du personnel technique responsables de la configuration et de la gestion des adaptateurs installés sur des serveurs Dell® PowerEdge® dans des environnements Windows®, Linux® ou VMware®. xvii AH0054602-02 F Préface Ce que ce guide comprend Ce que ce guide comprend Après cette préface, le reste de ce guide comprend les chapitres et annexes suivants : Le Chapitre 1 Présentation du produit présente une description fonctionnelle du produit, la liste des fonctionnalités, et les spécifications de l'adaptateur. Le Chapitre 2 Installation du matériel décrit l'installation de l'adaptateur et inclut notamment la liste des exigences système et une liste de vérification de préinstallation. Le Chapitre 3 Installation des pilotes décrit l'installation des pilotes de l'adaptateur sur Windows, Linux et VMware. Le Chapitre 4 Mise à niveau du micrologiciel décrit comment utiliser le progiciel de mise à jour Dell (DUP) pour mettre à niveau le micrologiciel de l'adaptateur. Le Chapitre 5 Configuration de prédémarrage de l'adaptateur décrit les tâches de configuration de l'adaptateur de préamorçage à l'aide de l'application Human Infrastructure Interface (HII). Le Chapitre 6 Configuration de RoCE explique comment configurer l'adaptateur, le commutateur Ethernet et l'hôte afin d'utiliser RDMA over converged Ethernet (RoCE). Le Chapitre 7 Configuration d'iWARP fournit les procédures pour configurer le protocole Internet wide area RDMA (iWARP) sur les systèmes Windows, Linux et VMware ESXi 6.7. Le Chapitre 8 Configuration d'iSER explique comment configurer les extensions iSCSI pour RDMA (iSER) pour Linux RHEL et SLES. Le Chapitre 9 Configuration iSCSI décrit le démarrage iSCSI, le vidage sur incident iSCSI et le déchargement iSCSI pour Windows et Linux. Le Chapitre 10 Configuration de FCoE décrit le démarrage Fibre Channel over Ethernet (FCoE) à partir de SAN et le démarrage à partir de SAN après l'installation. Le Chapitre 11 Configuration de SR-IOV fournit les procédures pour configurer single root input/output virtualization (SR-IOV) sur les systèmes Windows, Linux et VMware. Le Chapitre 12 Configuration de NVMe-oF avec RDMA montre comment configurer NVMe-oF sur un réseau simple. Le Chapitre 13 Windows Server 2016 décrit les fonctionnalités de Windows Server 2016. Le Chapitre 14 Dépannage décrit diverses procédures et ressources de dépannage. xviii AH0054602-02 F Préface Conventions de la documentation L'Annexe A Voyants de l'adaptateur énumère les voyants de l'adaptateur et leur signification. L'Annexe B Câbles et modules optiques énumère les câbles et les modules optiques pris en charge par les Adaptateurs série 41xxx. L'Annexe C Configuration du commutateur Dell Z9100 décrit la configuration du port de commutateur Dell Z9100 pour 25 Gbits/s. L'Annexe D Contraintes en matière de fonctionnalités fournit des informations sur les contraintes en matière de fonctionnalités mises en œuvre dans la version actuelle. À la fin de ce guide, vous trouverez un glossaire. Conventions de la documentation Ce guide utilise les conventions de documentation suivantes : REMARQUE fournit des informations supplémentaires. PRÉCAUTION sans symbole d'alerte indique la présence d'un risque d'endommagement de l'équipement ou de perte de données. ! PRÉCAUTION avec symbole d'alerte indique la présence d'un danger pouvant provoquer des blessures légères ou modérées. ! AVERTISSEMENT indique la présence d'un danger pouvant entraîner des blessures graves, voire la mort. Le texte en bleu indique un lien hypertexte vers une figure, un tableau ou une section de ce guide ; les liens vers les sites Web apparaissent soulignés en bleu. Par exemple : Le Tableau 9-2 répertorie les problèmes relatifs à l'interface utilisateur et à l'agent distant. Voir « Liste de vérification de l'installation » à la page 6. Pour plus d'informations, rendez-vous sur www.cavium.com. Le texte en gras indique les éléments de l'interface utilisateur comme les options de menu, les boutons, les cases à cocher ou les en-têtes de colonne. Par exemple : Cliquez sur le bouton Démarrer, pointez sur Programmes, pointez sur Accessoires, puis cliquez sur Invite de commande. Sous Options de notification, cochez la case Alarmes d'avertissement. xix AH0054602-02 F Préface Conventions de la documentation Le texte en police Courier indique un nom de fichier, un chemin d'accès à un répertoire, ou un texte de ligne de commande. Par exemple : Pour revenir vers le répertoire racine à partir de n'importe où dans la structure de fichiers : Entrez cd /root, puis appuyez sur ENTRÉE. Utilisez la commande suivante : sh ./install.bin. Les noms et les séquences de touches sont indiqués en MAJUSCULES : Appuyez sur CTRL+P. Appuyez sur la touche FLÈCHE HAUT. Le texte en italique indique des termes, des emphases, des variables ou des titres de document. Par exemple : Que sont les touches de raccourci ? Pour saisir la date, entrez mm/jj/aaaa (où mm est le mois, jj est le jour et aaaa est l'année). Les titres des rubriques entre guillemets identifient les rubriques connexes qui figurent dans ce manuel ou dans l'aide en ligne, également appelée le système d'aide dans ce document. Voici les conventions de syntaxe de commande de l'interface de ligne de commande (CLI) : Le texte brut indique les éléments que vous devez taper comme indiqué. Par exemple : qaucli -pr nic -ei < > (Crochets angulaires) indiquent une variable dont vous devez spécifier la valeur. Par exemple : <serial_number> REMARQUE Pour les commandes de l'interface CLI uniquement, les noms des variables sont toujours indiqués en utilisant des crochets angulaires au lieu de l'italique. [ ] (Crochets) indiquent un paramètre facultatif. Par exemple : [<file_name>] signifie spécifier un nom de fichier, ou l'omettre pour sélectionner le nom de fichier par défaut. | (Barre verticale) indique les options mutuellement exclusives ; sélectionnez une seule option. Par exemple : on|off xx AH0054602-02 F Préface Avis légaux 1|2|3|4 ... (Points de suspension) indiquent que l'élément précédent peut être répété. Par exemple : x... signifie une ou plusieurs instances de x. [x...] signifie zéro ou plusieurs instances de x. Des points de suspension verticaux, dans le cadre d'un exemple de sortie de commande, indiquent où des parties de données de sortie répétées ont été volontairement omises. ( ) (Parenthèses) et { } (Accolades) sont utilisés pour éviter toute ambiguïté logique. Par exemple : a|b c est ambigu {(a|b) c} signifie a ou b, suivi de c {a|(b c)} signifie a, ou b c Avis légaux Les avis légaux inclus dans cette section comprennent la sécurité relative au laser (avis de la FDA), l'homologation d'organisme et la conformité en matière de sécurité du produit. Sécurité relative au laser – Avis de la FDA Ce produit est conforme aux règles DHHS 21CFR Chapitre I, Sous-chapitre J. Ce produit a été conçu et fabriqué selon la norme IEC60825-1 indiquée sur l'étiquette de sécurité du produit laser. PRODUIT LASER DE CLASSE I Class 1 Laser Product Caution—Class 1 laser radiation when open Do not view directly with optical instruments Appareil laser de classe 1 Attention—radiation laser de classe 1 Ne pas regarder directement avec des instruments optiques Produkt der Laser Klasse 1 Vorsicht—Laserstrahlung der Klasse 1 bei geöffneter Abdeckung Direktes Ansehen mit optischen Instrumenten vermeiden Luokan 1 Laserlaite Varoitus—Luokan 1 lasersäteilyä, kun laite on auki Älä katso suoraan laitteeseen käyttämällä optisia instrumenttej Homologation d'organisme Les sections suivantes contiennent un récapitulatif des spécifications des tests EMI/EMC réalisés sur les Adaptateurs série 41xxx garantissant une conformité aux normes d'émission, d'immunité et de sécurité du produit : xxi AH0054602-02 F Préface Avis légaux Exigences EMI et EMC Conformité à l'alinéa 15 de la FCC : Classe A Déclaration de conformité FCC : Cet appareil est conforme à la section 15 des règlements FCC. Son fonctionnement est soumis aux deux conditions suivantes : (1) ce périphérique ne doit pas provoquer d'interférences nuisibles et (2) ce périphérique doit accepter to :te interférence reçue, y compris les interférences pouvant altérer son fonctionnement. Conformité ICES-003 : Classe A This Class A digital apparatus complies with Canadian ICES-003. Cet appareil numérique de la classe A est conforme à la norme NMB-003 du Canada. Conformité à la directive EMC 2014/30/UE, 2014/35/UE, marque CE : EN55032:2012/ CISPR 32:2015 Classe A EN55024:2010 EN61000-3-2 : Émission de courant harmonique EN61000-3-3 : Fluctuations et inégalités de tension Normes d'immunité EN61000-4-2 : Décharges électrostatiques EN61000-4-3 : Rayonnements électromagnétiques EN61000-4-4 : Transitoires rapides en salves EN61000-4-5 : Onde de choc EN61000-4-6 : Injection de courant HF EN61000-4-8 : Champ magnétique de fréquence industrielle EN61000-4-11 : Creux et variations de tension VCCI : 2015-04 ; Classe A AS/NZS ; CISPR 32 : 2015 Classe A CNS 13438 : 2006 Classe A KCC : Classe A Korea RRA Certifié classe A Nom/Modèle du produit : Adaptateurs réseau convergents et Adaptateurs Ethernet intelligents Titulaire : QLogic Corporation Date de fabrication : Voir le code de date indiqué sur le produit Fabricant/Pays d'origine : QLogic Corporation / États-Unis Équipement de classe A (Équipement de télécommunication/ informatique à usage professionnel) Cet équipement ayant subi un enregistrement EMC pour un usage professionnel, le vendeur et/ou l'acheteur sont priés de veiller à ce point. En cas de vente ou d'achat illicite, il conviendra de passer à un usage domestique. xxii AH0054602-02 F Préface Avis légaux Format de langue coréenne - Classe A VCCI : Classe A Ceci est un produit de Classe A sur la base de la norme du Conseil de contrôle volontaire des interférences (Voluntary Control Council for Interference - VCCI). Si cet équipement est utilisé dans un environnement local, des interférences radio peuvent se produire, auquel cas l'utilisateur peut être amené à prendre des mesures correctives. Conformité sécurité du produit Sécurité du produit UL, cUL : UL 60950-1 (2ème édition) A1 + A2 2014-10-14 CSA C22.2 No.60950-1-07 (2ème édition) A1 +A2 2014-10 Utiliser uniquement avec équipement informatique ou équivalent. Conforme à 21 CFR 1040.10 et 1040.11, 2014/30/UE, 2014/35/UE. Directive basse tension 2006/95/EC : TUV EN60950-1 :2006+A11+A1+A12+A2 2ème édition TUV IEC 60950-1 : 2005 2ème édition Am1 : 2009 + Am2 : 2013 CB Certifié CB selon IEC 60950-1 2e édition xxiii AH0054602-02 F 1 Présentation du produit Ce chapitre fournit les informations suivantes concernant les Adaptateurs série 41xxx : Description fonctionnelle Fonctionnalités « Spécifications de l'adaptateur » à la page 3 Description fonctionnelle Les adaptateurs QLogic FastLinQ® 41000 Series comprennent des adaptateurs réseau convergents 10 et 25 Gb et des adaptateurs Ethernet intelligents conçus pour la mise en réseau accélérée des données de systèmes de serveurs. L'adaptateur 41000 Series comprend un MAC Ethernet 10/25 Gb doté de fonctionnalité duplex intégral. Grâce à la fonction d'association du système d'exploitation QLogic, vous pouvez séparer votre réseau en réseaux locaux virtuels (VLAN) et regrouper plusieurs adaptateurs réseau en associations pour fournir un équilibrage de charge réseau et une tolérance aux pannes. Pour plus d'informations sur l'association, consultez la documentation de votre système d'exploitation. Fonctionnalités Les Adaptateurs série 41xxx présentent les fonctionnalités suivantes : Certaines fonctions ne sont pas disponibles sur tous les adaptateurs : Partitionnement de carte réseau (NPAR) Solution monopuce : MAC 10/25 Gb Interface SerDes pour connexion d'émetteur-récepteur DAC (direct attach copper) PCIe® 3.0 x8 Matériel à capacité zéro copie 1 AH0054602-02 F 1–Présentation du produit Fonctionnalités 1 Fonctionnalités liées aux performances : Déchargements de somme de contrôle TCP, IP, UDP Déchargement de segmentation TCP (TSO) Large segment offload (LSO) (Déchargement de grands segments) Déchargement de segments génériques (GSO) Grand déchargement de réception (Large Receive Offload – LRO) Regroupement de segments de réception (RSC) File d'attente de machine virtuelle (VMQ) dynamique Microsoft®, et files d'attente multiples Linux Interruptions adaptives : Extensibilité en émission/réception (TSS/RSS) Déchargements sans état pour la virtualisation réseau utilisant l'encapsulation de routage générique (NVGRE) et le trafic de tunnels GRE L2/L3 de LAN virtuel (VXLAN)1 Gérabilité : Contrôleur de bus de gestion système (SMB) Conforme à Advanced Configuration and Power Interface (ACPI) 1.1a (plusieurs modes d'alimentation) Prise en charge de l'interface de bande latérale de contrôleur réseau (NC-SI) Fonctions réseau avancées : Trames étendues (jusqu'à 9 600 octets). Le système d'exploitation et le partenaire de liaison doivent prendre en charge les trames Jumbo. Réseaux locaux virtuels (VLAN) Contrôle du flux (IEEE Std 802.3X) Commande de liaison logique (norme 802.2 de l'IEEE) Processeur RISC (Ordinateur à jeu d'instructions réduit) sur puce haute vitesse Mémoire tampon à trame de 96 Ko intégrée (ne s'applique pas à tous les modèles) 1 024 filtres de classification (ne s'applique pas à tous les modèles) Prise en charge d'adresses multi-diffusion via une fonction matérielle d'adressage calculé à 128 bits Cette fonctionnalité exige une prise en charge du système d’exploitation ou de l’Hyperviseur, afin d’utiliser les déchargements. 2 AH0054602-02 F 1–Présentation du produit Spécifications de l'adaptateur Mémoire NVRAM flash série Interface de gestion de l'alimentation PCI (v1.1) Prise en charge de BAR (base address register) 64 bits Prise en charge du processeur EM64T Prise en charge du démarrage iSCSI et FCoE2 Spécifications de l'adaptateur Les spécifications de l'Adaptateur série 41xxx comprennent les caractéristiques physiques de l'adaptateur et les références de conformité aux normes. Caractéristiques physiques Les Adaptateurs série 41xxx sont des cartes PCIe standard et sont livrés avec un support pleine hauteur ou compact à utiliser dans un logement PCIe standard. Spécifications de normes Les spécifications des normes prises en charge comprennent : 2 Spécification de base PCI Express, rév. 3.1 Spécification électromécanique de carte PCI Express, rév. 3.0 Spécification d'interface de gestion de l'alimentation du bus PCI, rév. 1.2 Spécifications des normes IEEE : 802.3-2015 Norme de l'IEEE pour Ethernet (contrôle de flux) 802.1q (VLAN) 802.1AX (Agrégation de liaisons) 802.1ad (QinQ) 802.1p (Codage basé sur les priorités) 1588-2002 PTPv1 (Precision Time Protocol) 1588-2008 PTPv2 IEEE 802.3az Energy Efficient Ethernet (EEE) IPv4 (RFQ 791) IPv6 (RFC 2460) La limite de prise en charge matérielle de VF dans SR-IOV VF varie. La limite peut être inférieure dans certains environnements de SE ; reportez-vous à la section correspondante à votre système d'exploitation. 3 AH0054602-02 F 2 Installation du matériel Ce chapitre fournit les informations suivantes concernant l'installation du matériel : Exigences système « Précautions de sécurité » à la page 5 « Liste de vérification de préinstallation » à la page 6 « Installation de l'adaptateur » à la page 6 Exigences système Avant d'installer un QLogic Adaptateur série 41xxx, vérifiez que votre système répond aux exigences en matière de matériel et de système d’exploitation affichées dans le Tableau 2-1 et le Tableau 2-2. Pour obtenir une liste complète des systèmes d’exploitation pris en charge, consultez le site Web de Cavium. Tableau 2-1. Exigences du matériel hôte Matériel Exigence Architecture IA-32 ou EMT64 qui satisfait aux exigences de système d'exploitation PCIe PCIe Gen2 x8 (2x10G NIC) PCIe Gen3 x8 (2x25G NIC) La bande passante 25 Gb double port intégral est prise en charge sur les logements PCIe Gen3 x8 ou plus rapides. Mémoire 8 GO de RAM (minimum) Câbles et modules optiques Les Adaptateurs série 41xxx ont été testés pour l'interopérabilité avec une variété de câbles et modules optiques 1G, 10G et 25G. Voir « Câbles et modules optiques testés » à la page 262. 4 AH0054602-02 F 2–Installation du matériel Précautions de sécurité Tableau 2-2. Exigences minimales du système d'exploitation hôte Système d'exploitation Exigence Windows Server 2012, 2012 R2, 2016 (y compris Nano) Linux RHEL® 6.8, 6.9, 7.2, 7.3, 7.4 SLES® 11 SP4, SLES 12 SP2, SLES 12 SP3 VMware ESXi 6.0 u3 et versions ultérieures pour adaptateurs 25 G REMARQUE Le Tableau 2-2 indique la configuration minimale requise du système d'exploitation hôte. Pour obtenir une liste complète des systèmes d’exploitation pris en charge, consultez le site Web de Cavium Précautions de sécurité ! AVERTISSEMENT L'adaptateur est installé dans un système qui fonctionne avec des tensions potentiellement mortelles. Avant d'ouvrir le capot de votre système, prenez les mesures suivantes afin de vous protéger et d'éviter tout risque de destruction des composants du système. Enlevez les objets métalliques ou les bijoux que vous portez aux mains et aux poignets. Veillez à utiliser uniquement des outils isolés ou non conducteurs. Vérifiez que le système est hors tension et que la prise est débranchée avant de toucher tout composant interne. Installez ou enlevez les adaptateurs dans un environnement exempt d'électricité statique. Le port d'un bracelet antistatique correctement relié à la terre ou de tout autre dispositif antistatique ainsi que l'utilisation d'un tapis antistatique sont vivement conseillés. 5 AH0054602-02 F 2–Installation du matériel Liste de vérification de préinstallation Liste de vérification de préinstallation Avant d'installer l'adaptateur, procédez ainsi : 1. Assurez-vous que votre système répond bien à la configuration matérielle et logicielle requise décrite dans la section « Exigences système » à la page 4. 2. Vérifiez si votre système utilise le BIOS le plus récent. REMARQUE Si vous vous êtes procuré le logiciel de l'adaptateur sur le site Web Cavium, vérifiez les chemins d'accès aux fichiers de pilote de l'adaptateur. 3. Si votre système est actif, fermez-le. 4. Une fois le système arrêté, coupez l'alimentation secteur et débranchez la prise de l'ordinateur. 5. Sortez l'adaptateur de son emballage et placez-le sur une surface exempte d'électricité statique. 6. Vérifiez que la carte ne présente aucun signe de détérioration, en particulier sur le connecteur de bord. N'essayez jamais d'installer un adaptateur endommagé. Installation de l'adaptateur Les instructions suivantes s’appliquent à l’installation des QLogic Adaptateurs série 41xxx sur la plupart des systèmes. Pour obtenir des détails sur l'exécution de ces tâches, reportez-vous aux manuels fournis avec votre système. Pour installer l'adaptateur : 1. Consultez les « Précautions de sécurité » à la page 5 et la « Liste de vérification de préinstallation » à la page 6. Avant d'installer l'adaptateur, assurez-vous que le système est hors tension, que la prise est débranchée et que vous respectez les procédures correctes de mise à la terre. 2. Ouvrez le boîtier du système et sélectionnez le logement correspondant à la taille de l'adaptateur, à savoir PCIe Gen 2 x8 ou PCIe Gen 3 x8. Un adaptateur de taille inférieure peut être placé dans un logement plus grand (x8 dans un x16), mais un adaptateur de taille supérieure ne peut pas être placé dans un logement plus petit (x8 dans un x4). Si vous ne savez pas comment identifier un logement PCIe, consultez la documentatio de votre système. 3. Enlevez la platine avant nue (lame d'obturation) du logement sélectionné. 6 AH0054602-02 F 2–Installation du matériel Installation de l'adaptateur 4. Alignez le bord du connecteur de l'adaptateur sur le logement du connecteur PCIe dans le système. 5. En exerçant une pression égale sur les deux coins de la carte adaptateur, enfoncez celle-ci dans le logement jusqu'à ce qu'elle soit bien positionnée. Une fois l'adaptateur correctement positionné, le connecteur du port de l'adaptateur est aligné sur l'ouverture du logement et sa platine avant se trouve dans l'alignement du châssis du système. PRÉCAUTION N'exercez pas de pression excessive lorsque vous calez l'adaptateur, car vous pourriez endommager le système ou l'adaptateur. Si vous avez du mal à enfoncer l'adaptateur, retirez-le, réalignez-le et recommencez. 6. Fixez l'adaptateur avec son clip ou sa vis. 7. Refermez le boîtier du système et détachez tous les dispositifs antistatiques personnels. 7 AH0054602-02 F 3 Installation des pilotes Ce chapitre fournit les informations suivantes concernant l'installation des pilotes : Installation du logiciel pilote pour Linux « Installation du logiciel pilote pour Windows » à la page 16 « Installation du logiciel pilote pour VMware » à la page 28 Installation du logiciel pilote pour Linux Cette section décrit la manière d'installer des pilotes Linux avec ou sans accès direct à la mémoire à distance (RDMA). Elle présente également les paramètres facultatifs des pilotes Linux, leurs valeurs par défaut, leurs messages et leurs statistiques. Installation des pilotes Linux sans RDMA Installation des pilotes Linux avec RDMA Paramètres facultatifs du pilote Linux Valeurs opérationnelles par défaut du pilote Linux Messages du pilote Linux Statistiques Les pilotes Linux des Adaptateur série 41xxx et la documentation complémentaire sont disponibles sur la page de support Dell : dell.support.com Le Tableau 3-1 décrit les pilotes Linux des Adaptateur série 41xxx : Tableau 3-1. Pilotes Linux des Adaptateurs série 41xxx QLogic Pilote Linux qed Description Le module core qed contrôle directement le micrologiciel, gère les interruptions et fournit l'API de bas niveau pour l'ensemble des pilotes propres au protocole. Le pilote qed s'interface avec les pilotes qede, qedr, qedi et qedf. Le module core Linux gère toutes les ressources de périphérique PCI (registres, files d'attente d'interface hôte, etc.). Le module core qed exige la version 2.6.32 ou ultérieure du noyau Linux. Les tests se concentrent sur l'architecture x86_64. 8 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux Tableau 3-1. Pilotes Linux des Adaptateurs série 41xxx QLogic (Suite) Pilote Linux Description qede Pilote Ethernet Linux pour les Adaptateurs série 41xxx. Ce pilote contrôle directement le matériel et est responsable de l'envoi et de la réception des paquets Ethernet au nom de la pile réseau hôte Linux. Ce pilote reçoit et traite également les interruptions de périphérique, pour son propre compte (pour les réseaux L2). Le pilote qed exige la version 2.6.32 ou ultérieure du noyau Linux. Les tests se concentrent sur l'architecture x86_64. qedr Pilote RDMA over converged Ethernet (RoCE) Linux. Ce pilote fonctionne dans l'environnement OpenFabrics Enterprise Distribution (OFED™) en conjonction avec le module de base qed et le pilote Ethernet qede. Les applications d'espace utilisateur RDMA exigent également que la bibliothèque utilisateur libqedr soit installée sur le serveur. qedi Pilote de déchargement iSCSI Linux pour les Adaptateurs série 41xxx. Ce pilote fonctionne avec la bibliothèque Open iSCSI. qedf Pilote de déchargement FCoE Linux pour les Adaptateurs série 41xxx. Ce pilote fonctionne avec la bibliothèque Open FCoE. Vous pouvez installer les pilotes Linux avec un paquet RPM (Red Hat® Package Manager) source ou un paquet RPM kmod. Voici les paquets RPM RHEL : qlgc-fastlinq-<version>.<OS>.src.rpm qlgc-fastlinq-kmp-default-<version>.<arch>.rpm Voici les paquets RPM source et kmp SLES : qlgc-fastlinq-<version>.<OS>.src.rpm qlgc-fastlinq-kmp-default-<version>.<OS>.<arch>.rpm Le paquet RPM kmod (kernel module) suivant installe les pilotes Linux sur des hôtes SLES exécutant l'hyperviseur Xen : qlgc-fastlinq-kmp-xen-<version>.<OS>.<arch>.rpm Le paquet RPM source suivant installe le code de la bibliothèque RDMA sur les hôtes RHEL et SLES : qlgc-libqedr-<version>.<OS>.<arch>.src.rpm Le fichier compressé TAR BZip2 (BZ2) du code source suivant installe les pilotes Linux sur les hôtes RHEL et SLES : fastlinq-<version>.tar.bz2 9 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux REMARQUE Pour les installations réseau via NFS, FTP ou HTTP (à l'aide d'une disquette de démarrage de réseau), vous devrez peut-être utiliser un disque de pilote contenant le pilote qede. Les pilotes de démarrage Linux peuvent être compilés en modifiant l'environnement makefile et make. Installation des pilotes Linux sans RDMA Pour installer les pilotes Linux sans RDMA : 1. Téléchargez les pilotes Linux de l'Adaptateur série 41xxx à partir de Dell : dell.support.com 2. Supprimez les pilotes Linux existants en suivant les instructions de la section « Suppression des pilotes Linux » à la page 10. 3. Installez les nouveaux pilotes Linux en utilisant l'une des méthodes suivantes : Installation des pilotes Linux à l'aide du paquet RPM src Installation des pilotes Linux en utilisant le package RPM kmp/kmod Installation des pilotes Linux en utilisant le fichier TAR Suppression des pilotes Linux Il existe deux procédures permettant de supprimer les pilotes Linux : l'une pour un environnement non-RDMA et l'autre pour un environnement RDMA. Choisissez la procédure qui correspond à votre environnement. Pour supprimer les pilotes Linux dans un environnement non-RDMA, déchargez et supprimez les pilotes : Suivez la procédure relative à la méthode d'installation d'origine et au système d'exploitation. Si vous avez installé les pilotes Linux à l'aide d'un paquet RPM, saisissez les commandes suivantes : rmmod qede rmmod qed depmod -a rpm -e qlgc-fastlinq-kmp-default-<version>.<arch> Si vous avez installé les pilotes Linux à l'aide d'un fichier TAR, saisissez les commandes suivantes : rmmod qede 10 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux rmmod qed depmod -a Pour RHEL : cd /lib/modules/<version>/extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour SLES : cd /lib/modules/<version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour supprimer les pilotes Linux dans un environnement non-RDMA : 1. Pour obtenir le chemin vers les pilotes actuellement installés, entrez la commande suivante : modinfo <driver name> 2. Déchargez et supprimez les pilotes Linux. Si vous avez installé les pilotes Linux à l'aide d'un paquet RPM, saisissez les commandes suivantes : modprobe -r qede depmod -a rpm -e qlgc-fastlinq-kmp-default-<version>.<arch> Si vous avez installé les pilotes Linux à l'aide d'un fichier TAR, saisissez les commandes suivantes : modprobe -r qede depmod -a REMARQUE Si le pilote qedr est présent, entrez à la place la commande modprobe -r qedr. 3. Supprimez les fichiers qed.ko, qede.ko et qedr.ko du répertoire où ils résident. Par exemple, sous SLES, entrez les commandes suivantes : cd /lib/modules/<version>/updates/qlgc-fastlinq rm -rf qed.ko rm -rf qede.ko rm -rf qedr.ko depmod -a 11 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux Pour supprimer les pilotes Linux dans un environnement RDMA : 1. Pour obtenir le chemin vers les pilotes installés, entrez la commande suivante : modinfo <driver name> 2. Déchargez et supprimez les pilotes Linux. modprobe -r qedr modprobe -r qede modprobe -r qed depmod -a 3. Supprimez les fichiers de modules de pilote : Si vous avez installé les pilotes à l'aide d'un paquet RPM, entrez la commande suivante : rpm -e qlgc-fastlinq-kmp-default-<version>.<arch> Si vous avez installé les pilotes à l'aide d'un fichier TAR, saisissez les commandes suivantes, en fonction de votre système d'exploitation : Pour RHEL : cd /lib/modules/<version>/extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour SLES : cd /lib/modules/<version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Installation des pilotes Linux à l'aide du paquet RPM src Pour installer des pilotes Linux à l'aide du package RPM src 1. Saisissez la commande suivante en réponse à une invite de commande : rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.src.rpm 2. Faites passer le répertoire au chemin d'accès au RPM et créez le RPM binaire pour le noyau : Pour RHEL : cd /root/rpmbuild rpmbuild -bb SPECS/fastlinq-<version>.spec Pour SLES : cd /usr/src/packages rpmbuild -bb SPECS/fastlinq-<version>.spec 12 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux 3. Installez le RPM qui vient d'être compilé : rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.<arch>.rpm REMARQUE L'option --force peut être requise sur certaines distributions Linux en cas de conflit. Les pilotes seront installés dans les chemins d'accès suivants. Pour SLES : /lib/modules/<version>/updates/qlgc-fastlinq Pour RHEL : /lib/modules/<version>/extra/qlgc-fastlinq 4. Activez toutes les interfaces ethX de la manière suivante : ifconfig <ethX> up 5. Pour SLES, utilisez YaST pour configurer les interfaces Ethernet afin qu'elles soient lancées automatiquement au moment du démarrage en définissant une adresse IP statique ou en activant DHCP sur l'interface. Installation des pilotes Linux en utilisant le package RPM kmp/kmod Pour installer le package RPM kmod : 1. Saisissez la commande suivante en réponse à une invite de commande : rpm -ivh qlgc-fastlinq-<version>.<arch>.rpm 2. Rechargez le pilote : modprobe -r qede modprobe qede Installation des pilotes Linux en utilisant le fichier TAR Pour installer les pilotes Linux en utilisant le fichier TAR : 1. Créez un répertoire et extrayez les fichiers TAR dans ce répertoire : tar xjvf fastlinq-<version>.tar.bz2 2. Allez au répertoire récemment créé, puis installez les pilotes : cd fastlinq-<version> make clean; make install Les pilotes qed et qede seront installés dans les chemins d'accès suivants : 13 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux Pour SLES : /lib/modules/<version>/updates/qlgc-fastlinq Pour RHEL : /lib/modules/<version>/extra/qlgc-fastlinq 3. Testez les pilotes en les chargeant (au besoin, déchargez d'abord les pilotes existants) : rmmod qede rmmod qed modprobe qed modprobe qede Installation des pilotes Linux avec RDMA Pour plus d'informations sur iWARP, voir le Chapitre 7 Configuration d'iWARP. Pour installer les pilotes Linux dans un environnement avec OFED préinstallé : 1. Téléchargez les pilotes Linux de l'Adaptateur série 41xxx à partir du site Dell : dell.support.com 2. Configurez RoCE sur l'adaptateur comme indiqué à la section « Configuration de RoCE sur l'adaptateur pour Linux » à la page 79. 3. Supprimez les pilotes Linux existants en suivant les instructions de la section « Suppression des pilotes Linux » à la page 10. 4. Installez les nouveaux pilotes Linux en utilisant l'une des méthodes suivantes : 5. Installation des pilotes Linux en utilisant le package RPM kmp/kmod Installation des pilotes Linux en utilisant le fichier TAR Installez les bibliothèques libqedr pour travailler avec les applications de l'espace utilisateur RDMA. Le RPM libqedr est disponible uniquement pour OFED préinstallé. Vous devez sélectionner quel RDMA (RoCE, RoCEv2 ou iWARP) est utilisé dans UEFI jusqu'à ce que la présence simultanée de RoCE et iWARP soit prise en charge dans le micrologiciel. « Aucun » est activé par défaut. Tapez la commande suivante : rpm –ivh qlgc-libqedr-<version>.<arch>.rpm 6. Pour créer et installer la bibliothèque d'espace utilisateur libqedr, entrez la commande suivante : 'make libqedr_install' 7. Testez les pilotes en les chargeant ainsi : modprobe qedr make install_libeqdr 14 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux Paramètres facultatifs du pilote Linux Le Tableau 3-2 décrit les paramètres facultatifs pour le pilote qede. Tableau 3-2. Paramètres facultatifs du pilote qede Paramètre Description debug Contrôle le niveau de verbosité du pilote de manière similaire à ethtool -s <dev> msglvl. int_mode Contrôle le mode d'interruption autre que MSI-X. gro_enable Active ou désactive la fonctionnalité de déchargement de réception générique (GRO) du matériel. Cette fonctionnalité est similaire à la fonction GRO logicielle du noyau, mais est réalisée uniquement par le matériel du périphérique. err_flags_override Un bitmap pour désactiver ou forcer les actions effectuées en cas d'erreur matérielle : bit 31 - bit d'activation de ce masque de bits bit 0 - empêcher le rétablissement des attentions matérielles bit 1 - recueillir les données de débogage bit 2 - déclencher un processus de récupération bit 3 - appeler WARN pour obtenir une trace d'appel du flux qui a conduit à l'erreur Valeurs opérationnelles par défaut du pilote Linux Le Tableau 3-3 énumère les valeurs opérationnelles par défaut des pilotes Linux qed et qede. Tableau 3-3. Valeurs opérationnelles par défaut du pilote Linux Valeur par défaut du pilote qed Valeur par défaut du pilote qede Speed (Vitesse) Négociation automatique avec annonce de la vitesse Négociation automatique avec annonce de la vitesse MSI/MSI-X Activé Activé Flow Control (Contrôle de flux) — Autonégociation avec RX et TX annoncés MTU — 1500 (gamme de 46 à 9 600) Rx Ring Size (Taille d'anneau Rx) — 1000 Opération 15 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows Tableau 3-3. Valeurs opérationnelles par défaut du pilote Linux (Suite) Valeur par défaut du pilote qed Valeur par défaut du pilote qede Tx Ring Size (Taille d'anneau Tx) — 4078 (plage : 128 à 8191) Coalesce Rx Microseconds (grouper les microsecondes de Rx) — 24 (gamme de 0 à 255) Coalesce Tx Microseconds (grouper les microsecondes de Tx) — 48 TSO — Activé Opération Messages du pilote Linux Pour définir le niveau de détail des messages de pilote Linux, entrez une des commandes suivantes : ethtool -s <interface> msglvl <value> modprobe qede debug=<value> où <value> représente les bits 0 à 15, qui sont des valeurs réseau Linux standard, alors que les bits 16 et supérieurs sont spécifiques aux pilotes. Statistiques Pour afficher les statistiques et informations de configuration détaillées, utilisez l'utilitaire ethtool. Reportez-vous à la page principale de ethtool pour de plus amples informations. Installation du logiciel pilote pour Windows Pour plus d'informations sur iWARP, voir le Chapitre 7 Configuration d'iWARP. Installation des pilotes Windows Suppression des pilotes Windows Gestion des propriétés de l'adaptateur Définition des options de gestion de l'alimentation 16 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows Installation des pilotes Windows Installez le logiciel pilote Windows à l'aide du progiciel de mise à jour Dell (Dell Update Package – DUP) : Exécution du DUP dans l'IUG Options d'installation de DUP Exemples d'installation de DUP Exécution du DUP dans l'IUG Pour exécuter le DUP dans l'interface graphique : 1. Double-cliquez sur l'icône représentant le fichier du DUP. REMARQUE Le nom de fichier réel du DUP varie. 2. Dans la fenêtre Dell Update Package (Figure 3-1), cliquez sur Installer. Figure 3-1. Fenêtre Dell Update Package 17 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows 3. Dans la fenêtre de bienvenue de l'Assistant QLogic Super Installer® (Figure 3-2), cliquez sur Suivant. Figure 3-2. Assistant QLogic InstallShield : Fenêtre de bienvenue 18 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows 4. Procédez ainsi dans la fenêtre de contrat de licence de l'Assistant (Figure 3-3) : a. Lisez le contrat de licence du logiciel de l'utilisateur final QLogic. b. Pour continuer, sélectionnez I accept the terms in the license agreement (J'accepte les conditions du contrat de licence). c. Cliquez sur Next (Suivant). Figure 3-3. Assistant QLogic InstallShield : Fenêtre de contrat de licence 19 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows 5. Remplissez la fenêtre de type d'installation de l'Assistant (Figure 3-4) comme suit : a. b. Sélectionnez l'un des types d'installation suivants : Cliquez sur Complète pour installer toutes les fonctions du programme. Cliquez sur Custom (Personnalisée) pour sélectionner les fonctions à installer. Pour continuer, cliquez sur Next (Suivant). Si vous avez choisi Complète, passez directement à l'étape 6b. Figure 3-4. Assistant InstallShield : Fenêtre de type d'installation 6. Si vous avez sélectionné Custom à l'étape 5, remplissez la fenêtre d'installation personnalisée (Figure 3-5) comme suit : a. Sélectionnez les fonctions à installer. Par défaut, toutes les fonctions sont sélectionnées. Pour modifier le paramètre d'installation d'une fonction, cliquez sur l'icône en regard de cette fonction et sélectionnez l'une des options suivantes : This feature will be installed on the local hard drive (Cette fonctionnalité sera installée sur le disque dur local) : marque la fonction pour installation, sans affecter ses sous-fonctions. 20 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows b. This feature, and all subfeatures, will be installed on the local hard drive (Cette fonctionnalité et toutes ses sous-fonctionnalités seront installées sur le disque dur local) : marque la fonction et toutes ses sous-fonctions pour installation This feature will not be available (Cette fonctionnalité ne sera pas disponible) : empêche l'installation de la fonction. Cliquez sur Next (Suivant) pour continuer. Figure 3-5. Assistant InstallShield : Fenêtre d'installation personnalisée 7. Dans la fenêtre Prêt à installer de l'Assistant InstallShield (Figure 3-6), cliquez sur Install (Installer). L'Assistant InstallShield installe les pilotes et le programme d'installation du logiciel de gestion de l'adaptateur QLogic. 21 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows Figure 3-6. Assistant InstallShield : Fenêtre Prêt à installer le programme 22 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows 8. Une fois l'installation terminée, la fenêtre Assistant InstallShield terminé apparaît (Figure 3-7). Cliquez sur Finish (Terminer) pour fermer le programme d'installation. Figure 3-7. Assistant InstallShield : Fenêtre Terminé 23 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows 9. Dans la fenêtre DUP (Figure 3-8), le message « Update installer operation was successful » (« L'opération d'installation de la mise à jour a réussie ») indique que l'installation est terminée. (Facultatif) Pour ouvrir le fichier journal, cliquez sur View Installation Log (Afficher le journal d'installation). Le fichier journal affiche la progression de l'installation du DUP, les versions précédentes installées, les messages d'erreur et d'autres informations au sujet de l'installation. Pour fermer la fenêtre Dell Update Package, cliquez sur CLOSE (FERMER). Figure 3-8. Fenêtre Dell Update Package Options d'installation de DUP Pour personnaliser le comportement d'installation de DUP, utilisez les options de ligne de commande suivantes. Pour extraire uniquement les composants du pilote sur un répertoire : /drivers=<path> REMARQUE Cette commande exige l'option /s. Pour installer ou mettre à jour uniquement les composants du pilote : /driveronly REMARQUE Cette commande exige l'option /s. 24 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows (Avancé) Utilisez l'option /passthrough pour envoyer tout le texte suivant /passthrough directement au logiciel d'installation QLogic du DUP. Ce mode supprime toutes les interfaces GUI fournies, mais pas nécessairement celles du logiciel QLogic. /passthrough (Avancé) Pour retourner une description codée des fonctionnalités prises en charge par ce DUP : /capabilities REMARQUE Cette commande exige l'option /s. Exemples d'installation de DUP Les exemples suivants montrent comment utiliser les options d'installation. Pour mettre à jour le système automatiquement : <DUP_file_name>.exe /s Pour extraire le contenu de la mise à jour dans le répertoire C:\mydir\ : <DUP_file_name>.exe /s /e=C:\mydir Pour extraire les composants de pilote dans le répertoire C:\mydir\ : <DUP_file_name>.exe /s /drivers=C:\mydir Pour installer uniquement les composants du pilote : <DUP_file_name>.exe /s /driveronly Pour modifier l'emplacement du journal par défaut à C:\my path with spaces\log.txt : <DUP_file_name>.exe /l="C:\my path with spaces\log.txt" Suppression des pilotes Windows Pour supprimer les pilotes Windows : 1. Dans le panneau de configuration, cliquez sur Programmes, puis sur Programmes et fonctionnalités. 2. Dans la liste des programmes, sélectionnez QLogic FastLinQ Driver Installer, puis cliquez sur Désinstaller. 3. Suivez les instructions pour supprimer les pilotes. 25 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows Gestion des propriétés de l'adaptateur Pour afficher ou modifier les propriétés de l'Adaptateur série 41xxx : 1. Dans le panneau de configuration, cliquez sur le Gestionnaire de périphériques. 2. Sur les propriétés de l'adaptateur sélectionné, cliquez sur l'onglet Avancé. 3. Sur la page Avancé (Figure 3-9), sélectionnez un élément sous Propriété, puis modifiez sa valeur au besoin. Figure 3-9. Configuration des propriétés d'adaptateur avancées 26 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows Définition des options de gestion de l'alimentation Vous pouvez définir les options de gestion de l'alimentation de façon à ce que le système d'exploitation désactive le contrôleur pour économiser de l'énergie ou de façon à permettre au contrôleur de « réveiller » le système. Si le périphérique est occupé (à gérer un appel par exemple), le système d'exploitation ne l'arrête pas. Le système d'exploitation tente de désactiver tous les périphériques uniquement lorsque l'ordinateur se met en veille. Pour que le contrôleur reste constamment actif, ne cochez pas la case Autoriser l'ordinateur à éteindre ce périphérique pour économiser l'énergie (Figure 3-10). Figure 3-10. Options de gestion de l'alimentation REMARQUE La page de Gestion de l'alimentation ne s'applique qu'aux serveurs prenant en charge la gestion de l'alimentation. Ne cochez pas la case Allow the computer to turn off the device to save power (Autoriser l'ordinateur à éteindre ce périphérique pour économiser l'énergie) s'il s'agit d'un adaptateur faisant partie d'une association. 27 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Installation du logiciel pilote pour VMware Cette section décrit le pilote VMware ESXi qedentv pour les Adaptateurs série 41xxx. Pilotes et jeux de pilotes VMware Installation des pilotes VMware Paramètres facultatifs des pilotes VMware Paramètres par défaut des pilotes VMware Suppression du pilote VMware Prise en charge de FCoE Prise en charge iSCSI Pilotes et jeux de pilotes VMware Le Tableau 3-4 énumère les pilotes VMware ESXi pour les protocoles. Tableau 3-4. Pilotes VMware Pilotes VMware a Description qedentv Pilote de réseau natif qedrntv Natif Pilote de déchargement RDMA (RoCE et RoCEv2) a qedf Pilote de déchargement FCoE natif qedil Pilote de déchargement iSCSI hérité Le pilote RoCE certifié n'est pas inclus dans cette version. Le pilote non certifié peut être disponible dans le cadre d'un aperçu anticipé. Les pilotes ESXi sont inclus sous forme de jeux de pilotes individuels et ne sont pas regroupés, sauf indication particulière. Le Tableau 3-5 énumère les versions ESXi et les versions de pilote applicables. 28 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-5. Paquets de pilotes ESXi par version Version ESXi a Protocole Nom du pilote Version du pilote ESXi 6.5 b NIC qedentv 3.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 RoCE qedrntv 3.0.7.5.1 NIC qedentv 2.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 ESXi 6.0u3 a Des pilotes ESXi supplémentaires peuvent être disponibles après la publication de ce guide d’utilisation. Pour plus d'informations, reportez-vous aux Notes de mise à jour. b Pour ESXi 6.5, les pilotes NIC et RoCE ont été réunis et peuvent être installés sous forme de lot unique hors ligne en utilisant les commandes d'installation standard ESXi. Le nom de paquet est qedentv_3.0.7.5_qedrntv_3.0.7.5.1_signed_drivers.zip. La séquence d'installation recommandée commence par les pilotes NIC et RoCE, suivis pas les pilotes FCoE et iSCSI. Installez les pilotes individuels par l'une des méthodes suivantes : Commandes d'installation de paquet ESXi standard (voir Installation des pilotes VMware) Procédures incluses dans les fichiers Lisez-moi de pilotes individuels Procédures incluses dans l'article suivant de la base de connaissances VMware : https://kb.vmware.com/selfservice/microsites/search.do?language=en_US& cmd=displayKC&externalId=2137853 Vous devez d'abord installer le pilote de carte réseau, puis les pilotes de stockage. Installation des pilotes VMware Vous pouvez utiliser le fichier ZIP de pilotes pour installer un nouveau pilote ou mettre à jour un pilote existant. Veillez à installer l'ensemble des pilotes à partir du même fichier ZIP de pilotes. Le mélange de pilotes issus de plusieurs fichiers ZIP peut générer des problèmes. 29 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Pour installer le pilote VMware : 1. Téléchargez le pilote VMware des Adaptateur série 41xxx à partir de la page de support VMware : www.vmware.com/support.html 2. Allumez l'hôte ESX et connectez-vous à un compte doté du rôle Administrateur. 3. Décompressez le fichier ZIP de pilotes, puis extrayez le fichier .vib. 4. Utilisez l'utilitaire Linux scp pour copier un fichier .vib à partir d'un système local dans le répertoire /tmp sur un serveur ESX avec l'adresse IP 10.10.10.10. Par exemple, entrez la commande suivante : #scp qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib [email protected]:/tmp Vous pouvez placer le fichier dans n'importe quel dossier accessible par le shell de console ESX. REMARQUE Si vous n'avez pas de machine Linux, vous pouvez utiliser l'explorateur de fichiers vSphere datastore pour charger les fichiers sur le serveur. 5. Mettez l'hôte en mode de maintenance en saisissant la commande suivante : #esxcli --maintenance-mode 6. Sélectionnez l'une des options d'installation suivantes : Option 1 : Installez le .vib directement sur un serveur ESX en utilisant soit le CLI soit le gestionnaire VMware Update Manager (VUM) : Pour installer le fichier .vib en utilisant le CLI, entrez la commande suivante. Veillez à indiquer le chemin complet du fichier .vib. # esxcli software vib install -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib Pour installer le fichier .vib en utilisant le VUM, consultez l'article de la base de connaissance ici : Mise à jour d'un hôte ESXi/ESX à l'aide de VMware vCenter Update Manager 4.x et 5.x (1019545) 30 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Option 2 : Pour installer tous les fichiers VIB individuels en même temps en entrant la commande suivante : # esxcli software vib install –d /tmp/qedentv-bundle-2.0.3.zip Pour mettre à niveau un pilote existant : Suivez les étapes correspondant à une nouvelle installation, en remplaçant la commande de l'option 1 précédente par celle-ci : #esxcli software vib update -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib Paramètres facultatifs des pilotes VMware Le Tableau 3-6 décrit les paramètres facultatifs qui peuvent être donnés comme arguments de ligne de commande à la commande esxcfg-module. Tableau 3-6. Paramètres facultatifs des pilotes VMware Paramètre Description hw_vlan Permet d'activer (1) ou de désactiver (0) globalement l'insertion et la suppression de VLAN matériel. Désactivez ce paramètre lorsque la couche supérieure a besoin d'envoyer ou de recevoir des paquets entièrement formés. hw_vlan=1 est la valeur par défaut. num_queues Spécifie le nombre de paires de files d'attente d'émission/réception (TX/RX). num_queues peut être égal à 1–11 ou à l'une des valeurs suivantes : -1 autorise le pilote à déterminer le nombre optimal de paires de files d'attente (valeur par défaut). 0 utilise la file d'attente par défaut. Vous pouvez spécifier plusieurs valeurs séparées par une virgule pour les configurations multiports ou multifonctions. multi_rx_filters Spécifie le nombre de filtres RX par file d'attente RX, à l'exclusion de la file d'attente par défaut. multi_rx_filters peut être égal à 1-4 ou à l'une des valeurs suivantes : –1 utilise le nombre par défaut de filtres RX par file d'attente. 0 désactive les filtres RX. disable_tpa Active (0) ou désactive (1) la fonction TPA (LRO). disable_tpa=0 est la valeur par défaut. max_vfs Spécifie le nombre de fonctions virtuelles (VF) par fonction physique (PF). max_vfs peut être égal à 0 (désactivé) ou à 64 VF sur un seul port (activé). La prise en charge maximale de 64 VF pour ESXi est une contrainte d'allocation de ressources du SE. 31 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-6. Paramètres facultatifs des pilotes VMware (Suite) Paramètre RSS Description Spécifie le nombre de files d'attente de mise à l'échelle en réception utilisées par l'hôte ou par le trafic en tunnel de LAN virtuel extensible (VXLAN) pour une fonction physique (PF). RSS peut être égal à 2, 3 ou 4, ou à l'une des valeurs suivantes : –1 utilise le nombre de files d'attente par défaut. 0 ou 1 désactive les files d'attente RSS. Vous pouvez spécifier plusieurs valeurs séparées par une virgule pour les configurations multiports ou multifonctions. debug (débogage) Spécifie le niveau de données que le pilote doit enregistrer dans le fichier journal vmkernel. debug peut avoir les valeurs suivantes, par ordre croissant de quantité de données : 0x80000000 indique le niveau Avis. 0x40000000 indique le niveau Information (inclut le niveau Avis) 0x3FFFFFFF indique le niveau Détaillé pour tous les sous-modules de pilote (inclut les niveaux Information et Avis) auto_fw_reset Active (1) ou désactive (0) la fonction de récupération automatique du micrologiciel du pilote. Lorsque ce paramètre est activé, le pilote tente de récupérer son fonctionnement normal après des événements tels que l'écoulement du délai d'émission, les assertions de micrologiciel et les erreurs de parité de l'adaptateur. La valeur par défaut est auto_fw_reset=1. vxlan_filter_en Active (1) ou désactive (0) le filtrage VXLAN sur la base de l'adresse MAC externe, de l'adresse MAC interne et du réseau VXLAN (VNI), pour faire correspondre directement le trafic à une file d'attente spécifique. La valeur par défaut est vxlan_filter_en=1. Vous pouvez spécifier plusieurs valeurs séparées par une virgule pour les configurations multiports ou multifonctions. enable_vxlan_offld Active (1) ou désactive (0) la fonction de déchargement de la somme de contrôle de trafic en tunnel VXLAN et de déchargement de la segmentation TCP (TSO). La valeur par défaut est enable_vxlan_offld=1. Vous pouvez spécifier plusieurs valeurs séparées par une virgule pour les configurations multiports ou multifonctions. 32 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Paramètres par défaut des pilotes VMware Le Tableau 3-7 énumère les valeurs par défaut des paramètres des pilotes VMware. Tableau 3-7. Paramètres par défaut des pilotes VMware Paramètre Par défaut Speed (Vitesse) Négociation automatique avec annonce de toutes les vitesses. Le paramètre de vitesse doit être identique sur tous les ports. Si la négociation automatique est activée sur le périphérique, tous les ports du périphérique l'utiliseront. Flow Control (Contrôle de flux) Négociation automatique avec annonce RX et TX MTU 1 500 (plage : 46–9 600) Rx Ring Size (Taille d'anneau Rx) 8 192 (plage : 128-8 192) Tx Ring Size (Taille d'anneau Tx) 8 192 (plage : 128-8 192) MSI-X Enabled (Activé) Transmit Send Offload (TSO) (Déchargement d'envoi en émission (TSO)) Enabled (Activé) Large Receive Offload (LRO) (Déchargement de réception volumineuse (LRO)) Enabled (Activé) RSS Enabled (Activé) (4 files d'attente RX) HW VLAN (VLAN HW) Enabled (Activé) Number of Queues (Nombre de files d'attente) Enabled (Activé) (8 paires de files d'attente RX/TX) Wake on LAN (WoL) (Wake on LAN (WoL)) Disabled (Désactivé) 33 AH0054602-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Suppression du pilote VMware Pour supprimer le fichier .vib (qedentv), entrez la commande suivante : # esxcli software vib remove --vibname qedentv Pour supprimer le pilote, entrez la commande suivante : # vmkload_mod -u qedentv Prise en charge de FCoE Le Tableau 3-8 décrit le pilote inclus dans le paquet logiciel VMware pour prendre en charge les contrôleurs d'interface réseau convergents FCoE (C-NIC) de QLogic. L'ensemble de fonctionnalités FCoE/DCB est pris en charge sur VMware ESXi 5.0 ou version ultérieure. Tableau 3-8. Pilote FCoE VMware des Adaptateur série 41xxx QLogic Pilote qedf Description Le pilote FCoE VMware de QLogic est un pilote de mode noyau qui fournit une couche de traduction entre la pile SCSI VMware et le micrologiciel et le matériel FCoE de QLogic. Prise en charge iSCSI Le Tableau 3-9 décrit le pilote iSCSI. Tableau 3-9. Pilote iSCSI des Adaptateur série 41xxx QLogic Pilote qedil Description Le pilote qedil est le pilote d'adaptateur de bus hôte iSCSI VMware de QLogic. De manière similaire à qedf, qedil est un pilote de mode noyau qui fournit une couche de traduction entre la pile SCSI VMware et le micrologiciel et le matériel iSCSI de QLogic. Le pilote qedil exploite les services fournis par l'infrastructure iscsid VMware pour la gestion de session et les services IP. 34 AH0054602-02 F 4 Mise à niveau du micrologiciel Ce chapitre fournit des informations sur la mise à niveau du micrologiciel à l'aide du progiciel de mise à jour Dell (DUP). Le DUP du micrologiciel est un utilitaire de mise à jour Flash uniquement. Il ne sert pas à la configuration de l'adaptateur. Pour exécuter le DUP du micrologiciel, double-cliquez sur le fichier exécutable. Ou alors, vous pouvez exécuter le DUP du micrologiciel à partir de la ligne de commande, avec plusieurs options de ligne de commande prises en charge. Exécution du DUP en double-cliquant « Exécution du DUP depuis une ligne de commande » à la page 38 « Exécution du DUP à l'aide du fichier .bin » à la page 39 (Linux uniquement) Exécution du DUP en double-cliquant Pour exécuter le DUP du micrologiciel en double-cliquant sur le fichier exécutable : 1. Double-cliquez sur l'icône représentant le fichier du progiciel de mise à jour Dell du micrologiciel. L'écran de démarrage du progiciel de mise à jour Dell apparaît, comme illustré à la Figure 4-1. Cliquez sur Install (Installer) pour continuer. 35 AH0054602-02 F 4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant Figure 4-1. Progiciel de mise à jour Dell : Écran de démarrage 2. Suivez les instructions à l'écran. Dans la boîte de dialogue d'avertissement, cliquez sur Yes (Oui) pour continuer l'installation. Le programme d'installation indique qu'il est en train de charger le nouveau micrologiciel, tel qu'illustré à la Figure 4-2. Figure 4-2. Progiciel de mise à jour Dell : Chargement du nouveau micrologiciel Une fois le chargement terminé, le programme d'installation affiche le résultat de l'installation, tel qu'illustré à la Figure 4-3. 36 AH0054602-02 F 4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant Figure 4-3. Progiciel de mise à jour Dell : Résultats de l'installation 3. Cliquez sur Yes (Oui) pour redémarrer le système. 4. Cliquez sur Finish (Terminer) pour terminer l'installation, tel qu'illustré à la Figure 4-4. Figure 4-4. Progiciel de mise à jour Dell : Terminer l'installation 37 AH0054602-02 F 4–Mise à niveau du micrologiciel Exécution du DUP depuis une ligne de commande Exécution du DUP depuis une ligne de commande L'exécution du DUP du micrologiciel à partir de la ligne de commande, sans spécifier d'options, produit le même résultat qu'un double clic sur l'icône du DUP. Notez que le nom de fichier actuel du DUP varie. Pour exécuter le DUP du micrologiciel depuis une ligne de commande : Tapez la commande suivante : C:\> Network_Firmware_2T12N_WN32_<version>_X16.EXE La Figure 4-5 indique les options qui peuvent être utilisées pour personnaliser l'installation du progiciel de mise à jour Dell. Figure 4-5. Options de ligne de commande du DUP 38 AH0054602-02 F 4–Mise à niveau du micrologiciel Exécution du DUP à l'aide du fichier .bin Exécution du DUP à l'aide du fichier .bin La procédure suivante est prise en charge uniquement sur le système d'exploitation Linux. Pour exécuter le DUP à l'aide du fichier .bin : 1. Copiez le fichier Network_Firmware_NJCX1_LN_X.YZBIN sur le système à tester (System Under Test – SUT). 2. Modifiez le type de fichier en fichier exécutable, comme suit : chmod 777 Network_Firmware_NJCX1_LN_X.Y.Z.BIN 3. Pour démarrer le processus de mise à jour, entrez la commande suivante : ./Network_Firmware_NJCX1_LN_X.Y.Z.BIN 4. Une fois le micrologiciel mis à jour, redémarrez le système. Exemple de sortie du SUT pendant la mise à jour du DUP : ./Network_Firmware_NJCX1_LN_08.07.26.BIN Collecting inventory... Running validation... BCM57810 10 Gigabit Ethernet rev 10 (p2p1) The version of this Update Package is the same as the currently installed version. Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p1) Package version: 08.07.26 Installed version: 08.07.26 BCM57810 10 Gigabit Ethernet rev 10 (p2p2) The version of this Update Package is the same as the currently installed version. Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Package version: 08.07.26 Installed version: 08.07.26 Continue? Y/N:Y Y entered; update was forced by user Executing update... WARNING: DO NOT STOP THIS PROCESS OR INSTALL OTHER DELL PRODUCTS WHILE UPDATE IS IN PROGRESS. THESE ACTIONS MAY CAUSE YOUR SYSTEM TO BECOME UNSTABLE! ........................................................................... Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p1) Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p1) Update success. 39 AH0054602-02 F 4–Mise à niveau du micrologiciel Exécution du DUP à l'aide du fichier .bin Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Update success. Would you like to reboot your system now? Continue? Y/N:Y 40 AH0054602-02 F 5 Configuration de prédémarrage de l'adaptateur Au cours du processus d'amorçage hôte, vous pouvez choisir de cliquer sur Pause et d'effectuer des tâches de gestion de l'adaptateur à l'aide de l'application Human Infrastructure Interface (HII). Il s'agit des tâches suivantes : « Mise en route » à la page 42 « Affichage des propriétés d'image du micrologiciel » à la page 45 « Configuration des paramètres au niveau du périphérique » à la page 46 « Configuration des paramètres NIC » à la page 48 « Configuration de Data Center Bridging » à la page 51 « Configuration du démarrage FCoE » à la page 53 « Configuration du démarrage iSCSI » à la page 54 « Configuration des partitions » à la page 59 REMARQUE Les captures d'écran HII de ce chapitre sont seulement des exemples et ne sont pas forcément identiques aux écrans affichés sur votre système. 41 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Mise en route Mise en route Pour démarrer l'application HII : 1. Ouvrez la fenêtre de configuration du système (System Setup) de votre plateforme. Pour plus d'informations sur le lancement de la configuration du système, consultez le manuel d'utilisation de votre système. 2. Dans la fenêtre de configuration du système (Figure 5-1), sélectionnez Paramètres de périphérique, puis appuyez sur ENTRÉE. Figure 5-1. Configuration du système 3. Dans la fenêtre Paramètres de périphérique (Figure 5-2), sélectionnez le port de l'Adaptateur série 41xxx que vous souhaitez configurer, puis appuyez sur ENTRÉE. Figure 5-2. Configuration du système : Paramètres des périphériques La page de configuration principale (Figure 5-3) présente les options de gestion de l'adaptateur où vous pouvez définir le mode de partitionnement. 42 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Mise en route Figure 5-3. Page de configuration principale 4. Sous Configuration au niveau du périphérique, définissez le Mode de partitionnement sur NPAR pour ajouter l'option Configuration de partitionnement NIC à la page de configuration principale, de la façon indiquée dans la Figure 5-4. REMARQUE NPAR n'est pas disponible sur des ports avec une vitesse maximale de 1G. Figure 5-4. Page de configuration principale, réglage du mode de partitionnement sur NPAR 43 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Mise en route Dans la Figure 5-3 et la Figure 5-4, la page de configuration principale montre les éléments suivants : Propriétés d'image du micrologiciel (voir « Affichage des propriétés d'image du micrologiciel » à la page 45) Configuration au niveau du périphérique (voir « Configuration des paramètres au niveau du périphérique » à la page 46) Configuration NIC (voir « Configuration des paramètres NIC » à la page 48) Configuration iSCSI (si le démarrage à distance iSCSI est autorisé en activant le déchargement iSCSI en mode NPAR sur la troisième partition du port) (voir « Configuration du démarrage iSCSI » à la page 54) Configuration FCoE (si le démarrage FCoE à partir de SAN est autorisé en activant le déchargement iSCSI en mode NPAR sur la deuxième partition du port) (voir « Configuration du démarrage FCoE » à la page 53) Paramètres de Data Center Bridging (DCB) (voir « Configuration de Data Center Bridging » à la page 51) Configuration de partitionnement NIC (si NPAR est sélectionné sur la page Configuration au niveau du périphérique) (voir « Configuration des partitions » à la page 59) En outre, la page de configuration principale présente les propriétés d'adaptateur répertoriées dans le Tableau 5-1. Tableau 5-1. Propriétés de l'adaptateur Propriété d'adaptateur Description Nom de périphérique Nom attribué en usine au périphérique Type de puce Version ASIC ID de périphérique PCI ID de périphérique PCI unique, propre au fournisseur Adresse PCI Adresse de périphérique PCI au format « bus-fonction de périphérique » Clignotement des LED Nombre de clignotements définis par l'utilisateur pour le voyant LED du port État de la liaison État de la liaison externe Adresse MAC Adresse MAC permanente du périphérique, attribuée par le fabricant Adresse MAC virtuelle Adresse MAC du périphérique attribuée par l'utilisateur 44 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Affichage des propriétés d'image du micrologiciel Tableau 5-1. Propriétés de l'adaptateur (Suite) Propriété d'adaptateur Description Adresse MAC iSCSI a Adresse MAC permanente de déchargement iSCSI de périphérique attribuée par le fabricant Adresse MAC virtuelle iSCSI a Adresse MAC de déchargement iSCSI de périphérique définie par l'utilisateur Adresse MAC FCoE b Adresse MAC permanente de déchargement FCoE de périphérique attribuée par le fabricant Adresse MAC virtuelle FCoE b Adresse MAC de déchargement FCoE de périphérique définie par l'utilisateur WWPN FCoE b WWPN (nom universel de port) de déchargement FCoE permanent attribué par le fabricant WWPN virtuel FCoE b WWPN de déchargement FCoE de périphérique défini par l'utilisateur WWNN FCoE b WWNN (nom universel de nœud) de déchargement FCoE de périphérique permanent attribué par le fabricant WWNN virtuel FCoE b WWNN de déchargement FCoE de périphérique défini par l'utilisateur a Cette propriété n'est visible que si le déchargement iSCSI est activé sur la page de configuration de partitionnement NIC. b Cette propriété n'est visible que si le déchargement FCoE est activé sur la page de configuration de partitionnement NIC. Affichage des propriétés d'image du micrologiciel Pour afficher les propriétés pour l'image du micrologiciel, sélectionnez Propriétés d'image du micrologiciel sur la page de configuration principale, puis appuyez sur ENTRÉE. La page Propriétés d'image du micrologiciel (Figure 5-5) spécifie les données en lecture seule suivantes : Version de famille de micrologiciel est la version d'image de démarrage multiple, qui contient plusieurs images de composant de micrologiciel. Version MBI est la version d'image de groupe Cavium QLogic qui est active sur le périphérique. Version du BIOS de contrôleur est la version du micrologiciel de gestion. 45 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres au niveau du périphérique Version de pilote EFI est la version de pilote d'Extensible Firmware Interface (EFI). Version de micrologiciel L2B est la version de micrologiciel de déchargement pour le démarrage. Figure 5-5. Propriétés d'image du micrologiciel Configuration des paramètres au niveau du périphérique REMARQUE Les fonctions physiques (PF) iSCSI sont répertoriées lorsque la fonction de déchargement iSCSI est activée en mode NPAR uniquement. Les fonctions physiques FCoE sont répertoriées lorsque la fonction de déchargement FCoE est activée en mode NPAR uniquement. Tous les modèles d'adaptateur ne prennent pas en charge le déchargement iSCSI et le déchargement FCoE. Un seul déchargement peut être activé par port, et uniquement en mode NPAR. La configuration au niveau du périphérique comprend les paramètres suivants : Mode de virtualisation Mode NPAREP 46 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres au niveau du périphérique Pour configurer les paramètres au niveau du périphérique : 1. Sur la page de configuration principale, sélectionnez Configuration au niveau du périphérique (voir la Figure 5-3 à la page 43), puis appuyez sur ENTRÉE. 2. Sur la page Configuration au niveau du périphérique, sélectionnez les valeurs pour les paramètres au niveau périphérique, de la façon indiquée dans la Figure 5-6. Figure 5-6. Configuration au niveau du périphérique REMARQUE Les adaptateurs QL41264HMCU-DE (référence 5V6Y4) et QL41264HMRJ-DE (référence 0D1WT) affichent la prise en charge de NPAR, SR-IOV et NPAR-EP dans la Configuration au niveau du périphérique, bien que ces fonctions ne soient pas prises en charge sur les ports 3 et 4 1Gbps. 3. 4. Pour le Mode de virtualisation, sélectionnez un des modes suivants à appliquer à tous les ports d'adaptateur : Aucun (valeur par défaut) indique qu'aucun mode de virtualisation n'est activé. NPAR règle l'adaptateur sur le mode de partitionnement NIC indépendant du commutateur. SR-IOV règle l'adaptateur sur le mode SR-IOV. NPar + SR-IOV règle l'adaptateur sur le mode SR-IOV sur NPAR. Mode NParEP configure le nombre maximum de partitions par adaptateur. Ce paramètre est visible lorsque vous sélectionnez soit NPAR soit NPar + SR-IOV comme Mode de virtualisation à l'étape 2. Activé vous permet de configurer jusqu'à 16 partitions par adaptateur. Désactivé vous permet de configurer jusqu'à 8 partitions par adaptateur. 5. Cliquez sur Précédent. 6. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. 47 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC Configuration des paramètres NIC La configuration NIC comprend le réglage des paramètres suivants : Vitesse de liaison Mode NIC + RDMA Prise en charge du protocole RDMA Mode d'amorçage Mode FEC Ethernet écoénergétique Mode LAN virtuel ID de LAN virtuel Pour configurer les paramètres NIC : 1. Sur la page de configuration principale, sélectionnez Configuration NIC (Figure 5-3 à la page 43), puis cliquez sur Terminer. La Figure 5-7 montre la page de configuration NIC. Figure 5-7. Configuration NIC 2. Sélectionnez une des options de Vitesse de liaison suivantes pour le port sélectionné. Toutes les sélections de vitesse ne sont pas disponibles avec tous les adaptateurs. Négociation automatique active le mode de négociation automatique sur le Port. La sélection de mode FEC n'est pas disponible pour ce mode de vitesse. 1 Gbps active le mode de vitesse fixe 1GbE sur le port. Ce mode est uniquement destiné aux interfaces 1 GbE et ne doit pas être configuré pour les interfaces d’adaptateur fonctionnant à d’autres vitesses. La sélection de mode FEC n'est pas disponible pour ce mode de vitesse. Ce mode n'est pas disponible sur tous les adaptateurs. 10 Gbps active le mode de vitesse fixe 10GbE sur le port. Ce mode n'est pas disponible sur tous les adaptateurs. 48 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC 25 Gbps active le mode de vitesse fixe 25GbE sur le port. Ce mode n'est pas disponible sur tous les adaptateurs. SmartAN (valeur par défaut) active le mode de vitesse de liaison FastLinQ SmartAN™ sur le port. Aucune sélection de mode FEC n'est disponible pour ce mode de vitesse. Le réglage SmartAN fait défiler toutes les vitesses de liaison et modes FEC possibles jusqu'à ce qu'une liaison soit établie. Ce mode est uniquement destiné aux interfaces 25 G. Si vous configurez SmartAN pour une interface 10 Gb, le système appliquera les réglages adaptés à une interface 10 G. Ce mode n’est pas disponible sur tous les adaptateurs. 3. Pour Mode NIC + RDMA, sélectionnez soit Activé soit Désactivé pour RDMA sur le port. Ce réglage s'applique à toutes les partitions du port, si l'on se trouve en mode NPAR. 4. FEC Mode est visible lorsque le mode de vitesse fixe 25 Gbps est sélectionné comme Vitesse de liaison à l'étape 2. Pour le Mode FEC, sélectionnez une des options suivantes. Tous les modes FEC ne sont pas disponibles avec tous les adaptateurs. 5. 6. Aucun désactive tous les modes FEC. Fire Code active le mode FEC Fire Code (BASE-R). Reed Solomon active le mode FEC Reed Solomon FEC. Auto permet au port de faire défiler les modes FEC Aucun, Fire Code et Reed Solomon (à cette vitesse de liaison) par permutation circulaire, jusqu'à ce qu'une liaison soit établie. Le paramètre Prise en charge du protocole RDMA s'applique à toutes les partitions du port, si l'on se trouve en mode NPAR. Ce paramètre apparaît si le Mode NIC + RDMA à l'étape 3 est réglé sur Activé. Les options de Prise en charge du protocole RDMA incluent les suivantes : RoCE active le mode RoCE sur ce port. iWARP active le mode iWARP sur ce port. iWARP + RoCE active les modes iWARP et RoCE sur ce port. Il s'agit de la valeur par défaut. Une configuration supplémentaire pour Linux est requise pour cette option, de la façon décrite dans « Configuration d'iWARP et de RoCE » à la page 101. Pour le Mode de démarrage, sélectionnez une des valeurs suivantes : PXE active le démarrage PXE. FCoE active le démarrage FCoE à partir de SAN sur la voie de déchargement de matériel. Le mode FCoE est disponible uniquement si Déchargement FCoE est activé sur la deuxième partition en mode NPAR (voir « Configuration des partitions » à la page 59). 49 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC 7. 8. iSCSI active le démarrage à distance iSCSI sur la voie de déchargement de matériel. Le mode iSCSI est disponible uniquement si le Déchargement iSCSI est activé sur la troisième partition en mode NPAR (voir « Configuration des partitions » à la page 59). Désactivé empêche ce port d'être utilisé comme source de démarrage à distance. Le paramètre Ethernet écoénergétique (EEE) est visible uniquement sur des adaptateurs à interface RJ45 100BASE-T ou 10GBASE-T. Sélectionnez parmi les options EEE suivantes : Désactivé désactive EEE sur ce port. Puissance et performances optimales active EEE en mode de puissance et performances optimales sur ce port. Économies d'énergie maximales active EEE en mode d'économies d'énergie maximales sur ce port. Performances maximales active EEE en mode de performances maximales sur ce port. Le Mode LAN virtuel s'applique au port entier lorsqu'on se trouve dans le mode d'installation à distance PXE. Il n'est pas persistant après la fin de l'installation à distance PXE. Sélectionnez parmi les options VLAN suivantes : Activé active le mode VLAN sur ce port pour le mode d'installation à distance PXE. Désactivé désactive le mode VLAN sur ce port. 9. Le paramètre ID de LAN virtuel spécifie l'identificateur de VLAN à utiliser sur ce port pour le mode d'installation à distance PXE. Ce paramètre s'applique uniquement lorsque le Mode LAN virtuel est activé à l'étape précédente. 10. Cliquez sur Précédent. 11. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer le port pour l'utilisation de RDMA : REMARQUE Procédez comme suit pour activer le RDMA sur toutes les partitions d'un port en mode NPAR. 1. Définissez le Mode NIC + RDMA sur Activé. 2. Cliquez sur Précédent. 50 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging 3. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer le mode de démarrage du port : 1. Pour une installation à distance PXE UEFI, sélectionnez PXE comme Mode de démarrage. 2. Cliquez sur Précédent. 3. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer l'installation à distance PXE du port pour utiliser un VLAN : REMARQUE Ce VLAN n'est pas persistant après la fin de l'installation à distance PXE. 1. Définissez le Mode LAN virtuel sur Activé. 2. Dans la case ID de LAN virtuel, entrez le nombre à utiliser. 3. Cliquez sur Précédent. 4. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Configuration de Data Center Bridging Les réglages de Data Center Bridging (DCB) comprennent le protocole DCBX et la priorité RoCE. Pour configurer les paramètres DCB : 1. Sur la page de configuration principale (Figure 5-3 à la page 43), sélectionnez Paramètres Data Center Bridging (DCB), et cliquez ensuite sur Terminer. 2. Sur la page de paramètres de Data Center Bridging (DCB) (Figure 5-8), sélectionnez l'option appropriée de Protocole DCBX : Désactivé désactive DCBX sur ce port. CEE active le mode DCBX du protocole Converged Enhanced Ethernet (CEE) hérité sur ce port. IEEE active le mode IEEE DCBX sur ce port. Dynamique active l'application dynamique du protocole CEE ou IEEE de façon à correspondre au partenaire de liaison joint. 51 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging 3. Sur la page de Paramètres de Data Center Bridging (DCB), entrez la Priorité RoCE v1 sous forme de valeur de 0 à 7. Ce paramètre indique le numéro de priorité de classe de trafic DCB utilisé pour le trafic RoCE et doit correspondre au nombre utilisé par le réseau de commutation à DCB activé pour le trafic RoCE. 0 spécifie le numéro de priorité habituel utilisé pour la classe de trafic avec perte par défaut ou habituelle. 3 spécifie le numéro de priorité utilisé par le trafic Fcoe sans perte. 4 spécifie le numéro de priorité utilisé par le trafic iSCSI-TLV over DCB sans perte. 1, 2, 5, 6 et 7 spécifient les numéros de priorité de classe de trafic DCB disponibles pour une utilisation RoCE. Suivez les instructions de configuration RoCE du SE respectif pour l'utilisation de cette commande RoCE. Figure 5-8. Configuration du système : Paramètres de Data Center Bridging (DCB) 4. Cliquez sur Précédent. 5. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. REMARQUE Lorsque DCBX est activé, l'adaptateur envoie périodiquement des paquets de protocole de découverte de couche de liaison (Link Layer Discovery Protocol - LLDP) avec une adresse de monodiffusion dédiée qui sert d'adresse MAC source. Cette adresse MAC LLDP est différente de l'adresse MAC Ethernet de l'adaptateur, attribuée en usine. Si vous examinez le tableau d'adresses MAC pour le port de commutateur qui est connecté à l'adaptateur, vous pouvez voir deux adresses MAC : une pour les paquets LLDP et une pour l'interface Ethernet de l'adaptateur. 52 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage FCoE Configuration du démarrage FCoE REMARQUE Le menu de configuration de démarrage FCoE est uniquement visible si le Mode de déchargement FCoE est activé sur la deuxième partition en mode NPAR (voir Figure 5-18 à la page 63). Il n'est pas visible en mode non-NPAR. Pour configurer les paramètres de configuration du démarrage FCoE : 1. Sur la page de configuration principale, sélectionnez Configuration FCoE, puis sélectionnez les options suivantes selon le besoin : Paramètres généraux FCoE (Figure 5-9) Configuration de cible FCoE (Figure 5-10) 2. Appuyez sur ENTRÉE. 3. Choisissez les valeurs des paramètres généraux FCoE ou de configuration de cible FCoE. Figure 5-9. Paramètres généraux FCoE 53 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-10. Configuration de cible FCoE 4. Cliquez sur Précédent. 5. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Configuration du démarrage iSCSI REMARQUE Le menu de Configuration de démarrage iSCSI est uniquement visible si le Mode de déchargement iSCSI est activé sur la troisième partition en mode NPAR (voir Figure 5-19 à la page 63). Il n'est pas visible en mode non-NPAR. Pour configurer les paramètres de configuration du démarrage iSCSI : 1. Sur la page de configuration principale, sélectionnez Menu de configuration du démarrage iSCSI, puis sélectionnez l'une des options suivantes : Configuration générale iSCSI 54 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Configuration d'initiateur iSCSI Configuration de la première cible iSCSI Configuration de la deuxième cible iSCSI 2. Appuyez sur ENTRÉE. 3. Choisissez les valeurs des paramètres de configuration iSCSI appropriés : Paramètres généraux iSCSI (Figure 5-11 à la page 56) Paramètres de l'initiateur iSCSI (Figure 5-12 à la page 57) Adresse IPv4 Masque de sous-réseau IPv4 Passerelle par défaut IPv4 DNS principal IPv4 DNS secondaire IPv4 ID VLAN Nom iSCSI ID CHAP Secret CHAP Paramètres de la première cible iSCSI (Figure 5-13 à la page 57) Paramètres TCP/IP via DHCP Paramètres iSCSI via DHCP Authentification CHAP Authentification mutuelle CHAP IP Version (Version IP) Redirection ARP Délai d'expiration de requête DHCP Délai d'expiration de connexion de cible Réf. fournisseur DHCP Connect (Se connecter) Adresse IPv4 Port TCP Numéro d'unité logique d'initialisation Nom iSCSI ID CHAP Secret CHAP Paramètres de la deuxième cible iSCSI (Figure 5-14 à la page 58) Connect (Se connecter) Adresse IPv4 Port TCP Numéro d'unité logique d'initialisation Nom iSCSI ID CHAP Secret CHAP 55 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI 4. Cliquez sur Précédent. 5. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Figure 5-11. Paramètres généraux iSCSI 56 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-12. Paramètres de configuration de l'initiateur iSCSI Figure 5-13. Paramètres de la première cible iSCSI 57 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration du démarrage iSCSI Figure 5-14. Paramètres de la deuxième cible iSCSI 58 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Configuration des partitions Vous pouvez configurer des plages de bande passante pour chaque partition sur l'adaptateur. Pour des informations spécifiques à la configuration de partition sous VMware ESXi 6.0/6.5, voir Partitionnement pour VMware ESXi 6.0 et ESXi 6.5. Pour configurer l'allocation de bande passante maximale et minimale : 1. Sur la page de configuration principale, sélectionnez Configuration de partitionnement NIC, puis appuyez sur ENTRÉE. 2. Sur la page Configuration des partitions (Figure 5-15), sélectionnez Allocation de la bande passante globale. Figure 5-15. Configuration du partitionnement NIC, allocation de bande passante globale 59 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions 3. Sur la page Allocation de la bande passante globale (Figure 5-16), cliquez sur le champ de bande passante d'émission (TX) maximale et minimale pour chaque partition, afin d'allouer de la bande passante. Il y a huit partitions par port en mode double port. Figure 5-16. Page Allocation de bande passante globale Bande passante TX minimale de la partition n indique la bande passante minimale d'émission (TX) de la partition sélectionnée, exprimée en pourcentage de la vitesse de liaison maximale du port physique. Plage admise : de 0 à 100. Lorsque vous activez le mode ETS DCBX, la valeur de bande passante minimale par classe de trafic ETS DCBX est utilisée simultanément avec la valeur de bande passante TX minimale par partition. Le total des valeurs de bande passante TX minimale de toutes les partitions d'un seul port doit être égal à 100 ou à zéro. Un réglage de la bande passante d'émission sur toutes les valeurs à zéro est similaire à diviser de manière égale la bande passante disponible sur chaque partition active ; toutefois, la bande passante est allouée dynamiquement sur toutes les partitions envoyant activement. Une valeur de zéro (lorsqu'une ou plusieurs des autres valeurs sont réglées sur une valeur non nulle) alloue un minimum d'un pour cent à cette partition, lorsqu'une surcharge (de toutes les partitions) limite la bande passante d'émission. 60 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Bande passante TX maximale de la partition n indique la bande passante maximale d'émission (TX) de la partition sélectionnée, exprimée en pourcentage de la vitesse de liaison maximale du port physique. Plage admise : de 1 à 100. La valeur de bande passante TX maximale par partition s'applique quel que soit la configuration du mode ETS DCBX. Entrez une valeur dans chaque champ sélectionné, puis cliquez sur Précédent. 4. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer les partitions : 1. Pour examiner une configuration de partition spécifique, sur la page de configuration de partitionnement NIC (Figure 5-15 à la page 59), sélectionnez Configuration de la Partition n. Si NParEP n'est pas activé, il n'y a que quatre partitions qui existent par port. 2. Pour configurer la première partition, sélectionnez Configuration de partition 1 pour ouvrir la page de configuration de partition 1 (Figure 5-17), qui affiche les paramètres suivants : Mode NIC (toujours activé) PCI Device ID (ID de périphérique PCI) Adresse PCI (bus) Adresse MAC Adresse MAC virtuelle Si NParEP n'est pas activé, il n'y a que quatre partitions par port qui sont disponibles. Sur des adaptateurs sans capacité de déchargement, les options Mode FCoE et Mode iSCSI et les informations ne sont pas affichées. Figure 5-17. Configuration de la partition 1 61 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions 3. Pour configurer la deuxième partition, sélectionnez Configuration de la partition 2 pour ouvrir la page de configuration de la partition 2. Si le déchargement FCoE est présent, la configuration de la partition 2 (Figure 5-18) affiche les paramètres suivants : Mode NIC active ou désactive la personnalité NIC Ethernet L2 sur les Partitions 2 et supérieures. Pour désactiver l'une des partitions restantes, définissez le Mode NIC sur Désactivé. Pour désactiver les partitions à capacité de déchargement, désactivez à la fois le Mode NIC et le mode de déchargement respectif. Mode FCoE active ou désactive la personnalité de déchargement FCoE sur la deuxième partition. Si vous activez ce mode sur la deuxième partition, vous devez désactiver Mode NIC. Un seul déchargement étant disponible par port, si le déchargement FCoE est activé sur la deuxième partition du port, le déchargement iSCSI ne peut pas être activé sur la troisième partition de ce même port en mode NPAR. Tous les adaptateurs ne prennent pas en charge le Mode Fcoe. Mode iSCSI active ou désactive la personnalité de déchargement iSCSI sur la troisième partition. Si vous activez ce mode sur la troisième partition, vous devez désactiver le Mode NIC. Un seul déchargement étant disponible par port, si le déchargement iSCSI est activé sur la troisième partition du port, le déchargement FCoE ne peut pas être activé sur la deuxième partition de ce même port en mode NPAR. Tous les adaptateurs ne prennent pas en charge le Mode iSCSI. FIP MAC Address (Adresse MAC FIP)1 Virtual FIP MAC Address (Adresse MAC virtuelle FIP) 1 World Wide Port Name (Nom universel de port) 1 Virtual World Wide Port Name (Nom universel de port virtuel) 1 World Wide Node Name (Nom universel de nœud) 1 Virtual World Wide Node Name (Nom universel de nœud virtuel) 1 PCI Device ID (ID de périphérique PCI) PCI Address (Adresse PCI) (bus) 1 Ce paramètre est uniquement présent sur la deuxième partition d'un port en mode NPAR d'adaptateurs à capacité de déchargement FCoE. 62 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Figure 5-18. Configuration de la partition 2 : Déchargement FCoE 4. Pour configurer la troisième partition, sélectionnez Configuration de la partition 3 pour ouvrir la page de configuration de la partition 3 (Figure 5-17). Si le déchargement iSCSI est présent, la configuration de la partition 3 affiche les paramètres suivants : Mode NIC (Désactivé) Mode de déchargement iSCSI (Activé) Adresse MAC de déchargement iSCSI2 Adresse MAC virtuelle de déchargement iSCSI 2 PCI Device ID (ID de périphérique PCI) Adresse PCI Figure 5-19. Configuration de la partition 3 : déchargement iSCSI 2 Ce paramètre est uniquement présent sur la troisième partition d'un port en mode NPAR d'adaptateurs à capacité de déchargement iSCSI. 63 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions 5. Pour configurer les partitions Ethernet restantes, y compris la précédente (si elle n'est pas activée pour le déchargement), ouvrez la page pour une partition 2 ou une partition Ethernet supérieure (voir la Figure 5-20). Mode NIC (Activé ou Désactivé). Lorsqu'elle est désactivée, la partition est masquée de telle sorte qu'elle n'apparaît pas pour le système d'exploitation s'il y a moins de partitions détectées que la quantité maximale de partitions (ou de fonctions physiques PCI). PCI Device ID (ID de périphérique PCI) Adresse PCI Adresse MAC Adresse MAC virtuelle Figure 5-20. Configuration de la partition 4 Ethernet Partitionnement pour VMware ESXi 6.0 et ESXi 6.5 Si les conditions suivantes existent sur un système exécutant soit VMware ESXi 6.0 soit ESXi 6.5, vous devez désinstaller et réinstaller les pilotes : L'adaptateur est configuré pour activer NPAR avec toutes les partitions NIC. L'adaptateur est en mode de fonction unique. La configuration est enregistrée et le système est redémarré. Les partitions de stockage sont activées (par conversion d'une des partitions NIC en tant que stockage) alors que les pilotes sont déjà installés sur le système. La partition 2 est transformée en FCoE. La configuration est enregistrée et le système est de nouveau redémarré. 64 AH0054602-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Une réinstallation du pilote est requise parce que les fonctions de stockage peuvent conserver l'énumération vmnicX plutôt que vmhbaX, comme illustré lorsque vous entrez la commande suivante sur le système : # esxcfg-scsidevs -a vmnic4 qedf link-up fc.2000000e1ed6fa2a:2001000e1ed6fa2a (0000:19:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (FCoE) vmhba0 lsi_mr3 link-n/a sas.51866da071fa9100 (0000:18:00.0) Avago (LSI) PERC H330 Mini vmnic10 qedf link-up fc.2000000e1ef249f8:2001000e1ef249f8 (0000:d8:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (FCoE) vmhba1 vmw_ahci link-n/a sata.vmhba1 (0000:00:11.5) Intel Corporation Lewisburg SSATA Controller [AHCI mode] vmhba2 vmw_ahci link-n/a sata.vmhba2 (0000:00:17.0) Intel Corporation Lewisburg SATA Controller [AHCI mode] vmhba32 qedil online iscsi.vmhba32 FastLinQ QL41xxx Series 10/25 GbE Controller (iSCSI) QLogic vmhba33 qedil online iscsi.vmhba33 FastLinQ QL41xxx Series 10/25 GbE Controller (iSCSI) QLogic Dans la sortie de commande précédente, notez que vmnic4 et vmnic10 sont réellement des ports d'adaptateur de stockage. Pour empêcher ce comportement, activez les fonctions de stockage en même temps que vous configurez l'adaptateur pour le mode NPAR. Par exemple, en supposant que l'adaptateur est en mode de fonction unique par défaut, vous devez : 1. Activer le mode NPAR. 2. Changer la Partition 2 en FCoE. 3. Enregistrer et redémarrer. 65 AH0054602-02 F 6 Configuration de RoCE Ce chapitre décrit la configuration de RDMA over converged Ethernet (RoCE v1 et v2) sur l'Adaptateur série 41xxx, le commutateur Ethernet, et l'hôte Windows ou Linux, y compris : Systèmes d'exploitation pris en charge et OFED « Planification pour RoCE » à la page 67 « Préparation de l'adaptateur » à la page 68 « Préparation du commutateur Ethernet » à la page 68 « Configuration de RoCE sur l'adaptateur pour Windows Server » à la page 70 « Configuration de RoCE sur l'adaptateur pour Linux » à la page 79 « Configuration de RoCE sur l'adaptateur pour VMware ESX » à la page 90 REMARQUE Certaines fonctionnalités RoCE peuvent ne pas être entièrement activées dans la version actuelle. Systèmes d'exploitation pris en charge et OFED Le Tableau 6-1 affiche la prise en charge des systèmes d'exploitation pour RoCE v1, RoCE v2, iWARP et OFED. Tableau 6-1. Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED Système d'exploitation Préinstallé OFED 3.18-3 GA OFED-4.8-1 GA Windows Server 2012 R2 Non S/O S/O Windows Server 2016 Non S/O S/O RHEL 6.8 RoCE v1, iWARP RoCE v1, iWARP Non RHEL 6.9 RoCE v1, iWARP Non Non 66 AH0054602-02 F 6–Configuration de RoCE Planification pour RoCE Tableau 6-1. Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED (Suite) Système d'exploitation Préinstallé OFED 3.18-3 GA OFED-4.8-1 GA RHEL 7.3 RoCE v1, RoCE v2, iWARP, iSER Non RoCE v1, RoCE v2, iWARP RHEL 7.4 RoCE v1, RoCE v2, iWARP, iSER Non Non SLES 12 SP3 RoCE v1, RoCE v2, iWARP, iSER Non Non CentOS 7.3 RoCE v1, RoCE v2, iWARP, iSER Non RoCE v1, RoCE v2, iWARP CentOS 7.4 RoCE v1, RoCE v2, iWARP, iSER Non Non Non S/O S/O VMware ESXi 6.5, 6.5U1 RoCE v1, RoCE v2 S/O S/O VMware ESXi 6.7 RoCE v1, RoCE v2 S/O S/O VMware ESXi 6.0 u3 Planification pour RoCE Lorsque vous vous préparez à implémenter RoCE, tenez compte des limitations suivantes : Si vous utilisez OFED préinstallé, le système d'exploitation doit être identique sur les systèmes serveur et client. Certaines applications peuvent fonctionner avec des systèmes d'exploitation différents, mais ce n'est pas garanti. Il s'agit d'une limitation d'OFED. Pour les applications OFED (généralement des applications de test des performances (perftest)), les applications serveur et client doivent utiliser les mêmes options et valeurs. Des problèmes peuvent surgir si le système d'exploitation et l'application perftest utilisent des versions différentes. Pour vérifier la version perftest, entrez la commande suivante : # ib_send_bw --version La construction de libqedr dans OFED préinstallé nécessite l'installation de libibverbs-devel. L'exécution des applications de l'espace utilisateur dans OFED préinstallé nécessite l'installation du groupe de support InfiniBand®, par yum groupinstall « InfiniBand Support », qui contient libibcm, libibverbs, etc. 67 AH0054602-02 F 6–Configuration de RoCE Préparation de l'adaptateur Les applications OFED et RDMA qui dépendent de libibverbs nécessitent également la bibliothèque d'espace utilisateur RDMA QLogic, libqedr. Installez libqedr en utilisant les paquets libqedr RPM ou source. RoCE prend uniquement en charge le format Little Endian. RoCE ne fonctionne pas sur VF dans un environnement SR-IOV. Préparation de l'adaptateur Suivez les étapes suivantes pour activer DCBX et définir la priorité RoCE à l'aide de l'application de gestion HII. Pour plus d'informations sur l'application HII, voir Chapitre 5 Configuration de prédémarrage de l'adaptateur. Pour préparer l'adaptateur : 1. Sur la page de configuration principale, sélectionnez Paramètres Data Center Bridging (DCB), puis cliquez sur Terminer. 2. Dans la fenêtre Paramètres Data Center Bridging (DCB), cliquez sur l'option Protocole DCBX. L'Adaptateur série 41xxx prend en charge les protocoles CEE et IEEE. Cette valeur doit être identique à la valeur correspondante sur le commutateur DCB. Dans cet exemple, sélectionnez CEE ou Dynamique. 3. Dans la zone Priorité RoCE, entrez une valeur de priorité. Cette valeur doit être identique à la valeur correspondante sur le commutateur DCB. Dans cet exemple, tapez 5. En règle générale, 0 est utilisé pour la classe de trafic avec perte par défaut, 3 est utilisé pour la classe de trafic FCoE et 4 est utilisé pour la classe de trafic iSCSI-TLV sur DCB sans perte. 4. Cliquez sur Précédent. 5. À l'invite, cliquez sur Oui pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour Windows, vous pouvez configurer DCBX à l'aide de la méthode HII ou QoS. La configuration illustrée dans cette section est effectuée à l'aide de HII. Pour QoS, reportez-vous à la section « Configuration de QoS pour RoCE » à la page 222. Préparation du commutateur Ethernet Cette section explique comment configurer un commutateur Ethernet Cisco® Nexus® 6000 et un commutateur Ethernet Dell® Z9100 pour RoCE. Configuration du commutateur Ethernet Cisco Nexus 6000 Configuration du commutateur Ethernet Dell Z9100 68 AH0054602-02 F 6–Configuration de RoCE Préparation du commutateur Ethernet Configuration du commutateur Ethernet Cisco Nexus 6000 Les étapes de configuration du commutateur Ethernet Cisco Nexus 6000 pour RoCE comprennent la configuration des adressages de classes, la configuration des adressages de stratégies, l'application de la stratégie et l'affectation d'un ID VLAN au port de commutateur. Pour configurer le commutateur Cisco : 1. Ouvrez une session de terminal de configuration de la façon suivante : Switch# config terminal switch(config)# 2. Configurez l'adressage de classes de qualité de service (QoS) et définissez la même priorité RoCE que celle de l'adaptateur (5) de la façon suivante : switch(config)# class-map type qos class-roce switch(config)# match cos 5 3. Configurez les adressages de classes de mise en file d'attente de la façon suivante : switch(config)# class-map type queuing class-roce switch(config)# match qos-group 3 4. Configurez les adressages de classes de QoS réseau de la façon suivante : switch(config)# class-map type network-qos class-roce switch(config)# match qos-group 3 5. Configurez les adressages de stratégies de QoS de la façon suivante : switch(config)# policy-map type qos roce switch(config)# class type qos class-roce switch(config)# set qos-group 3 6. Configurez les adressages de stratégies de mise en file d'attente pour l'affectation de la bande passante réseau. Dans cet exemple, utilisez la valeur 50 % : switch(config)# policy-map type queuing roce switch(config)# class type queuing class-roce switch(config)# bandwidth percent 50 7. Configurez les adressages de stratégies de QoS réseau pour définir le contrôle de flux basé sur la priorité pour la classe de trafic « aucune perte » (no drop) de la façon suivante : switch(config)# policy-map type network-qos roce switch(config)# class type network-qos class-roce switch(config)# pause no-drop 69 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server 8. Appliquez la nouvelle stratégie au niveau du système de la façon suivante : switch(config)# switch(config)# switch(config)# switch(config)# switch(config)# 9. system qos service-policy service-policy service-policy service-policy type type type type qos input roce queuing output roce queuing input roce network-qos roce Attribuez un ID VLAN au port de commutateur, en choisissant un ID VLAN identique à celui affecté à l'adaptateur (5). switch(config)# interface ethernet x/x switch(config)# switchport mode trunk switch(config)# switchport trunk allowed vlan 1,5 Configuration du commutateur Ethernet Dell Z9100 Pour configurer le commutateur Ethernet Dell Z9100 pour RoCE, voir la procédure dans Annexe C Configuration du commutateur Dell Z9100. Configuration de RoCE sur l'adaptateur pour Windows Server La configuration de RoCE sur l'adaptateur pour Windows Server consiste à activer RoCE sur l'adaptateur et à vérifier la taille de MTU Network Direct. Pour configurer RoCE sur un hôte Windows Server : 1. Activez RoCE sur l'adaptateur. a. Ouvrez le gestionnaire de périphériques Windows, puis ouvrez la fenêtre Propriétés NDIS Miniport des Adaptateurs série 41xxx. b. Dans Propriétés de l'adaptateur QLogic FastLinQ, cliquez sur l'onglet Avancé. c. Sur la page Avancé, configurez les propriétés énumérées au Tableau 6-2 en sélectionnant chaque élément sous Propriété et en choisissant une Valeur appropriée pour cet élément. Cliquez sur OK. Tableau 6-2. Propriétés avancées pour RoCE Propriétés Valeur ou description Fonctionnalité Network Direct Activé Taille MTU Network Direct La taille de MTU Network Direct doit être inférieure à la taille de paquet étendu. 70 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-2. Propriétés avancées pour RoCE (Suite) Propriétés Valeur ou description Mode RDMA RoCE v1 ou RoCE v2. La valeur iWARP s'applique uniquement lors de la configuration des ports pour iWARP, comme décrit au Chapitre 7 Configuration d'iWARP. ID VLAN Attribuez un ID de VLAN à l'interface. La valeur doit être identique à celle attribuée sur le commutateur. Qualité de service Activer ou désactiver QoS. Sélectionnez Activé si vous contrôlez DCB via le service Windows DCB-QoS. Reportez-vous à « Configuration de QoS en désactivant DCBX sur l'adaptateur » à la page 222 pour plus de renseignements. Sélectionnez Désactivé si vous contrôlez DCB via le commutateur configuré DCB joint. Reportez-vous à « Configuration de QoS en activant DCBX sur l'adaptateur » à la page 226 pour plus de renseignements. La Figure 6-1 montre un exemple de configuration d'une valeur de propriété. Figure 6-1. Configuration des propriétés RoCE 71 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server 2. À l'aide de Windows PowerShell, vérifiez que RDMA est activé sur l'adaptateur. La commande Get-NetAdapterRdma répertorie les adaptateurs qui prennent en charge RDMA (les deux ports sont activés). REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID de VLAN à l'interface physique. PS C:\Users\Administrator> Get-NetAdapterRdma 3. Name InterfaceDescription Enabled ----- -------------------- ------- SLOT 4 3 Port 1 QLogic FastLinQ QL41262... True SLOT 4 3 Port 2 QLogic FastLinQ QL41262... True À l'aide de Windows PowerShell, vérifiez que NetworkDirect est activé sur le système d'exploitation hôte. La commande Get-NetOffloadGlobalSetting indique que NetworkDirect est activé. PS C:\Users\Administrators> Get-NetOffloadGlobalSetting 4. ReceiveSideScaling : Enabled ReceiveSegmentCoalescing : Enabled Chimney : Disabled TaskOffload : Enabled NetworkDirect : Enabled NetworkDirectAcrossIPSubnets : Blocked PacketCoalescingFilter : Disabled Connectez un lecteur SMB (Server Message Block, bloc de message serveur), exécutez un trafic RoCE et vérifiez les résultats. Pour configurer et se connecter à un lecteur SMB, consultez les informations disponibles en ligne auprès de Microsoft : https://technet.microsoft.com/en-us/library/hh831795(v=ws.11).aspx 5. Par défaut, Microsoft SMB Direct établit deux connexions RDMA par port, ce qui assure de bonnes performances, y compris pour le débit de ligne avec une taille de blocs plus élevée (par exemple, 64 Ko). Pour optimiser les performances, vous pouvez changer le nombre de connexions RDMA par interface à quatre (ou plus). Pour passer à 4 connexions RDMA (ou plus), saisissez la commande suivante dans Windows PowerShell : PS C:\Users\Administrator> Set-ItemProperty -Path "HKLM:\SYSTEM\CurrentControlSet\Services\LanmanWorkstation\ Parameters" ConnectionCountPerRdmaNetworkInterface -Type DWORD -Value 4 –Force 72 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Affichage des compteurs RDMA La procédure suivante s’applique également à iWARP. Pour afficher les compteurs RDMA pour RoCE : 1. Lancez Performance Monitor. 2. Ouvrez la boîte de dialogue Ajouter des compteurs. La Figure 6-2 montre un exemple. Figure 6-2. Boîte de dialogue Ajouter des compteurs 73 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server REMARQUE Si les compteurs Cavium RDMA ne sont pas répertoriés dans la boîte de dialogue Moniteur de performance Ajouter des compteurs, ajoutezles manuellement en émettant la commande suivante à partir de l’emplacement du pilote : 3. Sélectionnez l'un des types de compteur suivants : 4. Contrôle de la congestion FastLinQ Cavium : Ajout d’un incrément en cas de surcharge du réseau et lorsque ECN est activé sur le commutateur. Description des Paquets marqués ECN RoCE V2 et les Paquets de notification de surcharge (CNP) envoyés et reçus avec succès. S’applique uniquement à RoCE v2. Compteurs des ports FastLinQ Cavium : Ajout d’un incrément en cas de surcharge du réseau. Pause dans les incréments du compteur lorsque le contrôle de débit ou la pause globale est configuré et qu’une surcharge se produit dans le réseau. Ajout d’un incrément aux compteurs PFC lorsque le contrôle de débit prioritaire est configuré et qu’une surcharge se produit dans le réseau. Compteurs d’erreurs FastLinQ RDMA Cavium : Ajout d'un incrément en cas d’erreur dans les opérations de transport. Pour plus d'informations, voir Tableau 6-3. Sous Instances de l’objet sélectionné, sélectionnez Total, puis cliquez sur Ajouter. 74 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server La Figure 6-3 présente des exemples de sorties de la surveillance du compteur. Figure 6-3. Performance Monitor : Compteurs FastLinQ Cavium Le Tableau 6-3 fournit des détails à propos des compteurs d’erreurs. Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium Compteur d’erreurs RDMA Débordement du CQ Description S’applique S’applique à RoCE ? à iWARP ? Une file d’attente d’achèvement dans laquelle une demande de travail RDMA est publiée. Ce compteur spécifie la quantité des instances dans lesquelles l’achèvement d’une demande de travail était dans la file d’envoi ou de réception, mais sans espace libre dans la file d’attente d’achèvement associée. Oui 75 Oui Dépannage Indique un problème de conception logicielle provoquant une taille de file d’attente d’achèvement insuffisante. AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique S’applique à RoCE ? à iWARP ? Dépannage Mauvaise réponse du demandeur L’interlocuteur a retourné une réponse mal formulée. Oui Oui — CQE du demandeur purgé avec erreur Des demandes de travail publiées peuvent être purgées par l’envoi d’un état Achevé avec purge au CQ (sans terminer l’exécution réelle de la demande de travail) au cas où le QP passerait à l’état d’erreur pour quelque raison que ce soit et où des demandes de travail sont en attente. Si une demande de travail est terminée avec un statut d’erreur, toutes les autres demandes d’erreur en attente pour ce QP seront purgées. Oui Oui Se produit en cas de panne des connexions RDMA. Longueur locale du demandeur Le message de réponse RDMA READ contenait trop ou trop peu de données de charge utile. Oui Oui Indique généralement un problème au niveau des composants du logiciel hôte. Protection locale du demandeur Le Segment de données de la demande de travail publiée localement ne fait pas référence à une Région de la mémoire valide pour l’opération demandée. Oui Oui Indique généralement un problème au niveau des composants du logiciel hôte. Opération de QP local du demandeur Une erreur de cohérence de QP interne a été détectée pendant le traitement de cette demande de travail. Oui Oui — Accès distant au demandeur Une erreur de protection s’est produite sur un tampon de données distant devant être lu par une opération RDMA Read, écrit par une opération RDMA Write ou consultée par une opération atomique. Oui Oui — 76 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique S’applique à RoCE ? à iWARP ? Dépannage Demande distante du demandeur non valide Le côté distant a reçu un message non valide sur le canal. La demande non valide peut porter sur un message d’envoi ou une demande RDMA. Oui Oui Les causes possibles comprennent les situations dans lesquelles l’opération n’est pas prise en charge par cette file d’attente de réception, où le tampon est insuffisant pour recevoir une nouvelle demande RDMA ou d’opération atomique, ou dans lesquelles la longueur spécifiée dans une demande RDMA est supérieure à 231 octets. Opération distante du demandeur Le côté distant n’a pas pu terminer l’opération demandée en raison de son problème local. Oui Oui Un problème logiciel du côté distant (par exemple, un problème qui a provoqué une erreur QP ou un WQE mal formé sur le RQ) qui a empêché l’achèvement de l’opération. Nombre de tentatives du demandeur dépassé. Limite maximale du nombre de tentatives de transport dépassée. Oui Oui Le pair à distance a peut-être cessé de répondre, ou un problème réseau empêche l’accusé de réception des messages. 77 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique S’applique à RoCE ? à iWARP ? Dépannage Nombre de tentatives RNR du demandeur dépassé. Le nombre maximum de nouvelles tentatives dues au RNR RAK reçu a été atteint sans succès Oui Non Le pair à distance a peut-être cessé de répondre, ou un problème réseau empêche l’accusé de réception des messages. CQE de l’interlocuteur purgé Les demandes de travail publiées (tampons reçus sur RQ) peuvent être purgées par l’envoi d’état Achevé avec purge au CQ au cas où le QP passe à l’état d’erreur pour quelque raison que ce soit et où des tampons de réception soient en attente sur le RQ. Si une demande de travail est terminée avec un statut d’erreur, toutes les autres demandes d’erreur en attente pour ce QP seront purgées. Oui Oui — Longueur locale de l’interlocuteur Longueur non valide des messages entrants. Oui Oui Mauvais comportement du pair distant. Par exemple, la longueur des messages entrants est supérieure à la taille du tampon de réception. Protection locale de l’interlocuteur Le Segment de données de la demande de travail publiée localement ne fait pas référence à une Région de la mémoire valide pour l’opération demandée. Oui Oui Indique un problème logiciel au niveau de la gestion de la mémoire. Erreur d’opération QP locale de l'interlocuteur. Une erreur de cohérence de QP interne a été détectée pendant le traitement de cette demande de travail. Oui Oui Indique un problème logiciel. 78 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Table 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Demande distante de l'interlocuteur non valide Description S’applique S’applique à RoCE ? à iWARP ? L’interlocuteur a détecté un message entrant non valide sur le canal. Oui Oui Dépannage Indique un mauvais comportement possible de la part du pair distant. Les causes possibles comprennent les situations dans lesquelles l’opération n’est pas prise en charge par cette file d’attente de réception, où le tampon est insuffisant pour recevoir une nouvelle demande RDMA, ou dans lesquelles la longueur spécifiée dans une demande RDMA est supérieure à 231 octets. Configuration de RoCE sur l'adaptateur pour Linux Cette section présente la procédure de configuration de RoCE pour RHEL et SLES. Elle décrit également la vérification de la configuration de RoCE et fournit des indications sur l'utilisation d'ID de groupe (GID) avec les interfaces VLAN. Configuration de RoCE pour RHEL Configuration de RoCE pour SLES Vérification de la configuration RoCE sous Linux Interfaces VLAN et valeurs d'index GID Configuration de RoCE v2 pour Linux 79 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration de RoCE pour RHEL Pour que vous puissiez configurer RoCE sur l'adaptateur, vous devez avoir installé et configuré OFED (Open Fabrics Enterprise Distribution) sur l'hôte RHEL. Pour préparer OFED préinstallé pour RHEL : 1. Pendant l'installation ou la mise à niveau du système d'exploitation, sélectionnez les paquets de support InfiniBand et OFED. 2. Installez les RPM suivants à partir de l'image ISO RHEL : libibverbs-devel-x.x.x.x86_64.rpm (requis pour la bibliothèque libqedr) perftest-x.x.x.x86_64.rpm (requis pour les applications de bande passante et de latence InfiniBand ) Ou bien, avec Yum, installez OFED préinstallé : yum groupinstall "Infiniband Support" yum install perftest yum install tcl tcl-devel tk zlib-devel libibverbs libibverbs-devel REMARQUE Pendant l'installation, si vous avez déjà sélectionné les paquets mentionnés ci-dessus, vous n'avez pas à les réinstaller. Les paquets OFED préinstallé et de support peuvent varier en fonction de la version du système d'exploitation. 3. Installez les nouveaux pilotes Linux, comme décrit à la section « Installation des pilotes Linux avec RDMA » à la page 14. Configuration de RoCE pour SLES Pour que vous puissiez configurer RoCE sur l'adaptateur pour un hôte SLES, vous devez avoir installé et configuré OFED sur l'hôte SLES. Pour installer OFED préinstallé pour SLES Linux : 1. Pendant l'installation ou la mise à niveau du système d'exploitation, sélectionnez les paquets de support InfiniBand. 2. Installez les RPM suivants à partir de l'image de kit SDK SLES correspondante : libibverbs-devel-x.x.x.x86_64.rpm (requis pour l'installation de libqedr) 80 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux perftest-x.x.x.x86_64.rpm (requis pour les applications de bande passante et de latence) 3. Installez les pilotes Linux, comme décrit à la section « Installation des pilotes Linux avec RDMA » à la page 14. Vérification de la configuration RoCE sous Linux Après avoir installé OFED et le pilote Linux, et après avoir chargé les pilotes RoCE, vérifiez que les périphériques RoCE ont été détectés sur tous les systèmes d'exploitation Linux. Pour vérifier la configuration RoCE sous Linux : 1. Arrêtez les tables de pare-feu à l'aide des commandes service/systemctl. 2. Pour RHEL uniquement : Si le service RDMA est installé (yum install rdma), vérifiez que le service RDMA a démarré. REMARQUE Pour RHEL 6.x et SLES 11 SP4, vous devez démarrer le service RDMA après le redémarrage. Pour RHEL 7.x et SLES 12 SPX et version ultérieure, le service RDMA démarre automatiquement après le redémarrage. Sous RHEL ou CentOS : Utilisez la commande service rdma tatus pour démarrer le service : Si RDMA n'a pas démarré, entrez la commande suivante : # service rdma start Si RDMA ne démarre pas, entrez l'une des commandes de rechange suivantes : # /etc/init.d/rdma start ou # systemctl start rdma.service 3. Vérifiez que les périphériques RoCE ont été détectés, en examinant les journaux dmesg : # dmesg|grep qedr [87910.988411] qedr: discovered and registered 2 RoCE funcs 4. Vérifiez que tous les modules ont été chargés. Par exemple : # lsmod|grep qedr qedr 89871 81 0 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux 5. qede 96670 1 qedr qed 2075255 ib_core 88311 16 qedr, rdma_cm, ib_cm, ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp, ib_ucm,ib_iser,ib_srpt,ib_umad, ib_uverbs,rdma_ucm,ib_ipoib,ib_isert 2 qede,qedr Configurez l'adresse IP et activez le port à l'aide d'une méthode de configuration, comme ifconfig : # ifconfig ethX 192.168.10.10/24 up 6. Entrez la commande ibv_devinfo : Pour chaque fonction PCI, vous devriez voir une entrée hca_id distincte, comme dans l'exemple suivant : root@captain :~# ibv_devinfo hca_id : qedr0 transport: InfiniBand (0) fw_ver: 8.3.9.0 node_guid: 020e:1eff:fe50:c7c0 sys_image_guid: 020e:1eff:fe50:c7c0 vendor_id: 0x1077 vendor_part_id: 5684 hw_ver: 0x0 phys_port_cnt: 1 port: 1 state: 7. PORT_ACTIVE (1) max_mtu: 4096 (5) active_mtu: 1024 (3) sm_lid: 0 port_lid: 0 port_lmc: 0x00 link_layer: Ethernet Vérifiez la connectivité L2 et RoCE entre tous les serveurs : l'un des serveurs joue le rôle de serveur et l'autre de client. Vérifiez la connexion L2 avec une simple commande ping. Vérifiez la connexion RoCE en effectuant un ping de RDMA sur le serveur ou le client : Sur le serveur, entrez la commande suivante : ibv_rc_pingpong -d <ib-dev> -g 0 82 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Sur le client, entrez la commande suivante : ibv_rc_pingpong -d <ib-dev> -g 0 <server L2 IP address> Voici des exemples de tests ping pong réussis sur le serveur et le client : Ping sur le serveur : root@captain:~# ibv_rc_pingpong -d qedr0 -g 0 local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570 8192000 bytes in 0.05 seconds = 1436.97 Mbit/sec 1000 iters in 0.05 seconds = 45.61 usec/iter Ping sur le client : root@lambodar:~# ibv_rc_pingpong -d qedr0 -g 0 192.168.10.165 local address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570 remote address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 8192000 bytes in 0.02 seconds = 4211.28 Mbit/sec 1000 iters in 0.02 seconds = 15.56 usec/iter Pour afficher les statistiques RoCE, entrez les commandes suivantes, où X est le numéro de périphérique : > mount -t debugfs nodev /sys/kernel/debug > cat /sys/kernel/debug/qedr/qedrX/stats Interfaces VLAN et valeurs d'index GID Si vous utilisez des interfaces VLAN à la fois sur le serveur et sur le client, vous devez également configurer le même ID VLAN sur le commutateur. Si vous exécutez du trafic via un commutateur, les applications InfiniBand doivent utiliser la valeur GID correcte, qui dépend de l'ID VLAN et de l'adresse IP VLAN. Sur la base des résultats suivants, la valeur GID (-x 4 / -x 5) doit être utilisée pour toutes les applications perftest. # ibv_devinfo -d qedr0 -v|grep GID GID[ 0]: fe80:0000:0000:0000:020e:1eff:fe50:c5b0 GID[ 1]: 0000:0000:0000:0000:0000:ffff:c0a8:0103 GID[ 2]: 2001:0db1:0000:0000:020e:1eff:fe50:c5b0 GID[ 3]: 2001:0db2:0000:0000:020e:1eff:fe50:c5b0 GID[ 4]: 0000:0000:0000:0000:0000:ffff:c0a8:0b03 Adresse IP de l'interface VLAN 83 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux GID[ 5]: fe80:0000:0000:0000:020e:1e00:0350:c5b0 VLAN ID 3 REMARQUE La valeur GID par défaut est zéro (0) pour les paramètres dos à dos ou pause. Pour les configurations de serveur/commutateur, vous devez identifier la valeur GID correcte. Si vous utilisez un commutateur, consultez la documentation de configuration correspondante pour connaître les paramètres appropriés. Configuration de RoCE v2 pour Linux Pour vérifier la fonctionnalité de RoCE v2, vous devez utiliser des noyaux pris en charge par RoCE v2. Pour configurer RoCE v2 pour Linux : 1. Assurez-vous que vous utilisez l'un des noyaux pris en charge suivants : 2. SLES 12 SP2 GA RHEL 7.3 GA Configurez RoCE v2 de la façon suivante : a. Identifiez l'index GID de RoCE v2. b. Configurez l'adresse de routage du serveur et du client. c. Activez le routage L3 sur le commutateur. REMARQUE Vous pouvez configurer RoCE v1 et RoCE v2 en utilisant des noyaux pris en charge par RoCE v2. Ces noyaux vous permettent d'exécuter le trafic RoCE sur le même sous-réseau, ainsi que sur des sous-réseaux différents tels que RoCE v2 et tout environnement routable. Seuls quelques paramètres sont requis pour RoCE v2, et tous les autres paramètres de commutateur et d'adaptateur sont communs pour RoCE v1 et RoCE v2. Identification de l'index GID de RoCE v2 ou de l'adresse Pour trouver les GID spécifiques de RoCE v1 et v2, utilisez les paramètres sys ou class, ou exécutez les scripts ROCE du paquet source 41xxx FastLinQ. Pour vérifier l'adresse et l'index GID de RoCE par défaut, exécutez la commande ibv_devinfo et comparez-les aux paramètres sys ou class. Par exemple : #ibv_devinfo -d qedr0 -v|grep GID GID[ 0]: fe80:0000:0000:0000:020e:1eff:fec4:1b20 GID[ 1]: fe80:0000:0000:0000:020e:1eff:fec4:1b20 84 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux GID[ 2]: 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 3]: 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 4]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 5]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 6]: 0000:0000:0000:0000:0000:ffff:c0a8:6403 GID[ 7]: 0000:0000:0000:0000:0000:ffff:c0a8:6403 Vérification de l'adresse et de l'index GID de RoCE v1 ou v2 à partir des paramètres sys et class Utilisez l'une des options suivantes pour vérifier l'adresse et l'index GID de RoCE v1 ou RoCE v2 à partir des paramètres sys et class : Option 1 : # cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/0 IB/RoCE v1 # cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/1 RoCE v2 # cat /sys/class/infiniband/qedr0/ports/1/gids/0 fe80:0000:0000:0000:020e:1eff:fec4:1b20 # cat /sys/class/infiniband/qedr0/ports/1/gids/1 fe80:0000:0000:0000:020e:1eff:fec4:1b20 Option 2 : Utilisez les scripts du paquet source FastLinQ. #/../fastlinq-8.x.x.x/add-ons/roce/show_gids.sh DEV PORT INDEX GID IPv4 VER DEV --- ---- ----- --- ------------ --- --- qedr0 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v1 p4p1 qedr0 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v2 p4p1 qedr0 1 2 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.10 v1 p4p1 qedr0 1 3 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.10 v2 p4p1 qedr0 1 4 3ffe:ffff:0000:0f21:0000:0000:0000:0004 v1 p4p1 qedr0 1 5 3ffe:ffff:0000:0f21:0000:0000:0000:0004 v2 p4p1 qedr0 1 6 0000:0000:0000:0000:0000:ffff:c0a8:6403 192.168.100.3 v1 p4p1.100 qedr0 1 7 0000:0000:0000:0000:0000:ffff:c0a8:6403 192.168.100.3 v2 p4p1.100 qedr1 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b21 v1 p4p2 qedr1 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b21 v2 p4p2 85 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux REMARQUE Vous devez spécifier les valeurs de l'index GID de RoCE v1 ou RoCE v2 en fonction de la configuration de serveur ou de commutateur (Pause/PFC). Utilisez l'index GID pour l'adresse IPv6 locale de liaison, l'adresse IPv4 ou l'adresse IPv6. Pour utiliser des trames de VLAN marquées pour le trafic RoCE, vous devez spécifier des valeurs d'index GID dérivées de l'adresse IPv4 ou IPv6 de VLAN. Vérification de la fonctionnalité de RoCE v1 ou v2 par les applications perftest Cette section décrit la vérification de la fonctionnalité de RoCE v1 ou RoCE v2 par les applications perftest. Dans cet exemple, l'adresse IP de serveur et l'adresse IP de client suivantes sont utilisées : Adresse IP de serveur : 192.168.100.3 Adresse IP de client : 192.168.100.4 Vérification de RoCE v1 Exécutez sur le même sous-réseau, et utilisez l'index GID de RoCE v1. Server# ib_send_bw -d qedr0 -F -x 0 Client# ib_send_bw -d qedr0 -F -x 0 192.168.100.3 Vérification de RoCE v2 Exécutez sur le même sous-réseau, et utilisez l'index GID de RoCE v2. Server# ib_send_bw -d qedr0 -F -x 1 Client# ib_send_bw -d qedr0 -F -x 1 192.168.100.3 REMARQUE Si vous exécutez via une configuration PFC de commutateur, utilisez les GID de VLAN de RoCE v1 ou v2 via le même sous-réseau. Vérification de RoCE v2 via des sous-réseaux différents REMARQUE Vous devez d'abord configurer les paramètres de routage du commutateur et des serveurs. Sur l'adaptateur, définissez la priorité de RoCE, et le mode DCBX en utilisant l'interface utilisateur HII ou UEFI. 86 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Pour vérifier RoCE v2 via des sous-réseaux différents 1. Définissez la configuration de routage du serveur et du client en utilisant la configuration DCBX-PFC. Paramètres système : Adresse IP de VLAN du serveur : 192.168.100.3 et Passerelle :192.168.100.1 Adresse IP de VLAN du client : 192.168.101.3 et Passerelle :192.168.101.1 Configuration du serveur : #/sbin/ip link add link p4p1 name p4p1.100 type vlan id 100 #ifconfig p4p1.100 192.168.100.3/24 up #ip route add 192.168.101.0/24 via 192.168.100.1 dev p4p1.100 Configuration du client : #/sbin/ip link add link p4p1 name p4p1.101 type vlan id 101 #ifconfig p4p1.101 192.168.101.3/24 up #ip route add 192.168.100.0/24 via 192.168.101.1 dev p4p1.101 2. Configurez les paramètres de commutateur à l'aide de la procédure suivante. Utilisez une méthode quelconque de contrôle de flux (Pause, DCBX-CEE ou DCBX-IEEE), et activez le routage IP pour RoCE v2. Reportez-vous à « Préparation du commutateur Ethernet » à la page 68 pour la configuration de RoCE v2, ou consultez les documents relatifs au commutateur fournis par le fournisseur. Si vous utilisez la configuration PFC et le routage L3, exécutez le trafic RoCE v2 sur le VLAN en utilisant un sous-réseau différent, et utilisez l'index GID de VLAN de RoCE v2. Server# ib_send_bw -d qedr0 -F -x 5 Client# ib_send_bw -d qedr0 -F -x 5 192.168.100.3 87 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Paramètres de commutateur du serveur : Figure 6-4. Paramètres de commutateur, serveur Paramètres de commutateur du client : Figure 6-5. Paramètres de commutateur, client 88 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration des paramètres de RoCE v1 ou RoCE v2 pour les applications RDMA_CM Pour configurer RoCE, utilisez les scripts suivants du paquet source FastLinQ : # ./show_rdma_cm_roce_ver.sh qedr0 is configured to IB/RoCE v1 qedr1 is configured to IB/RoCE v1 # ./config_rdma_cm_roce_ver.sh v2 configured rdma_cm for qedr0 to RoCE v2 configured rdma_cm for qedr1 to RoCE v2 Paramètres du serveur : Figure 6-6. Configuration des applications RDMA_CM : Serveur Paramètres du client : Figure 6-7. Configuration des applications RDMA_CM : Client 89 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Configuration de RoCE sur l'adaptateur pour VMware ESX Cette section fournit les procédures et informations suivantes pour la configuration de RoCE : Configuration des interfaces RDMA Configuration de MTU Mode et statistiques de RoCE Configuration d'un périphérique RDMA paravirtuel (PVRDMA) Configuration des interfaces RDMA Pour configurer les interfaces RDMA : 1. Installez à la fois les pilotes NIC et RoCE QLogic. 2. En utilisant le paramètre de module, activez la fonction RoCE à partir du pilote NIC en entrant la commande suivante : esxcfg-module -s 'enable_roce=1' qedentv Pour appliquer la modification, recharger les pilotes NIC ou redémarrer le système. 3. Pour afficher une liste des interfaces NIC, entrez la commande esxcfg-nics -l. Par exemple : esxcfg-nics -l Name PCI Vmnic0 0000:01:00.2 qedentv Driver Link Speed Duplex MAC Address Up Full 25000Mbps MTU Description a4:5d:36:2b:6c:92 1500 QLogic Corp. a4:5d:36:2b:6c:93 1500 QLogic Corp. QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter Vmnic1 0000:01:00.3 qedentv Up 25000Mbps Full QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter 4. Pour afficher une liste des périphériques RDMA, entrez la commande esxcli rdma device list. Par exemple : esxcli rdma device list Name Driver State Speed Paired Uplink Description ------- ------- ------ ---- ------- ------------- ------------------------------- vmrdma0 qedrntv Active 1024 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface 5. MTU Pour créer un nouveau commutateur virtuel, entrez la commande suivante : esxcli network vswitch standard add -v <new vswitch name> 90 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Par exemple : # esxcli network vswitch standard add -v roce_vs Ceci permet de créer un nouveau commutateur virtuel appelé roce_vs. 6. Pour associer le port NIC QLogic au vSwitch, entrez la commande suivante : # esxcli network vswitch standard uplink add -u <uplink device> -v <roce vswitch> Par exemple : # esxcli network vswitch standard uplink add -u vmnic0 -v roce_vs 7. Pour créer un nouveau groupe de ports sur ce vSwitch, entrez la commande suivante : # esxcli network vswitch standard portgroup add -p roce_pg -v roce_vs Par exemple : # esxcli network vswitch standard portgroup add -p roce_pg -v roce_vs 8. Pour créer une interface vmknic sur ce groupe de ports et configurer l'IP, entrez la commande suivante : # esxcfg-vmknic -a -i <adresse IP> -n <masque de sous réseau> <nom de groupe de ports roce> Par exemple : # esxcfg-vmknic -a -i 192.168.10.20 -n 255.255.255.0 roce_pg 9. Pour configurer l'ID de VLAN, entrez la commande suivante : # esxcfg-vswitch -v <ID VLAN> -p roce_pg Pour exécuter le trafic RoCE avec l'ID VLAN, configurez l'ID VLAN sur le groupe de ports VMkernel correspondant. Configuration de MTU Pour modifier MTU pour l'interface RoCE, changez le MTU du vSwitch correspondant. Définissez la taille de MTU de l'interface RDMA en fonction de la MTU du vSwitch en entrant la commande suivante : # esxcfg-vswitch -m <new MTU> <RoCE vswitch name> 91 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Par exemple : # esxcfg-vswitch -m 4000 roce_vs # esxcli rdma device list Name Driver State ------- ------- ------ MTU vmrdma0 qedrntv Active 2048 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface ---- Speed Paired Uplink ------- ------------- Description ------------------------------- Mode et statistiques de RoCE Pour le mode RoCE, ESXi exige la prise en charge concomitante de RoCE v1 et v2. La décision concernant le mode RoCE qu'il faut utiliser est prise pendant la création de paires de files d'attente. Le pilote ESXi annonce les deux modes pendant l'enregistrement et l'initialisation. Pour afficher les statistiques RoCE, entrez la commande suivante : # esxcli rdma device stats get -d vmrdma0 Packets received: 0 Packets sent: 0 Bytes received: 0 Bytes sent: 0 Error packets received: 0 Error packets sent: 0 Error length packets received: 0 Unicast packets received: 0 Multicast packets received: 0 Unicast bytes received: 0 Multicast bytes received: 0 Unicast packets sent: 0 Multicast packets sent: 0 Unicast bytes sent: 0 Multicast bytes sent: 0 Queue pairs allocated: 0 Queue pairs in RESET state: 0 Queue pairs in INIT state: 0 Queue pairs in RTR state: 0 Queue pairs in RTS state: 0 Queue pairs in SQD state: 0 Queue pairs in SQE state: 0 Queue pairs in ERR state: 0 Queue pair events: 0 Completion queues allocated: 1 Completion queue events: 0 92 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0 Memory windows allocated: 0 Configuration d'un périphérique RDMA paravirtuel (PVRDMA) Pour configurer un PVRDMA à l'aide d’une interface vCenter : 1. Créez et configurez un nouveau commutateur virtuel réparti de la façon suivante : a. Dans le client Web VMware vSphere, cliquez avec le bouton droit sur le nœud RoCE dans le volet gauche de la fenêtre Navigateur. b. Dans le menu d'actions, pointez sur Commutateur réparti, puis cliquez sur Nouveau commutateur réparti. c. Sélectionnez la version 6.5.0. d. Sous Nouveau commutateur réparti, cliquez sur Modifier les paramètres, puis configurez les éléments suivants : Nombre de liaisons montantes. Sélectionnez une valeur appropriée. Commande d'E/S du réseau. Sélectionnez Désactivé. Groupe de ports par défaut. Cochez cette case. Nom de groupe de ports. Entrez un nom pour le groupe de ports. La Figure 6-8 montre un exemple. Figure 6-8. Configuration d'un nouveau commutateur réparti 2. Configurer un commutateur virtuel réparti de la façon suivante : a. Dans le client Web VMware vSphere, développez le nœud RoCE dans le volet gauche de la fenêtre Navigateur. 93 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX 3. b. Cliquez avec le bouton droit sur RoCE-VDS, puis cliquez sur Ajouter et gérer les hôtes. c. Sous Ajouter et gérer les hôtes, configurez les éléments suivants : Affecter les liaisons montantes. Sélectionnez dans la liste de liaisons montantes disponibles. Gérer les adaptateurs réseau VMkernel. Acceptez la valeur par défaut, puis cliquez sur Suivant. Effectuer une migration de réseau VM. Affectez le groupe de ports créé à l'étape 1. Affectez un vmknic pour PVRDMA à utiliser sur les hôtes ESX : a. Cliquez avec le bouton droit sur un hôte, puis cliquez sur Paramètres. b. Sur la page Paramètres, développez le nœud Système, puis cliquez sur Paramètres système avancés. c. La page des paramètres système avancés affiche la valeur de clé-paire et son récapitulatif. Cliquez sur Modifier. d. Sur la page Modifier les paramètres système avancés, filtrez sur PVRDMA pour réduire tout le paramètre à seulement Net.PVRDMAVmknic. e. Définissez la valeur Net.PVRDMAVmknic sur vmknic; Par exemple, vmk1. La Figure 6-9 montre un exemple. Figure 6-9. Affectation d'un vmknic pour PVRDMA 4. Définissez la règle de pare-feu pour le PVRDMA : a. Cliquez avec le bouton droit sur un hôte, puis cliquez sur Paramètres. b. Sur la page Paramètres, développez le nœud Système, puis cliquez sur Profil de sécurité. 94 AH0054602-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX c. Sur la page Récapitulatif du pare-feu, cliquez sur Modifier. d. Dans la boîte de dialogue Modifier le profil de sécurité, en dessous de Nom, faites défiler, cochez la case pvrdma, puis cochez la case Définir pare-feu. La Figure 6-10 montre un exemple. Figure 6-10. Réglage de la règle de pare-feu 5. Configurez la VM pour PVRDMA de la façon suivante : a. Installez l'un des systèmes d'exploitation invités pris en charge suivants : RHEL 7.2 Ubuntu 14.04 (version de noyau 4.0) b. Installez OFED-3.18. c. Compilez et installez le pilote et la bibliothèque d'invité PVRDMA. d. Ajoutez un nouvel adaptateur réseau PVRDMA à la VM de la façon suivante : e. Modifiez les paramètres de VM. Ajoutez un nouvel adaptateur réseau. Sélectionnez le groupe de ports DVS récemment ajouté en tant que Réseau. Sélectionnez PVRDMA comme type d'adaptateur. Après le démarrage de la VM, assurez-vous que le pilote d'invité PVRDMA est chargé. 95 AH0054602-02 F 7 Configuration d'iWARP Internet Wide Area RDMA Protocol (iWARP) est un protocole de réseau informatique qui met en œuvre RDMA pour un transfert de données efficace sur les réseaux IP. iWARP est conçu pour de multiples environnements, y compris les réseaux locaux, les réseaux de stockage, les réseaux de centres de données et les WAN. Ce chapitre fournit des instructions concernant : Préparation de l'adaptateur pour iWARP « Configuration d'iWARP sous Windows » à la page 97 « Configuration d'iWARP sous Linux » à la page 100 REMARQUE Certaines fonctionnalités iWARP peuvent ne pas être entièrement activées dans la version actuelle. Pour en savoir plus, reportez-vous à la section « Annexe D Contraintes en matière de fonctionnalités ». Préparation de l'adaptateur pour iWARP Cette section fournit des instructions pour la configuration iWARP de l'adaptateur de prédémarrage à l'aide de HII. Pour de plus amples informations concernant la configuration de l'adaptateur de prédémarrage, voir Chapitre 5 Configuration de prédémarrage de l'adaptateur. Pour configurer iWARP via HII en mode par défaut : 1. Accédez à la configuration système du BIOS du serveur, puis cliquez sur Paramètres de périphérique. 2. Sur la page Paramètres de périphérique, sélectionnez un port pour l'Adaptateur série 41xxx 25G. 3. Sur la page de configuration principale de l'adaptateur sélectionné, cliquez sur Configuration NIC. 96 AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Windows 4. Sur la page de configuration NIC : a. Définissez le Mode NIC + RDMA sur Activé. b. Définissez la Prise en charge du protocole RDMA sur iWARP. c. Cliquez sur Précédent. 5. Sur la page de configuration principale, cliquez sur Terminer. 6. Dans la boîte de dialogue Avertissement – Enregistrement des modifications, cliquez sur Oui pour enregistrer la configuration. 7. Dans la boîte de dialogue Succès – Enregistrement des modifications, cliquez sur OK. 8. Répétez l'étape 2 à l’étape 7 pour configurer la carte NIC et iWARP pour les autres ports. 9. Pour terminer la préparation des deux ports de l'adaptateur : a. Sur la page Paramètres de périphérique, cliquez sur Terminer. b. Pour revenir à la page principale, cliquez sur Terminer. c. Quittez pour redémarrer le système. Passez à « Configuration d'iWARP sous Windows » à la page 97 ou « Configuration d'iWARP sous Linux » à la page 100. Configuration d'iWARP sous Windows Cette section fournit les procédures pour l'activation d'iWARP, la vérification de RDMA et la vérification du trafic iWARP sous Windows. Pour une liste des systèmes d'exploitation qui prennent en charge iWARP, voir le Tableau 6-1 à la page 66. Pour activer iWARP sur l'hôte Windows et vérifier le RDMA : 1. Activez iWARP sur l'hôte Windows. a. Ouvrez le gestionnaire de périphériques Windows, puis ouvrez la fenêtre Propriétés NDIS Miniport des Adaptateurs série 41xxx. b. Dans les Propriétés de l'adaptateur FastLinQ, cliquez sur l'onglet Avancé. c. Sur la page Avancé, sous Propriété, effectuez l'opération suivante : d. Sélectionnez Fonctionnalité Network Direct, puis sélectionnez Activé pour la Valeur. Sélectionnez le Mode RDMA, puis sélectionnez iWARP pour la Valeur. Cliquez sur OK pour enregistrer les modifications et fermer les propriétés de l'adaptateur. 97 AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Windows 2. À l'aide de Windows PowerShell, vérifiez que le RDMA est activé. La sortie de la commande Get-NetAdapterRdma (Figure 7-1) montre les adaptateurs qui prennent en charge RDMA. Figure 7-1. Commande Windows PowerShell : Get-NetAdapterRdma 3. À l'aide de Windows PowerShell, vérifiez que NetworkDirect est activé. La sortie de la commande Get-NetOffloadGlobalSetting (Figure 7-2) affiche NetworkDirect comme Enabled. Figure 7-2. Commande Windows PowerShell : Get-NetOffloadGlobalSetting Pour vérifier le trafic iWARP : 1. Mappez des lecteurs SMB, puis exécutez un trafic iWARP. 2. Lancez Performance Monitor (Perfmon). 3. Dans la boîte de dialogue Ajouter des compteurs, cliquez sur Activité RDMA, puis sélectionnez les instances de l'adaptateur. La Figure 7-3 montre un exemple. 98 AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Windows Figure 7-3. Perfmon : Ajouter des compteurs Si un trafic iWARP est exécuté, les compteurs apparaissent comme indiqué dans l'exemple de la Figure 7-4. Figure 7-4. Perfmon : Vérification du trafic iWARP 99 AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Linux REMARQUE Pour plus d'informations sur l’affichage des compteurs Cavium RDMA dans Windows, voir « Affichage des compteurs RDMA » à la page 73. 4. Pour vérifier la connexion SMB : a. À l'invite de commande, entrez la commande net use de la manière suivante : C:\Users\Administrator> net use New connections will be remembered. Status Local Remote Network --------------------------------------------------------OK F: \\192.168.10.10\Share1 Microsoft Windows Network The command completed successfully. b. Entrez la commande net-xan comme suit, où Share1 est mappé en tant que partage SMB : C:\Users\Administrator> net -xan Active NetworkDirect Connections, Listeners, ShareEndpoints Mode Kernel Kernel Kernel Kernel Kernel Kernel Kernel Kernel IfIndex Type 56 56 56 56 60 60 60 60 Connection Connection Connection Connection Listener Listener Listener Listener Local Address Foreign Address 192.168.11.20:16159 192.168.11.10:445 192.168.11.20:15903 192.168.11.10:445 192.168.11.20:16159 192.168.11.10:445 192.168.11.20:15903 192.168.11.10:445 [fe80::e11d:9ab5:a47d:4f0a%56]:445 NA 192.168.11.20:445 NA [fe80::71ea:bdd2:ae41:b95f%60]:445 NA 192.168.11.20:16159 192.168.11.10:445 PID 0 0 0 0 0 0 0 0 Configuration d'iWARP sous Linux Les Adaptateurs série 41xxx QLogic prennent en charge iWARP sur les OFED (Open Fabric Enterprise Distribution) Linux répertoriées au Tableau 6-1 à la page 66. La configuration d'iWARP sur un système Linux comprend les éléments suivants : Installation du pilote Configuration d'iWARP et de RoCE Détection du périphérique 100 AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Linux Applications iWARP prises en charge Exécution de perftest pour iWARP Configuration de NFS-RDMA Prise en charge d'iWARP RDMA-Core sous SLES 12 SP3, RHEL 7.4, et OFED 4.8x Installation du pilote Installez les pilotes RDMA de la façon indiquée dans le Chapitre 3 Installation des pilotes. Configuration d'iWARP et de RoCE REMARQUE Cette procédure ne s'applique que lorsque vous avez précédemment sélectionné iWARP+RoCE comme valeur pour le paramètre Prise en charge du protocole RDMA pendant la configuration de prédémarrage via HII (voir Configuration des paramètres NIC, étape 5 à la page 49). Pour activer iWARP et RoCE : 1. Déchargez tous les pilotes FastlinQ # modprobe -r qedr ou modprobe -r qede 2. Utilisez la syntaxe de commande suivante pour changer les protocoles RDMA en chargeant le pilote qed avec une ID d'interface de port PCI ID (xx:xx.x) et une valeur de protocole RDMA (p). #modprobe -v qed rdma_protocol_map=<xx:xx.x-p> Les valeurs de protocole RDMA (p) sont les suivantes : 0—Accepter la valeur par défaut (RoCE) 1—Pas de RDMA 2—RoCE 3—iWARP Par exemple, entrez la commande suivante pour changer l'interface sur le port donné par 04:00.0 de RoCE à iWARP. #modprobe -v qed rdma_protocol_map=04:00.0-3 3. Chargez le pilote RDMA en entrant la commande suivante : #modprobe -v qedr 101 AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Linux L'exemple suivant montre les entrées de commande pour changer le protocole RDMA en iWARP sur plusieurs interfaces NPAR : # modprobe qed rdma_protocol_map=04:00.1-3,04:00.3-3,04:00.5-3, 04:00.7-3,04:01.1-3,04:01.3-3,04:01.5-3,04:01.7-3 #modprobe -v qedr # ibv_devinfo |grep iWARP transport: transport: transport: transport: transport: transport: transport: transport: iWARP iWARP iWARP iWARP iWARP iWARP iWARP iWARP (1) (1) (1) (1) (1) (1) (1) (1) Détection du périphérique Pour détecter le périphérique : 1. Pour vérifier si les périphériques RDMA sont détectés, consultez les journaux dmesg : # dmesg |grep qedr [10500.191047] qedr 0000:04:00.0: registered qedr0 [10500.221726] qedr 0000:04:00.1: registered qedr1 2. Entrez la commande ibv_devinfo, puis vérifiez le type de transport. Si la commande est réussie, chaque fonction PCI affiche un hca_id séparé. Par exemple (si l'on vérifie le second port de l'adaptateur à double port ci-dessus) : [root@localhost ~]# ibv_devinfo -d qedr1 hca_id: qedr1 transport: fw_ver: node_guid: sys_image_guid: vendor_id: vendor_part_id: hw_ver: phys_port_cnt: port: 1 state: max_mtu: 102 iWARP (1) 8.14.7.0 020e:1eff:fec4:c06e 020e:1eff:fec4:c06e 0x1077 5718 0x0 1 PORT_ACTIVE (4) 4096 (5) AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Linux active_mtu: sm_lid: port_lid: port_lmc: link_layer: 1024 (3) 0 0 0x00 Ethernet Applications iWARP prises en charge Les applications RDMA prises en charge par Linux pour iWARP comprennent ce qui suit : ibv_devinfo, ib_devices ib_send_bw/lat, ib_write_bw/lat, ib_read_bw/lat, ib_atomic_bw/lat Pour iWARP, toutes les applications doivent utiliser le gestionnaire de communication RDMA (rdma_cm) avec l'option -R. rdma_server, rdma_client rdma_xserver, rdma_xclient rping NFS over RDMA (NFSoRDMA) iSER (pour plus de détails, voir le Chapitre 8 Configuration d'iSER) NVMe-oF (pour plus de détails, voir le Chapitre 12 Configuration de NVMe-oF avec RDMA) Exécution de perftest pour iWARP Tous les outils perftest sont pris en charge sur le type de transport iWARP. Vous devez exécuter les outils en utilisant le gestionnaire de connexion RDMA (avec l'option -R). Exemple : 1. Sur un serveur, entrez la commande suivante (en utilisant le second port dans cet exemple) : # ib_send_bw -d qedr1 -F -R 2. Sur un client, entrez la commande suivante (en utilisant le second port dans cet exemple) : [root@localhost ~]# ib_send_bw -d qedr1 -F -R 192.168.11.3 ---------------------------------------------------------------------------Send BW Test Dual-port : OFF Device Number of qps : 1 Transport type : IW Connection type : RC Using SRQ 103 : qedr1 : OFF AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Linux TX depth : 128 CQ Moderation : 100 Mtu : 1024[B] Link type : Ethernet GID index : 0 Max inline data : 0[B] rdma_cm QPs : ON Data ex. method : rdma_cm ---------------------------------------------------------------------------local address: LID 0000 QPN 0x0192 PSN 0xcde932 GID: 00:14:30:196:192:110:00:00:00:00:00:00:00:00:00:00 remote address: LID 0000 QPN 0x0098 PSN 0x46fffc GID: 00:14:30:196:195:62:00:00:00:00:00:00:00:00:00:00 ---------------------------------------------------------------------------#bytes #iterations 65536 1000 BW peak[MB/sec] 2250.38 BW average[MB/sec] 2250.36 MsgRate[Mpps] 0.036006 ---------------------------------------------------------------------------- REMARQUE Pour les applications de latence (envoyer/écrire), si la version perftest est la plus récente (par exemple, perftest-3.0-0.21.g21dc344.x86_64.rpm), utilisez la valeur de taille incorporée prise en charge : 0-128. Configuration de NFS-RDMA NFS-RDMA pour iWARP comprend des étapes de configuration du serveur et du client. Pour configurer le serveur NFS : 1. Dans le fichier /etc/exports pour les répertoires que vous devez exporter à l'aide de NFS-RDMA sur le serveur, effectuez l'entrée suivante : /tmp/nfs-server *(fsid=0,async,insecure,no_root_squash) Assurez-vous d'utiliser une identification de système de fichiers (FSID) différente pour chaque répertoire que vous exportez. 2. Procédez comme suit pour charger le module svcrdma : # modprobe svcrdma 3. Démarrez le service NFS sans aucune erreur : # service nfs start 104 AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Linux 4. Incluez le port RDMA par défaut 20049 dans ce fichier comme suit : # echo rdma 20049 > /proc/fs/nfsd/portlist 5. Pour mettre les répertoires locaux à la disposition des clients NFS à monter, entrez la commande exportfs comme suit : # exportfs -v Pour configurer le client NFS : REMARQUE Cette procédure de configuration de client NFS s'applique également à RoCE. 1. Chargez le module xprtrdma comme suit : # modprobe xprtrdma 2. Montez le système de fichiers NFS correspondant à votre version : Pour NFS version 3 : #mount -o rdma,port=20049 192.168.2.4:/tmp/nfs-server /tmp/nfs-client Pour NFS version 4 : #mount -t nfs4 -o rdma,port=20049 192.168.2.4:/ /tmp/nfs-client REMARQUE Le port par défaut pour NFSoRDMA est 20049. Toutefois, n'importe quel autre port qui est aligné avec le client NFS fonctionnera également. 3. Vérifiez que le système de fichiers est monté en entrant la commande mount. Assurez-vous que les versions du système de fichiers et du port RDMA sont correctes. #mount |grep rdma 105 AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Linux Prise en charge d'iWARP RDMA-Core sous SLES 12 SP3, RHEL 7.4, et OFED 4.8x La bibliothèque d'espace utilisateur libqedr fait partie du rdma-core. Toutefois, le libqedr non préinstallé ne prend pas en charge SLES 12 SP3, RHEL 7.4, OFED 4.8x. Dès lors, ces versions de système d'exploitation exigent un correctif pour la prise en charge d'iWARP RDMA-Core. Pour appliquer le correctif iWARP RDMA-Core : 1. Pour télécharger la source de noyau RDMA la plus récente, entrez la commande suivante : # git clone https://github.com/linux-rdma/rdma-core.git 2. Installez tous les packages/bibliothèques dépendant du système d'exploitation, de la façon décrite dans le fichier LISEZMOI RDMA-Core. Pour RHEL et CentOS, entrez la commande suivante : # yum install cmake gcc libnl3-devel libudev-devel make pkgconfig valgrind-devel Pour SLES 12 SP3 (kit ISO/SDK), installez les RPM suivants : cmake-3.5.2-18.3.x86_64.rpm (OS ISO) libnl-1_1-devel-1.1.4-4.21.x86_64.rpm (SDK ISO) libnl3-devel-3.2.23-2.21.x86_64.rpm 3. (SDK ISO) Pour créer le RDMA-core, entrez les commandes suivantes : # cd <rdma-core-path>/rdma-core-master/ # ./build.sh 4. Pour exécuter toutes les applications OFED à partir de l'emplacement actuel RDMA-core-master, émettez la commande suivante : # ls <rdma-core-master>/build/bin cmpost ib_acme ibv_devinfo ibv_uc_pingpong iwpmd rdma_client rdma_xclient rping ucmatose umad_compile_test cmtime ibv_asyncwatch ibv_rc_pingpong ibv_ud_pingpong mckey rdma-ndd rdma_xserver rstream udaddy umad_reg2 ibacm ibv_devices ibv_srq_pingpong ibv_xsrq_pingpong rcopy rdma_server riostream srp_daemon udpong umad_register2 Exécutez les applications à partir de l'emplacement actuel de RDMA-core-master. Par exemple : # ./rping -c -v -C 5 -a 192.168.21.3 ping data: rdma-ping-0: ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqr ping data: rdma-ping-1: BCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrs 106 AH0054602-02 F 7–Configuration d'iWARP Configuration d'iWARP sous Linux ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT... 5. Pour exécuter des applications d'OFED préinstallé, telles que perftest et d'autres applications InfiniBand, entrez la commande suivante pour définir le chemin d'accès à la bibliothèque pour iWARP : # export LD_LIBRARY_PATH=/builds/rdma-core-path-iwarp/rdma-core-master/build/lib Par exemple : # /usr/bin/rping -c -v -C 5 -a 192.168.22.3 (or) rping -c -v -C 5 -a 192.168.22.3 ping data: rdma-ping-0: ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqr ping data: rdma-ping-1: BCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrs ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT... 107 AH0054602-02 F 8 Configuration d'iSER Ce chapitre fournit les procédures de configuration des extensions iSCSI pour RDMA (iSCSI Extensions for RDMA – iSER) sous Linux (RHEL et SLES) et ESXi 6.7, y compris : Avant de commencer Configuration d'iSER pour RHEL « Configuration d'iSER pour SLES 12 » à la page 112 « Utilisation d'iSER avec iWARP sous RHEL et SLES » à la page 113 « Optimisation des performances Linux » à la page 115 « Configuration d’iSER sous ESXi 6.7 » à la page 116 Avant de commencer Lorsque vous vous préparez à configurer iSER, tenez compte des points suivants : iSER est pris en charge uniquement avec OFED préinstallé pour les systèmes d'exploitation suivants : RHEL 7.1 et 7.2 SLES 12 et 12 SP1 Après la connexion aux cibles ou pendant l'exécution du trafic d'E/S, le déchargement du pilote RoCE pour Linux qedr peut faire planter le système. Pendant l'exécution d'E/S, la réalisation de tests d'activité/inactivité de l'interface et de tests de traction des câbles peuvent provoquer des erreurs des pilotes ou des modules iSER, susceptibles de faire planter le système. Si cela se produit, redémarrez le système. 108 AH0054602-02 F 8–Configuration d'iSER Configuration d'iSER pour RHEL Configuration d'iSER pour RHEL Pour configurer iSER pour RHEL : 1. Installez OFED préinstallé, comme indiqué à la section « Configuration de RoCE pour RHEL » à la page 80. Les versions d'OFED non préinstallées ne sont pas prises en charge pour iSER parce que le module ib_isert n'est pas disponible dans les versions d'OFED non préinstallées 3.18-2 GA/3.18-3 GA. Le module ib_isert de boîte de réception ne fonctionne avec aucune version d'OFED non préinstallée. 2. Déchargez tous les pilotes FastLinQ existants, comme indiqué à la section « Suppression des pilotes Linux » à la page 10. 3. Installez la dernière version des paquets libqedr et des pilotes FastLinQ, comme il est décrit à la section « Installation des pilotes Linux avec RDMA » à la page 14. 4. Chargez les services RDMA comme suit : systemctl start rdma modprobe qedr modprobe ib_iser modprobe ib_isert 5. Vérifiez que tous les modules RDMA et iSER sont chargés sur les périphériques d'origine et cible, à l'aide des commandes lsmod | grep qed et lsmod | grep iser. 6. Vérifiez qu'il existe des instances hca_id séparées, en entrant la commande ibv_devinfo comme indiqué à l'étape 6, page 82. 7. Vérifiez la connexion RDMA sur le périphérique d'origine et le périphérique cible. a. Sur le périphérique de l'initiateur, entrez la commande suivante : rping -s -C 10 -v b. Sur le périphérique cible, entrez la commande suivante : rping -c -a 192.168.100.99 -C 10 -v 109 AH0054602-02 F 8–Configuration d'iSER Configuration d'iSER pour RHEL La Figure 8-1 montre un exemple de ping RDMA réussi. Figure 8-1. Ping RDMA réussi 8. Vous pouvez utiliser une cible TCM-LIO Linux pour tester iSER. La configuration est identique pour les cibles iSCSI, mais vous entrez la commande enable_iser Boolean=true sur les portails concernés. Les instances de portail sont identifiées comme iser à la Figure 8-2. Figure 8-2. Instances de portail iSER 9. Installez les utilitaires d'initiateur iSCSI Linux à l'aide des commandes yum install iscsi-initiator-utils. a. Pour détecter la cible iSER, entrez la commande iscsiadm : Par exemple : iscsiadm -m discovery -t st -p 192.168.100.99:3260 110 AH0054602-02 F 8–Configuration d'iSER Configuration d'iSER pour RHEL b. Pour changer le mode de transport à iSER, entrez la commande iscsiadm. Par exemple : iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser c. Pour vous connecter à la cible iSER, entrez la commande iscsiadm. Par exemple : iscsiadm -m node -l -p 192.168.100.99:3260 -T iqn.2015-06.test.target1 d. Vérifiez que la valeur de Iface Transport est iser dans la connexion cible, comme le montre la Figure 8-3. Entrez la commande iscsiadm. Par exemple : iscsiadm -m session -P2 Figure 8-3. Vérification de Iface Transport 111 AH0054602-02 F 8–Configuration d'iSER Configuration d'iSER pour SLES 12 e. Pour vérifier un nouveau périphérique iSCSI, comme le montre la Figure 8-4, entrez la commande lsscsi. Figure 8-4. Vérification de nouveau périphérique iSCSI Configuration d'iSER pour SLES 12 Étant donné que targetcli n'est pas préinstallé sur SLES 12.x, vous devez effectuer la procédure suivante. Pour configurer iSER pour SLES 12 : 1. Pour installer targetcli, copiez et installez les RPM suivants depuis l'image ISO (emplacement x86_64 et noarch) : lio-utils-4.1-14.6.x86_64.rpm python-configobj-4.7.2-18.10.noarch.rpm python-PrettyTable-0.7.2-8.5.noarch.rpm python-configshell-1.5-1.44.noarch.rpm python-pyparsing-2.0.1-4.10.noarch.rpm python-netifaces-0.8-6.55.x86_64.rpm python-rtslib-2.2-6.6.noarch.rpm python-urwid-1.1.1-6.144.x86_64.rpm targetcli-2.1-3.8.x86_64.rpm 2. Avant de démarrer targetcli, chargez tous les pilotes de périphérique RoCE et modules iSER, comme suit : # modprobe qed # modprobe qede # modprobe qedr # modprobe ib_iser (Initiateur) # modprobe ib_isert (Cible) 3. Avant de configurer les cibles iSER, configurez les interfaces NIC et exécutez le trafic L2 et RoCE, comme décrit à l'étape 7 à la page 82. 112 AH0054602-02 F 8–Configuration d'iSER Utilisation d'iSER avec iWARP sous RHEL et SLES 4. Démarrez l'utilitaire targetcli, puis configurez vos cibles sur le système cible iSER. REMARQUE Les versions de targetcli ne sont pas les mêmes sous RHEL et SLES. Veillez à utiliser les backstores correctes pour configurer vos cibles. RHEL utilise ramdisk. SLES utilise rd_mcp. Utilisation d'iSER avec iWARP sous RHEL et SLES Configurez l'initiateur et la cible iSER de manière similaire à RoCE pour fonctionner avec iWARP. Vous pouvez utiliser différentes méthodes pour créer une cible Linux-IO (LIO™); cette section en décrit une. Vous pouvez rencontrer des différences dans la configuration avec targetcli sous SLES 12 et RHEL 7.x en raison de la version. Pour configurer une cible pour LIO : 1. Créez une cible LIO à l'aide de l'utilitaire targetcli. Tapez la commande suivante : # targetcli targetcli shell version 2.1.fb41 Copyright 2011-2013 by Datera, Inc and others. For help on commands, type 'help'. 2. Entrez les commandes suivantes : /> /backstores/ramdisk create Ramdisk1-1 1g nullio=true /> /iscsi create iqn.2017-04.com.org.iserport1.target1 /> /iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/luns create /backstores/ramdisk/Ramdisk1-1 /> /iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/portals/ create 192.168.21.4 ip_port=3261 /> /iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/portals/192.168.21.4:3261 enable_iser boolean=true /> /iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1 set attribute authentication=0 demo_mode_write_protect=0 generate_node_acls=1 cache_dynamic_acls=1 /> saveconfig 113 AH0054602-02 F 8–Configuration d'iSER Utilisation d'iSER avec iWARP sous RHEL et SLES La Figure 8-5 montre la configuration de la cible pour LIO. Figure 8-5. Configuration de cible LIO Pour configurer un initiateur pour iWARP : 1. Pour détecter la cible LIO iSER à l'aide du port 3261, entrez la commande iscsiadm comme suit : # iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser 192.168.21.4:3261,1 iqn.2017-04.com.org.iserport1.target1 2. Changez le mode de transport à iser comme suit : # iscsiadm -m node -o update -T iqn.2017-04.com.org.iserport1.target1 -n iface.transport_name -v iser 3. Connectez-vous à la cible à l'aide du port 3261 : # iscsiadm -m node -l -p 192.168.21.4:3261 -T iqn.2017-04.com.org.iserport1.target1 Logging in to [iface: iser, target: iqn.2017-04.com.org.iserport1.target1, portal: 192.168.21.4,3261] (multiple) Login to [iface: iser, target: iqn.2017-04.com.org.iserport1.target1, portal: 192.168.21.4,3261] successful. 4. Assurez-vous que ces LUN sont visibles en entrant la commande suivante : # lsscsi [1:0:0:0] storage HP P440ar 3.56 - [1:1:0:0] disk HP LOGICAL VOLUME 3.56 /dev/sda [6:0:0:0] cd/dvd hp DVD-ROM DUD0N UMD0 /dev/sr0 [7:0:0:0] disk LIO-ORG Ramdisk1-1 4.0 /dev/sdb 114 AH0054602-02 F 8–Configuration d'iSER Optimisation des performances Linux Optimisation des performances Linux Considérez les améliorations de configuration des performances Linux suivantes décrites dans cette section. Configuration des UC sur le mode Performances maximales Configuration des paramètres sysctl du noyau Configuration des paramètres d'affinité d'IRQ Configuration de la préparation de périphériques de traitement par blocs Configuration des UC sur le mode Performances maximales Configurez les performances du gestionnaire de mise à l'échelle des UC en utilisant le script suivant pour configurer toutes les UC sur le mode Performances maximales : for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f $CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done Vérifiez que les cœurs d'UC sont configurés sur le mode Performances maximales, en entrant la commande suivante : cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor Configuration des paramètres sysctl du noyau Définissez les paramètres sysctl du noyau comme suit : sysctl -w net.ipv4.tcp_mem="4194304 4194304 4194304" sysctl -w net.ipv4.tcp_wmem="4096 65536 4194304" sysctl -w net.ipv4.tcp_rmem="4096 87380 4194304" sysctl -w net.core.wmem_max=4194304 sysctl -w net.core.rmem_max=4194304 sysctl -w net.core.wmem_default=4194304 sysctl -w net.core.rmem_default=4194304 sysctl -w net.core.netdev_max_backlog=250000 sysctl -w net.ipv4.tcp_timestamps=0 sysctl -w net.ipv4.tcp_sack=1 sysctl -w net.ipv4.tcp_low_latency=1 sysctl -w net.ipv4.tcp_adv_win_scale=1 echo 0 > /proc/sys/vm/nr_hugepages 115 AH0054602-02 F 8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 Configuration des paramètres d'affinité d'IRQ L'exemple suivant configure respectivement les cœurs d'UC 0, 1, 2 et 3 pour interrompre les demandes (IRQ) XX, YY, ZZ et XYZ. Effectuez ces étapes pour chaque IRQ attribuée à un port (par défaut, huit files d'attente par port). systemctl disable irqbalance systemctl stop irqbalance cat /proc/interrupts | grep qedr d'attente de port. Affiche les IRQ attribuées à chaque file echo 1 > /proc/irq/XX/smp_affinity_list echo 2 > /proc/irq/YY/smp_affinity_list echo 4 > /proc/irq/ZZ/smp_affinity_list echo 8 > /proc/irq/XYZ/smp_affinity_list Configuration de la préparation de périphériques de traitement par blocs Définissez les paramètres de préparation de périphériques de traitement par blocs pour chaque périphérique ou cible iSCSI comme suit : echo noop > /sys/block/sdd/queue/scheduler echo 2 > /sys/block/sdd/queue/nomerges echo 0 > /sys/block/sdd/queue/add_random echo 1 > /sys/block/sdd/queue/rq_affinity Configuration d’iSER sous ESXi 6.7 Cette section fournit des informations sur la configuration d’iSER pour VMware ESXi 6.7. Avant de commencer Avant de configurer iSER pour ESXi 6.7, assurez-vous que les éléments suivants sont complets : Le jeu CNA avec les pilotes NIC et RoCE est installé sur le système ESXi 6.7 et les appareils sont répertoriés. Pour afficher les appareils RDMA, émettez la commande suivante : esxcli rdma device list Name Driver State ------- ------- ------ vmrdma0 qedrntv vmrdma1 qedrntv MTU Speed Paired Uplink Description ---- ------- ------------- -------------------------------------- Active 1024 40 Gbps vmnic4 QLogic FastLinQ QL45xxx RDMA Interface Active 1024 40 Gbps vmnic5 QLogic FastLinQ QL45xxx RDMA Interface [root@localhost:~] esxcfg-vmknic -l 116 AH0054602-02 F 8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 Interface Port Group/DVPort/Opaque Network Netmask Broadcast MAC Address IP Family IP Address MTU TSO MSS Enabled Type NetStack vmk0 Management Network 255.255.240.0 172.28.15.255 IPv4 172.28.12.94 e0:db:55:0c:5f:94 1500 65535 true DHCP defaultTcpipStack vmk0 Management Network 64 IPv6 fe80::e2db:55ff:fe0c:5f94 e0:db:55:0c:5f:94 1500 65535 true STATIC, PREFERRED defaultTcpipStack La cible iSER est configurée pour communiquer avec l’initiateur iSER. Configuration d’iSER pour ESXi 6.7 Pour configurer iSER pour ESXi 6.7 : 1. Ajoutez les appareils iSER en émettant les commandes suivantes : esxcli rdma iser add esxcli iscsi adapter list Adapter Driver State UID Description ------- ------ ------- ------------- ------------------------------------- vmhba64 iser unbound iscsi.vmhba64 VMware iSCSI over RDMA (iSER) Adapter vmhba65 iser unbound iscsi.vmhba65 VMware iSCSI over RDMA (iSER) Adapter 2. Désactivez le pare-feu comme suit : esxcli network firewall set --enabled=false esxcli network firewall unload vsish -e set /system/modules/iscsi_trans/loglevels/iscsitrans 0 vsish -e set /system/modules/iser/loglevels/debug 4 3. Créez un groupe de ports vSwitch VMkernel standard et attribuez l’adresse IP : esxcli network vswitch standard add -v vSwitch_iser1 esxcfg-nics -l Name PCI Driver vmnic0 0000:01:00.0 ntg3 Link Speed Duplex MAC Address Up Full e0:db:55:0c:5f:94 1500 Broadcom Half e0:db:55:0c:5f:95 1500 Broadcom Half e0:db:55:0c:5f:96 1500 Broadcom Half e0:db:55:0c:5f:97 1500 Broadcom Full 00:0e:1e:d5:f6:a2 1500 QLogic Corp. 1000Mbps MTU Description Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic1 0000:01:00.1 ntg3 Down 0Mbps Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic2 0000:02:00.0 ntg3 Down 0Mbps Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic3 0000:02:00.1 ntg3 Down 0Mbps Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic4 0000:42:00.0 qedentv Up 40000Mbps QLogic FastLinQ QL41xxx 10/25/40/50/100 GbE Ethernet Adapter 117 AH0054602-02 F 8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 vmnic5 0000:42:00.1 qedentv Up 40000Mbps Full 00:0e:1e:d5:f6:a3 1500 QLogic Corp. QLogic FastLinQ QL41xxx 10/25/40/50/100 GbE Ethernet Adapter esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1 esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1 esxcli network ip interface add -i vmk1 -p "rdma_group1" esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.0 -t static esxcfg-vswitch -p "rdma_group1" -v 4095 vSwitch_iser1 esxcli iscsi networkportal add -n vmk1 -A vmhba65 esxcli iscsi networkportal list esxcli iscsi adapter get -A vmhba65 vmhba65 Name: iqn.1998-01.com.vmware:localhost.punelab.qlogic.com qlogic.org qlogic.com mv.qlogic.com:1846573170:65 Alias: iser-vmnic5 Vendor: VMware Model: VMware iSCSI over RDMA (iSER) Adapter Description: VMware iSCSI over RDMA (iSER) Adapter Serial Number: vmnic5 Hardware Version: Asic Version: Firmware Version: Option Rom Version: Driver Name: iser-vmnic5 Driver Version: TCP Protocol Supported: false Bidirectional Transfers Supported: false Maximum Cdb Length: 64 Can Be NIC: true Is NIC: true Is Initiator: true Is Target: false Using TCP Offload Engine: true Using ISCSI Offload Engine: true 4. Ajoutez la cible à l’initiateur iSER comme suit : esxcli iscsi adapter target list esxcli iscsi adapter discovery sendtarget add -A vmhba65 -a 192.168.10.11 esxcli iscsi adapter target list Adapter Target Alias Discovery Method Last Error ------- ------------------------ ----- ---------------- ---------- vmhba65 iqn.2015-06.test.target1 SENDTARGETS No Error 118 AH0054602-02 F 8–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 esxcli storage core adapter rescan --adapter vmhba65 5. Répertoriez la cible jointe comme suit : esxcfg-scsidevs -l mpx.vmhba0:C0:T4:L0 Device Type: CD-ROM Size: 0 MB Display Name: Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0) Multipath Plugin: NMP Console Device: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Devfs Path: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Vendor: TSSTcorp SCSI Level: 5 Model: DVD-ROM SN-108BB Revis: D150 Is Pseudo: false Status: on Is RDM Capable: false Is Removable: true Is Local: true Is SSD: false Other Names: vml.0005000000766d686261303a343a30 VAAI Status: unsupported naa.6001405e81ae36b771c418b89c85dae0 Device Type: Direct-Access Size: 512 MB Display Name: LIO-ORG iSCSI Disk (naa.6001405e81ae36b771c418b89c85dae0) Multipath Plugin: NMP Console Device: /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0 Devfs Path: /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0 Vendor: LIO-ORG SCSI Level: 5 Model: ram1 Revis: 4.0 Is Pseudo: false Status: degraded Is RDM Capable: true Is Removable: false Is Local: false Is SSD: false Other Names: vml.02000000006001405e81ae36b771c418b89c85dae072616d312020 VAAI Status: supported naa.690b11c0159d050018255e2d1d59b612 119 AH0054602-02 F 9 Configuration iSCSI Ce chapitre fournit les informations suivantes concernant la configuration de iSCSI : Démarrage iSCSI « Configuration du démarrage iSCSI » à la page 127 « Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI » à la page 138 « Déchargement iSCSI sous Windows Server » à la page 142 « Déchargement iSCSI dans les environnements Linux » à la page 151 « Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures » à la page 166 REMARQUE Certaines fonctionnalités iSCSI peuvent ne pas être entièrement activées dans la version actuelle. Pour en savoir plus, reportez-vous à la section « Annexe D Contraintes en matière de fonctionnalités ». Démarrage iSCSI Les adaptateurs Cavium 4xxxx Series Gigabit Ethernet (GbE) prennent en charge le démarrage iSCSI pour permettre le démarrage réseau des systèmes d'exploitation sur des systèmes sans disque. Le démarrage iSCSI permet un démarrage du système d'exploitation Windows, Linux ou VMware à partir d'une machine cible iSCSI située à distance sur un réseau IP standard. Les informations de démarrage d’iSCSI de cette section comprennent : Configuration du démarrage iSCSI Configuration du mode de démarrage UEFI de l'adaptateur Pour les systèmes d'exploitation Windows et Linux, le démarrage iSCSI peut être configuré avec UEFI iSCSI HBA (chemin de déchargement avec le pilote de déchargement iSCSI de QLogic). Cette option est définie à l'aide du protocole de démarrage, sous la configuration au niveau du port. 120 AH0054602-02 F 9–Configuration iSCSI Démarrage iSCSI Configuration du démarrage iSCSI La configuration du démarrage iSCSI comprend : Sélection du mode de démarrage iSCSI préféré Configuration de la cible iSCSI Configuration des paramètres d'initialisation iSCSI Sélection du mode de démarrage iSCSI préféré L'option de mode de démarrage apparaît sous Configuration iSCSI (Figure 9-1) de l'adaptateur, et le paramètre est propre au port. Reportez-vous au manuel d'utilisation OEM pour obtenir des instructions sur l'accès au menu de configuration au niveau du périphérique sous HII UEFI. Figure 9-1. Configuration du système : Configuration NIC REMARQUE Le démarrage à partir de SAN n'est pris en charge qu’en mode NPAR et est configuré dans l’UEFI, et non dans le BIOS hérité. 121 AH0054602-02 F 9–Configuration iSCSI Démarrage iSCSI Configuration de la cible iSCSI La configuration de la cible iSCSI varie en fonction des fournisseurs cibles. Pour plus d'informations sur la configuration de la cible iSCSI, reportez-vous à la documentation du fournisseur. Pour configurer la cible iSCSI : 1. Sélectionnez la procédure appropriée en fonction de votre cible iSCSI : Créez une cible iSCSI pour des cibles telles que SANBlaze® ou IET®. Créez un vdisk ou volume pour des cibles telles que EqualLogic® ou EMC®. 2. Créez un disque virtuel. 3. Mappez le disque virtuel à la cible iSCSI créée à l'étape 1. 4. Associez un initiateur iSCSI à la cible iSCSI. Notez les informations suivantes : 5. Nom de la cible iSCSI Numéro de port TCP Numéro d'unité logique (LUN) iSCSI Nom qualifié iSCSI (IQN) de l'initiateur Détails de l'authentification CHAP Une fois la cible iSCSI configurée, notez les éléments suivants : Cible IQN Adresse IP cible Numéro de port TCP de la cible Numéro d'unité logique (LUN) de la cible Initiateur IQN Réf. et clé secrète CHAP Configuration des paramètres d'initialisation iSCSI Configurez le logiciel de démarrage iSCSI de QLogic pour une configuration statique ou dynamique. Pour connaître les options de configuration disponibles dans la fenêtre Paramètres généraux, consultez le Tableau 9-1, qui répertorie les paramètres pour IPv4 et IPv6. Les paramètres spécifiques à IPv4 ou IPv6 sont notés. REMARQUE La disponibilité du démarrage iSCSI IPv6 dépend de la plateforme et du périphérique. 122 AH0054602-02 F 9–Configuration iSCSI Démarrage iSCSI Table 9-1. Options de configuration Option Description TCP/IP parameters via DHCP Cette option est spécifique à IPv4. Contrôle si le logiciel hôte de démarrage iSCSI obtient les informations d'adresse IP via DHCP (Enabled) (Activé) ou par le biais d'une configuration IP statique (Disabled) (Désactivé). (Paramètres TCP/IP via DHCP) iSCSI parameters via DHCP (Paramètres iSCSI via DHCP) CHAP Authentication (Authentification CHAP) Contrôle si le logiciel hôte de démarrage iSCSI obtient ses paramètres cibles iSCSI via DHCP (Enabled) (Activé) ou par le biais d'une configuration statique (Disabled) (Désactivé). Les informations statiques sont saisies sur la page Configuration des paramètres de l'initiateur iSCSI. Contrôle si le logiciel hôte de démarrage iSCSI utilise une authentification CHAP lors de sa connexion à la cible iSCSI. Si CHAP Authentication (l'authentification CHAP) est activée, configurez l'ID de CHAP et le secret CHAP sur la page Configuration des paramètres de l'initiateur iSCSI. IP Version (Version IP) Cette option est spécifique à IPv6. Bascule entre IPv4 et IPv6. Tous les paramètres IP sont perdus si vous basculez d'une version de protocole à une autre. DHCP Request Timeout Permet de spécifier un temps d'attente maximum en secondes pour une requête DHCP et la réponse. (Délai d'expiration de requête DHCP) Target Login Timeout (Délai d'expiration de connexion de cible) DHCP Vendor ID (Réf. fournisseur DHCP) Permet de spécifier un temps d'attente maximum en secondes pour la connexion de cible de l'initiateur. Contrôle de quelle façon le logiciel hôte de démarrage iSCSI interprète le champ Vendor Class ID (ID de la classe du fournisseur) utilisé avec DHCP. Si le champ Vendor Class ID (ID de la classe du fournisseur) du paquet de l'offre DHCP correspond à la valeur du champ, le logiciel hôte de démarrage iSCSI recherche les extensions de démarrage iSCSI requises dans les champs Option DHCP 43. Si DHCP est désactivé, il n'est pas nécessaire de désactiver cette valeur. 123 AH0054602-02 F 9–Configuration iSCSI Démarrage iSCSI Configuration du mode de démarrage UEFI de l'adaptateur Pour configurer le mode de démarrage : 1. Redémarrez votre système. 2. Accédez au menu Utilitaires système (Figure 9-2). REMARQUE Le démarrage SAN est pris en charge uniquement dans l'environnement UEFI. Assurez-vous que l'option de démarrage du système est UEFI et non le BIOS hérité. Figure 9-2. Configuration du système : Paramètres d'amorçage 124 AH0054602-02 F 9–Configuration iSCSI Démarrage iSCSI 3. Dans Configuration du système, Paramètres de périphérique, sélectionnez le périphérique QLogic (Figure 9-3). Reportez-vous au guide d'utilisation OEM pour accéder au menu de configuration de périphérique PCI. Figure 9-3. Configuration du système : Utilitaire de configuration des paramètres de périphérique 125 AH0054602-02 F 9–Configuration iSCSI Démarrage iSCSI 4. Sur la page de configuration principale, sélectionnez Configuration NIC (Figure 9-4), et appuyez sur ENTRÉE. Figure 9-4. Sélection de la configuration NIC 126 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI 5. Sur la page « Configuration NIC » (Figure 9-5), sélectionnez Protocole de démarrage, et appuyez sur ENTRÉE pour sélectionner UEFI iSCSI HBA (exige le mode NPAR). Figure 9-5. Configuration du système : Configuration NIC, Protocole de démarrage 6. Choisissez l'une des options de configuration suivantes : « Configuration de l'initialisation iSCSI statique » à la page 127 « Configuration de l'initialisation iSCSI dynamique » à la page 135 Configuration du démarrage iSCSI Voici les options de configuration du démarrage iSCSI : Configuration de l'initialisation iSCSI statique Configuration de l'initialisation iSCSI dynamique Activation de l'authentification CHAP Configuration de l'initialisation iSCSI statique Dans une configuration statique, vous devez entrer les données suivantes : Adresse IP du système IQN de l'initiateur du système Paramètres de la cible (obtenus à la section « Configuration de la cible iSCSI » à la page 122) Pour plus d'informations sur la configuration des options, reportez-vous au Tableau 9-1 à la page 123. 127 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI Pour configurer les paramètres de démarrage iSCSI par le biais d'une configuration statique : 1. Sur la page de configuration principale HII du périphérique, sélectionnez Configuration iSCSI (Figure 9-6), et appuyez sur ENTRÉE. Figure 9-6. Configuration du système : Configuration iSCSI 2. Sur la page de configuration iSCSI, sélectionnez Paramètres généraux iSCSI (Figure 9-7), et appuyez sur ENTRÉE. Figure 9-7. Configuration du système : Sélection des paramètres généraux 128 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI 3. Sur la page des paramètres généraux iSCSI (Figure 9-8), appuyez sur les touches FLÈCHE VERS LE HAUT et FLÈCHE VERS LE BAS pour sélectionner un paramètre, puis appuyez sur la touche ENTRÉE pour sélectionner ou saisir les valeurs suivantes : Paramètres TCP/IP via DHCP : Désactivé Paramètres iSCSI via DHCP : Désactivé Authentification CHAP : Selon les besoins IP Version (Version IP) : Selon les besoins (IPv4 ou IPv6) Authentification mutuelle CHAP : Selon les besoins ID fournisseur DHCP : Ne s'applique pas à la configuration statique Mode de démarrage HBA : Activé ID de LAN virtuel : Valeur par défaut ou selon les besoins Mode LAN virtuel : Désactivé Figure 9-8. Configuration du système : paramètres généraux iSCSI 4. Retournez à la page Configuration iSCSI, puis appuyez sur la touche ÉCHAP. 129 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI 5. Sélectionnez Paramètres de l'initiateur iSCSI (Figure 9-9) et appuyez sur ENTRÉE. Figure 9-9. Configuration du système : Sélectionner les paramètres d'initiateur iSCSI 6. Sur la page des paramètres d'initiateur iSCSI (Figure 9-10), sélectionnez les paramètres suivants, puis entrez une valeur pour chacun d'eux : Adresse IPv4* Subnet Mask (Masque de sous-réseau) Passerelle par défaut IPv4* DNS principal IPv4* DNS secondaire IPv4* Nom iSCSI. Correspond au nom de l'initiateur iSCSI devant être utilisé par le système client ID CHAP Secret CHAP 130 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI REMARQUE Notez ce qui suit pour les éléments précédents comportant des astérisques (*) : Vous verrez IPv6 ou IPv4 (par défaut) en fonction de la version IP définie sur la page des paramètres généraux iSCSI (Figure 9-8 à la page 129). Entrez soigneusement l'adresse IP. L'adresse IP ne fait l'objet d'aucune vérification d'erreur en matière de duplication, de segment incorrect ou d'affectation réseau. Figure 9-10. Configuration du système : paramètres d'initiateur iSCSI 7. Retournez à la page Configuration iSCSI, puis appuyez sur la touche ÉCHAP. 131 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI 8. Sélectionnez Paramètres de la première cible iSCSI (Figure 9-11) et appuyez sur ENTRÉE. Figure 9-11. Configuration du système : Sélection des paramètres de la première cible iSCSI 9. Sur la page Paramètres cibles iSCSI, définissez l'option Connexion sur Activé sur la cible iSCSI. 10. Entrez les valeurs des paramètres suivants de la cible iSCSI, puis appuyez sur ENTRÉE : Adresse IPv4* Port TCP Numéro d'unité logique d'initialisation Nom iSCSI ID CHAP Secret CHAP REMARQUE Pour les paramètres précédents comportant des astérisques (*), vous verrez IPv6 ou IPv4 (par défaut) en fonction de la version IP définie sur la page des paramètres généraux iSCSI, illustrée à la Figure 9-12. 132 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI Figure 9-12. Configuration du système : Paramètres de la première cible iSCSI 11. Retournez à la page Configuration du démarrage iSCSI, puis appuyez sur la touche ÉCHAP. 133 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI 12. Si vous souhaitez configurer un deuxième périphérique cible iSCSI, sélectionnez Paramètres de la deuxième cible iSCSI (Figure 9-13), et entrez les valeurs des paramètres comme vous l'avez fait à l'étape 10. Sinon, passez à l'étape 13. Figure 9-13. Configuration du système : Paramètres de la deuxième cible iSCSI 13. Appuyez une fois sur ÉCHAP, puis une deuxième fois pour sortir. 134 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI 14. Cliquez sur Oui pour enregistrer les modifications, ou suivez les instructions de l'OEM pour enregistrer la configuration au niveau du périphérique. Par exemple, cliquez sur Oui pour confirmer la modification des paramètres (Figure 9-14). Figure 9-14. Configuration du système : Enregistrement des modifications iSCSI 15. Lorsque vous avez effectué toutes les modifications, redémarrez le système pour appliquer les modifications à la configuration actuelle de l'adaptateur. Configuration de l'initialisation iSCSI dynamique Dans le cadre d'une configuration dynamique, assurez-vous que l'adresse IP et les informations concernant la cible (ou l'initiateur) du système sont fournies par un serveur DHCP (voir les configurations IPv4 et IPv6 à la section « Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI » à la page 138). Toutes les valeurs des paramètres suivants sont ignorées et n'ont pas à être effacées (à l'exception du nom iSCSI de l'initiateur pour IPv4, de ID CHAP et de secret CHAP pour IPv6) : Paramètres de l'initiateur Paramètres de la première cible ou de la deuxième cible 135 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI Pour plus d'informations sur la configuration des options, reportez-vous au Tableau 9-1 à la page 123. REMARQUE Lors de l'utilisation d'un serveur DHCP, les entrées du serveur DNS sont écrasées par les valeurs provenant du serveur DHCP. Cela se produit même si les valeurs fournies localement sont valides et que le serveur DHCP ne transmet aucune information concernant le serveur DNS. Lorsque le serveur DHCP ne transmet aucune information concernant le serveur DNS, les valeurs des serveurs DNS principal et secondaire sont définies à 0.0.0.0. Lorsque le système d'exploitation Windows prend le contrôle, l'initiateur iSCSI Microsoft récupère les paramètres de l'initiateur iSCSI et configure de manière statique les registres appropriés. Il écrase alors tout élément configuré. Étant donné que le démon DHCP s'exécute dans l'environnement Windows en tant que processus utilisateur, tous les paramètres TCP/IP doivent être configurés de manière statique avant que la pile apparaisse dans l'environnement de démarrage iSCSI. Si l'option DHCP 17 est utilisée, les informations sur la cible sont fournies par le serveur DHCP et le nom iSCSI de l'initiateur est récupéré à partir de la valeur programmée de la fenêtre Paramètres de l'initiateur. Si aucune valeur n'a été sélectionnée, le contrôleur utilise le nom suivant par défaut : iqn.1995-05.com.qlogic.<11.22.33.44.55.66>.iscsiboot La chaîne 11.22.33.44.55.66 correspond à l'adresse MAC du contrôleur. Si l'option DHCP 43 (IPv4 uniquement) est utilisée, tous les paramètres des fenêtres suivantes sont ignorés et il n'est pas nécessaire de les effacer. Paramètres de l'initiateur Paramètres de la première cible ou de la deuxième cible Pour configurer les paramètres de démarrage iSCSI par le biais d'une configuration dynamique : Sur la page des Paramètres généraux iSCSI, définissez les options suivantes, comme indiqué à la Figure 9-15 : Paramètres TCP/IP via DHCP : Activé Paramètres iSCSI via DHCP : Activé Authentification CHAP : Selon les besoins IP Version (Version IP) : Selon les besoins (IPv4 ou IPv6) Authentification mutuelle CHAP : Selon les besoins ID fournisseur DHCP : Selon les besoins Mode de démarrage HBA : Désactivé 136 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI ID de LAN virtuel : Selon les besoins Mode de démarrage LAN virtuel : Activé Figure 9-15. Configuration du système : paramètres généraux iSCSI Activation de l'authentification CHAP Assurez-vous que l'authentification CHAP est activée sur la cible. Pour activer l'authentification CHAP : 1. Accédez à la page Paramètres généraux iSCSI. 2. Définissez Authentification CHAP sur Activé. 3. Dans la fenêtre Paramètres de l'initiateur, entrez des valeurs pour les éléments suivants : ID CHAP (jusqu'à 255 octets) Secret CHAP (si l'authentification est requise ; doit comporter de 12 à 16 caractères) 4. Appuyez sur ÉCHAP pour revenir à la page de configuration du démarrage iSCSI. 5. Sur la page de configuration du démarrage iSCSI, sélectionnez Paramètres de la première cible iSCSI. 137 AH0054602-02 F 9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI 6. Dans la fenêtre Paramètres de la première cible iSCSI, entrez les valeurs utilisées lors de la configuration de la cible iSCSI : ID CHAP (facultatif si CHAP bidirectionnel) Secret CHAP (facultatif si CHAP bidirectionnel ; doit comporter de 12 à 16 caractères) 7. Appuyez sur ÉCHAP pour revenir à la page de configuration du démarrage iSCSI. 8. Appuyez sur ÉCHAP et sélectionnez Enregistrer la configuration. Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Le serveur DHCP est un composant facultatif. Il est nécessaire uniquement si vous effectuez une configuration dynamique du démarrage iSCSI (voir « Configuration de l'initialisation iSCSI dynamique » à la page 135). La configuration du serveur DHCP pour la prise en charge du démarrage iSCSI est différente pour IPv4 et IPv6. Configuration de DHCP pour le démarrage iSCSI pour IPv4 Configuration du serveur DHCP Configuration de DHCP pour le démarrage iSCSI pour IPv6 Configuration des VLAN pour le démarrage iSCSI Configuration de DHCP pour le démarrage iSCSI pour IPv4 DHCP comprend plusieurs options apportant des informations de configuration au client DHCP. Pour un démarrage iSCSI, les adaptateurs QLogic prennent en charge les configurations DHCP suivantes : Option DHCP 17, chemin d'accès Option DHCP 43, Informations propres au fournisseur Option DHCP 17, chemin d'accès L'option 17 permet de transmettre les informations concernant la cible iSCSI au client iSCSI. Le format du chemin racine, défini dans IETC RFC 4173, se présente de la manière suivante : "iscsi:"<servername>":"<protocol>":"<port>":"<LUN>":"<targetname>" 138 AH0054602-02 F 9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Le Tableau 9-2 répertorie les paramètres de l'option DHCP 17. Table 9-2. Définition des paramètres de l'option DHCP 17 Paramètre Définition "iscsi:" Une chaîne littérale <servername> Adresse IP ou nom de domaine complet (FQDN) de la cible iSCSI ":" Séparateur <protocol> Le protocole IP permettant d'accéder à la cible iSCSI. Seul TCP étant pris en charge actuellement, le protocole est 6. <port> Numéro de port associé au protocole. Le numéro de port standard pour iSCSI est 3260. <LUN> Numéro d'unité logique (LUN) à utiliser sur la cible iSCSI. La valeur du LUN doit être représentée à l'aide de caractères hexadécimaux. Un LUN dont l'identifiant est 64 doit être défini sur 40, dans le paramètre option 17 du serveur DHCP. <targetname> Le nom de la cible au format IQN ou EUI. Pour plus de détails concernant les formats IQN et EUI, reportez-vous à la RFC 3720. Un exemple de nom IQN est iqn.1995-05.com.QLogic:iscsi-target. Option DHCP 43, Informations propres au fournisseur L'option DHCP 43 (informations propres au fournisseur) offre davantage d'options de configuration au client iSCSI que l'option DHCP 17. Dans le cadre de cette configuration, trois sous-options supplémentaires permettent d'attribuer le nom IQN de l'initiateur au client de démarrage iSCSI, ainsi que deux noms IQN de cible iSCSI pouvant être utilisés pour le démarrage. Le format du nom IQN de la cible iSCSI est identique à celui de l'option DHCP 17, tandis que le nom IQN de l'initiateur iSCSI est tout simplement le nom IQN de l'initiateur. REMARQUE L'Option DHCP 43 est uniquement prise en charge pour IPv4. 139 AH0054602-02 F 9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Le Tableau 9-3 répertorie les sous-options de l'option DHCP 43. Table 9-3. Définition des sous-options de l'option DHCP 43 Sous-option 201 Définition Informations sur la première cible iSCSI au format du chemin racine standard : "iscsi:"<servername>":"<protocol>":"<port>":"<LUN>": "<targetname>" 202 Informations sur la deuxième cible iSCSI au format du chemin racine standard : "iscsi:"<servername>":"<protocol>":"<port>":"<LUN>": "<targetname>" 203 Nom IQN de l'initiateur iSCSI L'option DHCP 43 requiert une configuration plus importante que l'option DHCP 17, mais elle offre un environnement plus riche et davantage d'options de configuration. Utilisez l'option DHCP 43 lors de la réalisation d'une configuration dynamique du démarrage iSCSI. Configuration du serveur DHCP Configurez le serveur DHCP de sorte qu'il prenne en charge l'option 16, 17 ou 43. REMARQUE Le format de l'Option DHCPv6 16 et de l'Option 17 est entièrement défini dans RFC 3315. Si vous utilisez l'option 43, vous devez également configurer l'option 60. La valeur de l'option 60 doit correspondre à la valeur d'ID du fournisseur DHCP, QLGC ISAN, comme indiqué dans les Paramètres généraux iSCSI de la page de configuration du démarrage iSCSI. 140 AH0054602-02 F 9–Configuration iSCSI Configuration du serveur DHCP pour la prise en charge du démarrage iSCSI Configuration de DHCP pour le démarrage iSCSI pour IPv6 Le serveur DHCPv6 peut fournir plusieurs options, y compris la configuration IP sans état ou avec état, ainsi que des informations pour le client DHCPv6. Pour un démarrage iSCSI, les adaptateurs QLogic prennent en charge les configurations DHCP suivantes : Option DHCPv6 16, option de classe fournisseur Option DHCPv6 17, informations concernant le fournisseur REMARQUE L'option de chemin d'accès standard de DHCPv6 n'est pas encore disponible. QLogic suggère d'utiliser l'option 16 ou 17 pour la prise en charge de la configuration IPv6 dynamique du démarrage iSCSI. Option DHCPv6 16, option de classe fournisseur L'option DHCPv6 16 (option de classe fournisseur) doit être présente et contenir une chaîne correspondant au paramètre configuré pour ID du fournisseur DHCP. La valeur d'ID du fournisseur DHCP est QLGC ISAN, comme indiqué dans les Paramètres généraux du menu Configuration du démarrage iSCSI. Le contenu de l'option 16 doit être <2-byte length> <DHCP Vendor ID>. Option DHCPv6 17, informations concernant le fournisseur L'Option DHCPv6 17 (informations concernant le fournisseur) fournit d'autres options de configuration au client iSCSI. Dans le cadre de cette configuration, trois sous-options supplémentaires permettent d'attribuer le nom IQN de l'initiateur au client de démarrage iSCSI, ainsi que deux noms IQN de cible iSCSI pouvant être utilisés pour le démarrage. Le Tableau 9-4 répertorie les sous-options de l'option DHCP 17. Table 9-4. Définition des sous-options de l'option DHCP 17 Sous-option 201 Définition Informations sur la première cible iSCSI au format du chemin racine standard : "iscsi:"[<servername>]":"<protocol>":"<port>":"<LUN> ": "<targetname>" 202 Informations sur la deuxième cible iSCSI au format du chemin racine standard : "iscsi:"[<servername>]":"<protocol>":"<port>":"<LUN> ": "<targetname>" 203 Nom IQN de l'initiateur iSCSI Remarques du tableau : Les crochets [ ] sont requis pour les adresses IPv6. 141 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI sous Windows Server Le contenu de l'option 17 devrait être le suivant : <2-byte Option Number 201|202|203> <2-byte length> <data> Configuration des VLAN pour le démarrage iSCSI Le trafic iSCSI sur le réseau peut être isolé dans un VLAN de couche 2 pour le séparer du trafic général. Si c'est le cas, faites de l'interface iSCSI sur l'adaptateur un membre de ce VLAN. Pour configurer un VLAN pour le démarrage iSCSI : 1. Accédez à la page de configuration iSCSI du port. 2. Sélectionnez Paramètres généraux iSCSI. 3. Sélectionnez ID VLAN pour entrer et définir la valeur de VLAN, comme indiqué à la Figure 9-16. Figure 9-16. Configuration du système : paramètres généraux iSCSI, ID VLAN Déchargement iSCSI sous Windows Server Le déchargement iSCSI est une technologie qui permet de décharger la charge de traitement du protocole iSCSI des processeurs hôtes vers l'adaptateur de bus hôte iSCSI. Le déchargement iSCSI accroît les performances réseau, ainsi que le débit tout en optimisant l'utilisation des processeurs sur le serveur. Cette section aborde la configuration de la fonction de déchargement iSCSI sous Windows pour les Adaptateurs série 41xxx QLogic. 142 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI sous Windows Server Si vous détenez une licence adéquate pour le déchargement iSCSI, vous pouvez configurer votre Adaptateur série 41xxx compatible iSCSI de sorte à décharger le traitement iSCSI du processeur hôte. Les sections suivantes décrivent la façon de permettre au système de bénéficier de la fonction de déchargement iSCSI de QLogic. Installation des pilotes QLogic Installation de l'initiateur Microsoft iSCSI Configuration de l'initiateur Microsoft pour l'utilisation du déchargement iSCSI de QLogic FAQ sur le déchargement iSCSI Installation du démarrage iSCSI Windows Server 2012 R2 et 2016 Vidage sur incident iSCSI Installation des pilotes QLogic Installez les pilotes Windows, comme décrit à la section « Installation du logiciel pilote pour Windows » à la page 16. Installation de l'initiateur Microsoft iSCSI Lancez l'applet de l'initiateur iSCSI Microsoft. Lors du premier lancement, le système demande un démarrage automatique du service. Confirmez la sélection de l'applet à lancer. Configuration de l'initiateur Microsoft pour l'utilisation du déchargement iSCSI de QLogic Après avoir configuré l'adresse IP de l'adaptateur iSCSI, vous devez utiliser l'initiateur Microsoft pour configurer et ajouter une connexion à la cible iSCSI à l'aide de l'adaptateur iSCSI QLogic. Pour plus de détails sur l'initiateur Microsoft, consultez le guide d'utilisation de Microsoft. Pour configurer l'initiateur Microsoft : 1. Ouvrez l'initiateur Microsoft. 2. Pour configurer le nom IQN de l'initiateur en fonction de votre configuration, procédez ainsi : a. Dans les Propriétés de l'initiateur d'iSCSI, cliquez sur l'onglet Configuration. 143 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI sous Windows Server b. Sur la page de configuration (Figure 9-17), cliquez sur Modifier pour modifier le nom de l'initiateur. Figure 9-17. Propriétés de l'initiateur d'iSCSI, page de configuration c. Dans la boîte de dialogue Nom de l'initiateur iSCSI, entrez le nouveau nom IQN de l'initiateur, puis cliquez sur OK. (Figure 9-18) Figure 9-18. Modification du nom de nœud de l'initiateur iSCSI 144 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI sous Windows Server 3. Dans Propriétés de l'initiateur d'iSCSI, cliquez sur l'onglet Détection. 4. Sur la page Détection (Figure 9-19), sous Portails cibles, cliquez sur Détecter le portail. Figure 9-19. Initiateur iSCSI – Détecter le portail cible 145 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI sous Windows Server 5. Dans la boîte de dialogue Détecter le portail cible (Figure 9-20) : a. Dans la zone Adresse IP ou Nom DNS, entrez l'adresse IP de la cible. b. Cliquez sur Avancé. Figure 9-20. Adresse IP du portail cible 6. Dans la boîte de dialogue Paramètres avancés (Figure 9-21), procédez ainsi sous Connexion à l'aide de : a. Pour Adaptateur local, sélectionnez l'adaptateur <nom ou modèle> QLogic. b. Pour IP de l'initiateur, sélectionnez l'adresse IP de l'adaptateur. 146 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI sous Windows Server c. Cliquez sur OK. Figure 9-21. Sélection de l'adresse IP de l'initiateur 7. Dans Propriétés de l'initiateur iSCSI, page Détection, cliquez sur OK. 147 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI sous Windows Server 8. Cliquez sur l'onglet Cibles, puis sur la page Cibles (Figure 9-22), cliquez sur Connexion. Figure 9-22. Connexion à la cible iSCSI 148 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI sous Windows Server 9. Dans la boîte de dialogue Connexion à la cible, (Figure 9-23), cliquez sur Avancé. Figure 9-23. Boîte de dialogue Connexion à la cible 10. Dans la boîte de dialogue Adaptateur local, sélectionnez l'adaptateur <nom ou modèle> QLogic, puis cliquez sur OK. 11. Cliquez à nouveau sur OK pour fermer l'initiateur Microsoft. 12. Utilisez Disk Manager pour formater la partition iSCSI. REMARQUE Voici certaines limitations de la fonctionnalité de regroupement : Le regroupement ne prend pas en charge les adaptateurs iSCSI. Le regroupement ne prend pas en charge les adaptateurs NDIS qui se trouvent dans le chemin d'initialisation. Le regroupement prend en charge les adaptateurs NDIS qui ne se trouvent pas dans le chemin d'initialisation iSCSI, mais seulement pour les équipes de type SLB. FAQ sur le déchargement iSCSI Voici des questions fréquemment posées sur le déchargement iSCSI : Question : Comment attribuer une adresse IP à un déchargement iSCSI ? Réponse : Utilisez la page Configurations de l'interface graphique QConvergeConsole. Question : Quels outils doit-on utiliser pour créer une connexion à la cible ? Réponse : Utilisez l'initiateur logiciel iSCSI Microsoft (version 2.08 ou ultérieure). 149 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI sous Windows Server Question : Comment savoir si la connexion est déchargée ? Réponse : Utilisez l'initiateur logiciel iSCSI Microsoft. Depuis une ligne de commande, saisissez oiscsicli sessionlist. Depuis Initiator Name (Nom de l'initiateur), une connexion iSCSI déchargée affiche une entrée commençant par B06BDRV. Une connexion non déchargée affiche une entrée commençant par Root. Question : Quelles configurations doivent être évitées ? Réponse : L'adresse IP doit être différente de celle du réseau local (LAN). Installation du démarrage iSCSI Windows Server 2012 R2 et 2016 Windows Server 2012 R2 et 2016 prennent en charge le démarrage ainsi que l'installation dans les chemins avec déchargement et sans déchargement. QLogic nécessite l'utilisation d'un DVD intégré avec les pilotes QLogic les plus récents injectés. Voir « Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows » à la page 178. La procédure suivante prépare l'image de l'installation pour un démarrage dans le chemin de déchargement ou dans le chemin sans déchargement. Pour configurer le démarrage iSCSI pour Windows Server 2012 R2 et 2016 : 1. Supprimez tous les disques durs locaux du système à démarrer (système distant). 2. Préparez le support d'installation du système d'exploitation Windows en suivant les étapes d'intégration de la section « Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows » à la page 178. 3. Chargez les images de démarrage iSCSI QLogic les plus récentes dans la NVRAM de l'adaptateur. 4. Configurez la cible iSCSI de sorte à autoriser une connexion depuis le périphérique distant. Assurez-vous que l'espace disque soit suffisant sur la cible pour contenir l'installation du nouveau système d'exploitation. 5. Configurez l'HII UEFI pour définir le type de démarrage iSCSI (déchargement ou non), l'initiateur correct et les paramètres de cible pour le démarrage iSCSI. 6. Enregistrez les paramètres et redémarrez le système. Le système distant devrait se connecter à la cible iSCSI puis démarrer depuis le périphérique DVD-ROM. 7. Démarrez depuis le DVD et commencez l'installation. 150 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 8. Suivez les instructions à l'écran. Sur la fenêtre qui affiche la liste des disques disponibles pour l'installation, le disque de la cible iSCSI devrait être visible. Il s'agit d'un disque connecté via le protocole de démarrage iSCSI et situé sur la cible iSCSI distante. 9. Pour procéder à l'installation avec Windows Server 2012R2/2016, cliquez sur Suivant, puis suivez les instructions à l'écran. Le serveur effectue un redémarrage à plusieurs reprises dans le cadre du processus d'installation. 10. Après le démarrage du serveur sur le SE, exécutez le programme d'installation des pilotes pour effectuer l'installation des pilotes QLogic et de l'application. Vidage sur incident iSCSI La fonctionnalité de vidage sur incident est prise en charge à la fois pour le démarrage iSCSI sans déchargement et avec déchargement pour les Adaptateurs série 41xxx. Aucune configuration supplémentaire n'est exigée pour configurer la génération de vidage sur incident iSCSI. Déchargement iSCSI dans les environnements Linux Le logiciel iSCSI QLogic FastLinQ 41xxx se compose d'un module de noyau unique appelé qedi.ko (qedi). Le module qedi dépend de parties supplémentaires du noyau Linux pour des fonctionnalités spécifiques : qed.ko est le module de noyau eCore Linux utilisé pour les routines courantes d'initialisation matérielle QLogic FastLinQ41xxx. scsi_transport_iscsi.ko est la bibliothèque de transport iSCSI Linux utilisée pour les appels ascendants et descendants dans le cadre de la gestion des sessions. libiscsi.ko est la fonction de bibliothèque iSCSI Linux nécessaire pour l'unité de données de protocole (PDU) et le traitement des tâches, ainsi que la gestion de la mémoire de session. iscsi_boot_sysfs.ko est l'interface sysfs iSCSI Linux qui fournit des assistants pour exporter les informations de démarrage iSCSI. uio.ko est l'interface d'E/S de l'espace utilisateur Linux, utilisée pour le mappage de la mémoire L2 pour iscsiuio. Ces modules doivent être chargés pour que qedi soit fonctionnel. Sinon, vous pouvez rencontrer une erreur de symbole non résolu. Si le module qedi est installé dans le chemin de mise à jour de distribution, les éléments requis sont automatiquement chargés par modprobe. 151 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Cette section fournit les informations suivantes sur le déchargement iSCSI sous Linux : Différences avec bnx2i Configuration de qedi.ko Vérification des interfaces iSCSI sous Linux Considérations relatives à Open-iSCSI et au démarrage à partir de SAN Différences avec bnx2i Il existe plusieurs différences importantes entre qedi – le pilote de l'Adaptateur série 41xxx FastLinQ QLogic (iSCSI) – et le pilote de déchargement iSCSI QLogic précédent – bnx2i pour les adaptateurs 8400 Series QLogic. En voici quelques-unes : qedi se lie directement à une fonction PCI exposée par le CNA. qedi ne repose pas au-dessus du net_device. qedi ne dépend pas d'un pilote réseau tel que bnx2x et cnic. qedi ne dépend pas de cnic, mais il dépend de qed. qedi est responsable de l'exportation des informations de démarrage dans sysfs à l'aide de iscsi_boot_sysfs.ko, alors que le démarrage à partir de SAN de bnx2i dépend du module iscsi_ibft.ko pour exporter les informations de démarrage. Configuration de qedi.ko Le pilote qedi se lie automatiquement aux fonctions iSCSI exposées du CNA et la détection et liaison de la cible est effectuée via les outils open-iscsi. Cette fonctionnalité et ce fonctionnement sont semblables à ceux du pilote bnx2i. REMARQUE Pour plus d'informations sur l'installation des pilotes FastLinQ, voir Chapitre 3 Installation des pilotes. Pour charger le module du noyau qedi.ko, entrez les commandes suivantes : # modprobe qed # modprobe libiscsi # modprobe uio # modprobe iscsi_boot_sysfs # modprobe qedi 152 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Vérification des interfaces iSCSI sous Linux Après l'installation et le chargement du module du noyau qedi, vous devez vérifier que les interfaces iSCSI ont été détectées correctement. Pour vérifier les interfaces iSCSI sous Linux : 1. Pour vérifier que le module qedi et les modules du noyau associés sont activement chargés, entrez la commande suivante : # lsmod | grep qedi 2. qedi 114578 2 qed 697989 1 qedi uio 19259 4 cnic,qedi libiscsi 57233 2 qedi,bnx2i scsi_transport_iscsi 99909 5 qedi,bnx2i,libiscsi iscsi_boot_sysfs 16000 1 qedi Pour vérifier que les interfaces iSCSI ont été détectées correctement, entrez la commande suivante : Dans cet exemple, deux périphériques CNA iSCSI sont détectés avec les numéros d'hôte SCSI 4 et 5. # dmesg | grep qedi [0000:00:00.0]:[qedi_init:3696]: QLogic iSCSI Offload Driver v8.15.6.0. .... [0000:42:00.4]:[__qedi_probe:3563]:59: QLogic FastLinQ iSCSI Module qedi 8.15.6.0, FW 8.15.3.0 .... [0000:42:00.4]:[qedi_link_update:928]:59: Link Up event. .... [0000:42:00.5]:[__qedi_probe:3563]:60: QLogic FastLinQ iSCSI Module qedi 8.15.6.0, FW 8.15.3.0 .... [0000:42:00.5]:[qedi_link_update:928]:59: Link Up event 3. Utilisez les outils open-iscsi pour vérifier que l'adresse IP est correctement configurée. Tapez la commande suivante : # iscsiadm -m iface | grep qedi qedi.00:0e:1e:c4:e1:6d qedi,00:0e:1e:c4:e1:6d,192.168.101.227,<empty>,iqn.1994-05.com.redhat:534ca9b6 adf qedi.00:0e:1e:c4:e1:6c qedi,00:0e:1e:c4:e1:6c,192.168.25.91,<empty>,iqn.1994-05.com.redhat:534ca9b6adf 153 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 4. Pour vous assurer que le service iscsiuio est exécuté, entrez la commande suivante : # systemctl status iscsiuio.service iscsiuio.service - iSCSI UserSpace I/O driver Loaded: loaded (/usr/lib/systemd/system/iscsiuio.service; disabled; vendor preset: disabled) Active: active (running) since Fri 2017-01-27 16:33:58 IST; 6 days ago Docs: man:iscsiuio(8) Process: 3745 ExecStart=/usr/sbin/iscsiuio (code=exited, status=0/SUCCESS) Main PID: 3747 (iscsiuio) CGroup: /system.slice/iscsiuio.service !--3747 /usr/sbin/iscsiuio Jan 27 16:33:58 localhost.localdomain systemd[1]: Starting iSCSI UserSpace I/O driver... Jan 27 16:33:58 localhost.localdomain systemd[1]: Started iSCSI UserSpace I/O driver. 5. Pour détecter la cible iSCSI, entrez la commande iscsiadm : #iscsiadm -m discovery -t st -p 192.168.25.100 -I qedi.00:0e:1e:c4:e1:6c 192.168.25.100:3260,1 iqn.200304.com.sanblaze:virtualun.virtualun.target-05000007 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000012 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-0500000c 192.168.25.100:3260,1 iqn.200304.com.sanblaze:virtualun.virtualun.target-05000001 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000002 6. Connectez-vous à la cible iSCSI en utilisant l'IQN obtenu à l'étape 5. Pour initier la procédure de connexion, entrez la commande suivante (où le dernier caractère dans la commande est une lettre en minuscules « L » : #iscsiadm -m node -p 192.168.25.100 -T iqn.2003-04.com.sanblaze:virtualun.virtualun.target-0)000007 -l Logging in to [iface: qedi.00:0e:1e:c4:e1:6c, target:iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007, portal:192.168.25.100,3260] (multiple) Login to [iface: qedi.00:0e:1e:c4:e1:6c, target:iqn.200304.com.sanblaze:virtualun.virtualun.target-05000007, portal:192.168.25.100,3260] successful. 154 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 7. Pour vérifier que la session iSCSI a été créée, entrez la commande suivante : # iscsiadm -m session qedi: [297] 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007 (non-flash) 8. Pour vérifier les périphériques iSCSI, entrez la commande iscsiadm : # iscsiadm -m session -P3 ... ************************ Attached SCSI devices: ************************ Host Number: 59 State: running scsi59 Channel 00 Id 0 Lun: 0 Attached scsi disk sdb State: running scsi59 Channel 00 Id 0 Lun: 1 Attached scsi disk sdc State: running scsi59 Channel 00 Id 0 Lun: 2 Attached scsi disk sdd State: running scsi59 Channel 00 Id 0 Lun: 3 Attached scsi disk sde State: running scsi59 Channel 00 Id 0 Lun: 4 Attached scsi disk sdf State: running Pour les configurations de cible avancées, reportez-vous au document README de Open-iSCSI à l'adresse suivante : https://github.com/open-iscsi/open-iscsi/blob/master/README Considérations relatives à Open-iSCSI et au démarrage à partir de SAN Dans les distributions actuelles (par exemple, RHEL 6/7 et SLE 11/12), l'utilitaire d'espace utilisateur iSCSI préinstallé (outils OPen-iSCSI) ne prend pas en charge le transport iSCSI pour qedi et ne peut pas exécuter la fonctionnalité iSCSI lancée depuis l'espace utilisateur. Pendant l'installation du démarrage à partir de SAN, vous pouvez mettre à jour le pilote qedi à l'aide d'un disque de mise à jour de pilote (DUD). Cependant, il n'existe aucun interface ou processus pour mettre à jour les utilitaires préinstallés de l'espace utilisateur, ce qui provoque l'échec de l'installation du démarrage à partir de SAN et de la connexion à la cible iSCSI. Pour surmonter cette limitation, effectuez le démarrage initial à partir de SAN avec l'interface L2 pure (n'utilisez pas iSCSI avec déchargement matériel) en utilisant la procédure suivante pendant le démarrage à partir de SAN. 155 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux Pour démarrer à partir de SAN à l'aide des solutions Dell OEM : 1. Sur la page « Configuration NIC », sélectionnez Protocole de démarrage, et appuyez sur ENTRÉE pour sélectionner Environ. exéc. Prédémarrag hérité. 2. Configurez les entrées relatives à l'initiateur et à la cible. 3. Au début de l'installation, passez le paramètre de démarrage suivant avec l'option DUD : Pour RHEL 6.x et 7.x : rd.iscsi.ibft dd Aucune autre option n'est nécessaire pour les anciennes distributions de RHEL. Pour SLES 11 SP4 et SLES 12 SP1/SP2/SP3 : ip=ibft dud=1 Pour le paquet de DUD FastLinQ (par exemple, sous RHEL 7) : fastlinq-8.18.10.0-dd-rhel7u3-3.10.0_514.el7-x86_64.iso Où le paramètre DUD est dd pour RHEL 7.x et dud=1 pour SLES 12.x. 4. Installez le système d'exploitation sur le LUN cible. 5. Migrez de l’interface sans déchargement vers une interface avec déchargement en suivant les instructions de votre système d'exploitation : Démarrage iSCSI L4 pour RHEL 6.9 à partir de la migration SAN Démarrage iSCSI L4 pour RHEL 7.2/7.3 à partir de la migration SAN Démarrage iSCSI L4 pour SLES 11 SP4 à partir de la migration SAN Démarrage iSCSI L4 pour SLES 12 SP1/SP2 à partir de la migration SAN Démarrage iSCSI L4 pour SLES 12 SP1/SP2 à partir de la migration SAN à l’aide de MPIO Démarrage iSCSI L4 pour RHEL 6.9 à partir de la migration SAN Pour migrer d'une interface sans déchargement vers une interface avec déchargement : 1. Démarrez dans le système d'exploitation iSCSI sans déchargement/L2 démarrage à partir de SAN. Entrez les commandes suivantes pour installer les RPM open-iscsi et iscsiuio : # rpm -ivh --force qlgc-open-iscsi-2.0_873.111-1.x86_64.rpm 156 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux # rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.rpm 2. Modifiez le fichier /etc/init.d/iscsid, ajoutez la commande suivante, puis enregistrez le fichier : modprobe -q qedi Par exemple : echo -n $"Starting $prog: " modprobe -q iscsi_tcp modprobe -q ib_iser modprobe -q cxgb3i modprobe -q cxgb4i modprobe -q bnx2i modprobe -q be2iscsi modprobe -q qedi daemon iscsiuio 3. Modifiez le fichier /etc/iscsi/iscsid.conf, commentez ou décommentez les lignes suivantes et enregistrez le fichier. Commenter : iscsid.startup = /etc/rc.d/init.d/iscsid force-start Décommenter : iscsid.startup = /sbin/iscsid Par exemple : ###################### # iscsid daemon config ###################### # If you want iscsid to start the first time a iscsi tool # needs to access it, instead of starting it when the init # scripts run, set the iscsid startup command here. This # should normally only need to be done by distro package # maintainers. # # Default for Fedora and RHEL. (uncomment to activate). #iscsid.startup = /etc/rc.d/init.d/iscsid force-start # # Default for upstream open-iscsi scripts (uncomment to activate). iscsid.startup = /sbin/iscsid 157 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 4. Créez un enregistrement Iface pour une interface L4. Tapez la commande suivante : # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -o new New interface qedi.14:02:ec:ce:dc:71 added Le format de l’enregistrement Iface doit être qedi.<mac_address>. Dans ce cas, l’adresse MAC doit correspondre à l’adresse MAC L4 sur laquelle la session iSCSI est active. 5. Mettez les champs Iface de l’enregistrement Iface à jour en entrant la commande iscsiadm. Par exemple : # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.hwaddress -v 14:02:ec:ce:dc:71 -o update qedi.14:02:ec:ce:dc:71 updated. # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.transport_name -v qedi -o update qedi.14:02:ec:ce:dc:71 updated. # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.bootproto -v dhcp -o update qedi.14:02:ec:ce:dc:71 updated. # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.ipaddress -v 0.0.0.0 -o update qedi.14:02:ec:ce:dc:71 updated. # iscsiadm -m node -T iqn.1986-03.com.hp:storage.p2000g3.13491b47fb -p 192.168.100.9:3260 -I qedi.14:02:ec:ce:dc:71 -o new New iSCSI node [qedi:[hw=14:02:ec:ce:dc:71,ip=0.0.0.0,net_if=,iscsi_if=qedi.14:02:ec:ce:dc:71] 192.168.100.9,3260,-1 iqn.1986-03.com.hp:storage.p2000g3.13491b47fb] added 6. Modifiez le fichier /boot/efi/EFI/redhat/grub.conf, procédez aux modifications suivantes, et enregistrez le fichier : Retirez ifname=eth5:14:02:ec:ce:dc:6d Retirez ip=ibft Ajoutez selinux=0 Par exemple : kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 ifname=eth5:14:02:ec:ce:dc:6d rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap ip=ibft KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root rhgb quiet initrd /initramfs-2.6.32-696.el6.x86_64.img 158 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root selinux=0 initrd /initramfs-2.6.32-696.el6.x86_64.img 7. Montez le fichier initramfs en entrant la commande suivante : # dracut -f 8. Redémarrez le serveur et ouvrez le HII. 9. Dans le HII, activez le mode déchargement de l’iSCSI. a. Sur la page « Configuration principale », sélectionnez Configuration du système, Paramètres du périphérique. b. Sur la page « Paramètres du périphérique », sélectionnez le port sur lequel l’iSCSI boot firmware table (iBFT) a été configuré c. Sur la page « Configuration du système », sélectionnez Configuration de partitionnement NIC, Configuration de la partition 3. d. Sur la page « Configuration de la partition 3 », définissez le Mode de déchargement iSCSI sur Activé. 10. Sur la page « Configuration principale », sélectionnez Paramètres généraux iSCSI puis définissez le Mode de démarrage HBA sur Désactivé. 11. Sur la page « Configuration principale », définissez le Protocole de démarrage sur UEFI iSCSI HBA. 12. Enregistrez la configuration et redémarrez le serveur. REMARQUE Le système d'exploitation peut maintenant démarrer via l'interface de déchargement. Démarrage iSCSI L4 pour RHEL 7.2/7.3 à partir de la migration SAN Pour migrer d'une interface sans déchargement vers une interface avec déchargement : 1. Mettez à jour les outils open-iscsi et iscsiuio en entrant les commandes suivantes : #rpm -ivh qlgc-open-iscsi-2.0_873.111.rhel7u3-3.x86_64.rpm --force #rpm -ivh iscsiuio-2.11.5.3-2.rhel7u3.x86_64.rpm --force 2. Rechargez tous les services du démon en entrant la commande suivante : 159 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux #systemctl daemon-reload 3. Redémarrez les services iscsid et iscsiuio en entrant les commandes suivantes : # systemctl restart iscsiuio # systemctl restart iscsid 4. Créez un enregistrement Iface pour l’interface L4 en entrant la commande suivante : # iscsiadm -m iface -I qedi. 00:0e:1e:d6:7d:3a -o new Le format de l’enregistrement Iface doit être qedi<mac_address>. Dans ce cas, l’adresse MAC doit correspondre à l’adresse MAC L4 sur laquelle la session iSCSI est active. 5. # # # # iscsiadm iscsiadm iscsiadm iscsiadm -m -m -m -m iface iface iface iface Mettez les champs Iface de l’enregistrement Iface à jour en entrant la commande iscsiadm. Par exemple : -I -I -I -I qedi.00:0e:1e:d6:7d:3a qedi.00:0e:1e:d6:7d:3a qedi.00:0e:1e:d6:7d:3a qedi.00:0e:1e:d6:7d:3a -n -n -n -n iface.hwaddress -v 00:0e:1e:d6:7d:3a -o update iface.ipaddress -v 192.168.91.101 -o update iface.subnet_mask -v 255.255.0.0 -o update iface.transport_name -v qedi -o update # iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.bootproto -v static -o update 6. Créez un enregistrement de nœud cible pour utiliser l'interface L4 de la façon suivante : # iscsiadm -m node -T iqn.2003-04.com.sanblaze:virtualun.virtualun.target-050123456 -p 192.168.25.100:3260 -I qedi.00:0e:1e:d6:7d:3a -o new 7. Modifiez le fichier /usr/libexec/iscsi-mark-root-node et trouvez l’élément suivant : if [ "$transport" = bnx2i ]; then start_iscsiuio=1 Ajoutez || [ "$transport" = qedi ] à l’expression IF, comme indiqué ci-dessous : if [ "$transport" = bnx2i ] || [ "$transport" = qedi ]; then start_iscsiuio=1 8. Modifiez le fichier /etc/default/grub et trouvez l’élément suivant : GRUB_CMDLINE_LINUX="iscsi_firmware ip=ibft" Remplacez-le par : GRUB_CMDLINE_LINUX="rd.iscsi.firmware" 160 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 9. Créez un nouveau fichier grub.cfg en entrant la commande suivante : # grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg 10. Montez le fichier initramfs en entrant la commande suivante : # dracut -f 11. Redémarrez le serveur et ouvrez le HII. 12. Dans le HII, activez le mode déchargement de l’iSCSI. a. Sur la page « Configuration principale », sélectionnez Configuration du système, Paramètres du périphérique. b. Sur la page « Paramètres du périphérique », sélectionnez le port sur lequel l’iSCSI boot firmware table (iBFT) a été configuré c. Sur la page « Configuration du système », sélectionnez Configuration de partitionnement NIC, Configuration de la partition 3. d. Sur la page « Configuration de la partition 3 », définissez le Mode de déchargement iSCSI sur Activé. 13. Sur la page « Configuration principale », sélectionnez Paramètres généraux iSCSI puis définissez le Mode de démarrage HBA sur Désactivé. 14. Sur la page « Configuration principale », définissez le Protocole de démarrage sur UEFI iSCSI HBA. 15. Enregistrez la configuration et redémarrez le serveur. REMARQUE Le système d'exploitation peut maintenant démarrer via l'interface de déchargement. Démarrage iSCSI L4 pour SLES 11 SP4 à partir de la migration SAN Pour migrer d'une interface sans déchargement vers une interface avec déchargement : 1. Mettez à jour des outils open-iscsi et iscsiuio vers les toutes dernières versions disponibles en émettant les commandes suivantes : # rpm -ivh qlgc-open-iscsi-2.0_873.111.sles11sp4-3.x86_64.rpm --force # rpm -ivh iscsiuio-2.11.5.3-2.sles11sp4.x86_64.rpm --force 2. Modifiez le fichier /etc/elilo.conf, effectuez la modification suivante puis enregistrez le fichier : Retirez le paramètre ip=ibft (s’il est présent) Ajoutez iscsi_firmware 161 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 3. Modifiez le fichier /etc/sysconfig/kernel et trouvez l’élément suivant : INITRD_MODULES=”ata_piix ata_generic” Remplacez-le par : INITRD_MODULES=”ata_piix ata_generic qedi” Enregistrez le fichier. 4. Modifiez le fichier /etc/modprobe.d/unsupported-modules, modifiez la valeur pour allow_unsupported_modules à 1 et enregistrez le fichier : allow_unsupported_modules 1 5. Trouvez et supprimez les fichiers suivants : 6. /etc/init.d/boot.d/K01boot.open-iscsi /etc/init.d/boot.open-iscsi Créez une sauvegarde d’initrd puis montez un nouvel initrd en entrant la commande suivante. # cd /boot/ # mkinitrd 7. Redémarrez le serveur et ouvrez le HII. 8. Dans le HII, activez le mode déchargement de l’iSCSI. a. Sur la page « Configuration principale », sélectionnez Configuration du système, Paramètres du périphérique. b. Sur la page « Paramètres du périphérique », sélectionnez le port sur lequel l’iSCSI boot firmware table (iBFT) a été configuré c. Sur la page « Configuration du système », sélectionnez Configuration de partitionnement NIC, Configuration de la partition 3. d. Sur la page « Configuration de la partition 3 », définissez le Mode de déchargement iSCSI sur Activé. 9. Sur la page « Configuration principale », sélectionnez Paramètres généraux iSCSI puis définissez le Mode de démarrage HBA sur Désactivé. 10. Sur la page « Configuration principale », définissez le Protocole de démarrage sur UEFI iSCSI HBA. 162 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 11. Enregistrez la configuration et redémarrez le serveur. REMARQUE Le système d'exploitation peut maintenant démarrer via l'interface de déchargement. Démarrage iSCSI L4 pour SLES 12 SP1/SP2 à partir de la migration SAN Pour migrer d'une interface sans déchargement vers une interface avec déchargement : 1. Démarrez dans le système d'exploitation iSCSI sans déchargement/L2 démarrage à partir de SAN. Entrez les commandes suivantes pour installer les RPM open-iscsi et iscsiuio : # qlgc-open-iscsi-2.0_873.111.slessp2-3.x86_64.rpm # iscsiuio-2.11.5.3-2.sles12sp2.x86_64.rpm 2. Rechargez tous les services du démon en entrant la commande suivante : # systemctl daemon-reload 3. Activez les services iscsid et iscsiuio s'ils ne sont pas déjà activés en entrant les commandes suivantes : # systemctl enable iscsid # systemctl enable iscsiuio 4. Tapez la commande suivante : cat /proc/cmdline 5. Vérifiez si le système d'exploitation a conservé des options de démarrage, telles que ip = ibft ou rd.iscsi.ibft. 6. 7. Si des options de démarrage ont été conservées, passez à l'étape 6. Sinon, passez à l'étape 6 c. Ouvrez le fichier /etc/default/grub et modifiez la valeur GRUB_CMDLINE_LINUX : a. Supprimez rd.iscsi.ibft (si présent). b. Supprimez toute option de démarrage ip=<value>. (si présente). c. Ajoutez rd.iscsi.firmware. Pour les anciennes distributions, ajoutez iscsi_firmware. Créez une sauvegarde du fichier grub.cfg d’origine. Le fichier se trouve à l’emplacement suivant : Démarrage hérité : /boot/grub2/grub.cfg 163 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 8. Démarrage UEFI : /boot/efi/EFI/sles/grub.cfg pour SLES Créez un nouveau fichier grub.cfg en entrant la commande suivante : # grub2-mkconfig -o <new file name> 9. Comparez l’ancien fichier grub.cfg et le nouveau fichier grub.cfg pour vérifier les modifications apportées. 10. Remplacez le fichier grub.cfg d'origine par le nouveau fichier grub.cfg. 11. Montez le fichier initramfs en entrant la commande suivante : # dracut -f 12. Redémarrez le serveur et ouvrez le HII. 13. Dans le HII, activez le mode déchargement de l’iSCSI. a. Sur la page « Configuration principale », sélectionnez Configuration du système, Paramètres du périphérique. b. Sur la page « Paramètres du périphérique », sélectionnez le port sur lequel l’iSCSI boot firmware table (iBFT) a été configuré c. Sur la page « Configuration du système », sélectionnez Configuration de partitionnement NIC, Configuration de la partition 3. d. Sur la page « Configuration de la partition 3 », définissez le Mode de déchargement iSCSI sur Activé. 14. Sur la page « Configuration principale », sélectionnez Paramètres généraux iSCSI puis définissez le Mode de démarrage HBA sur Désactivé. 15. Sur la page « Configuration principale », définissez le Protocole de démarrage sur UEFI iSCSI HBA. 16. Enregistrez la configuration et redémarrez le serveur. REMARQUE Le système d'exploitation peut maintenant démarrer via l'interface de déchargement. Démarrage iSCSI L4 pour SLES 12 SP1/SP2 à partir de la migration SAN à l’aide de MPIO Pour migrer de L2 à L4 et configurer les paramètres de Microsoft Multipath I/O (MPIO) pour démarrer le SE via une interface déchargée : 1. Pour mettre à jour les outils open-iscsi, entrez la commande suivante : # rpm -ivh --force qlgc-open-iscsi-2.0_873.111.sles12sp1-3.x86_64.rpm # rpm -ivh --force iscsiuio-2.11.5.3-2.sles12sp1.x86_64.rpm 164 AH0054602-02 F 9–Configuration iSCSI Déchargement iSCSI dans les environnements Linux 2. Allez à /etc/default/grub et mettez le paramètre rd.iscsi.ibft sur rd.iscsi.firmware. 3. Tapez la commande suivante : grub2-mkconfig -o /boot/efi/EFI/suse/grub.cfg 4. Pour charger le module multichemin, entrez la commande suivante : modprobe dm_multipath 5. Pour activer le démon multichemin, entrez les commandes suivantes : systemctl start multipathd.service systemctl enable multipathd.service systemctl start multipathd.socket 6. pour ajouter des périphériques au multichemin, entrez les commandes suivantes : multipath -a /dev/sda multipath -a /dev/sdb 7. Pour exécuter l'utilitaire multichemin, entrez les commandes suivantes : multipath (peut ne pas afficher les périphériques multichemin parce qu'il est initialisé avec un chemin unique sur L2) multipath -ll 8. Pour injecter le module multichemin dans initrd, entrez la commande suivante : dracut --force --add multipath --include /etc/multipath 9. Redémarrez le serveur et entrez dans les paramètres système en appuyant sur la touche F9 pendant le menu POST. 10. Changez la configuration UEFI pour utiliser le démarrage iSCSI L4 : a. Ouvrez la fenêtre « Configuration système » et sélectionnez Paramètres du périphérique. b. Dans la fenêtre « Paramètres du périphérique », sélectionnez le port d’adaptateur sur lequel l’iSCSI boot firmware table (iBFT) est configuré puis appuyez sur ENTRÉE. c. Sur la page « Configuration principale », sélectionnez Configuration de partitionnement NIC, puis appuyez sur ENTRÉE. d. Sur la page « Configuration des partitions », sélectionnez Configuration de la partition 3. e. Sur la page « Configuration de la partition 3 », définissez le Mode de déchargement iSCSI sur Activé. 165 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures 11. f. Allez sur la page « Configuration principale », puis sélectionnez Configuration iSCSI. g. Sur la page « Configuration iSCSI », sélectionnez Paramètres généraux iSCSI. h. Sur la page « Paramètres généraux iSCSI », définissez le Mode de démarrage HBA sur Désactivé. i. Allez sur la page « Configuration principale », puis sélectionnez Configuration NIC. j. Sur la page « Configuration principale », définissez le Protocole de démarrage sur UEFI iSCSI HBA. k. Enregistrez les paramètres puis sortez du menu de configuration système. Pour avoir la garantie que les pilotes out-of-box sont correctement installés depuis la disquette de mise à jour de pilote (DUD) et pour éviter que les pilotes intégrés ne chargent, suivez la procédure suivante : a. Modifiez le fichier /etc/default/grub pour inclure la commande suivante : BOOT_IMAGE=/boot/x86_64/loader/linux dud=1 brokenmodules=qed,qedi,qedf linuxrc.debug=1 b. Modifiez le fichier dud.config sur la DUD et ajoutez la commande suivante pour effacer la liste de modules corrompus : brokenmodules=-qed,qedi,qedf brokenmodules=dummy_xxx 12. Redémarrez le système. Le système d'exploitation devrait maintenant démarrer via l'interface de déchargement. Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Pour installer RHEL 7.4 et version ultérieure : 1. Démarrez à partir du support d'installation de RHEL 7.x avec la cible iSCSI déjà connectée dans UEFI. Installez Red Hat Enterprise Linux 7.x Testez ce support et installez Red Hat Enterprise 7.x Dépannage --> Utilisez les touches HAUT et BAS pour changer la sélection 166 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures Appuyez sur ‘e’ pour modifier l'élément sélectionné ou sur ‘c’ pour une invite de commande 2. Pour installer un pilote non préinstallé, saisissez e. Sinon, passez à l'étape 7. 3. Sélectionnez la ligne de noyau, puis saisissez e. 4. Utilisez la commande suivante, puis appuyez sur ENTRÉE. linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf Vous pouvez utiliser l'option inst.dd au lieu de linux dd. 5. Le processus d'installation vous invite à installer le pilote non préinstallé de façon indiquée dans l'exemple de la Figure 9-24. Figure 9-24. Invite pour installation non préinstallée 167 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures 6. Si votre configuration l'exige, chargez le disque de mise à jour de pilote FastLinQ lorsque vous êtes invité à introduire des disques de pilote supplémentaires. Autrement, saisissez c si vous n'avez pas d'autres disques de mise à jour de pilote à installer. 7. Poursuivez l'installation. Vous pouvez ignorer le test de support. Cliquez sur Suivant pour poursuivre l'installation. 8. Dans la fenêtre de Configuration (Figure 9-25), sélectionnez la langue à utiliser pendant le processus d'installation, et cliquez ensuite sur Continuer. Figure 9-25. Configuration de Red Hat Enterprise Linux 7.4 9. Dans la fenêtre Récapitulatif de l'installation, cliquez sur Destination d'installation. L'étiquette du disque est sda, ce qui indique une installation à chemin d'accès unique. Si vous avez configuré le multichemin, le disque a une étiquette de mappeur de périphérique. 10. Dans la section Disques spécialisés et réseau, sélectionnez le numéro d'unité logique iSCSI. 11. Saisissez le mot de passe d'utilisateur racine, et cliquez ensuite sur Suivant pour achever l'installation. 12. Pendant le premier démarrage, ajoutez la ligne de commande de noyau suivante : rd.iscsi.firmware rd.break=pre-pivot rd.driver.pre=qed,qede, qedr,qedf,qedi selinux=0 13. Entrez les commandes suivantes : # umount /sysroot/boot/efi # umount /sysroot/boot/ # umount /sysroot/home/ # umount /sysroot # mount /dev/mapper/rhel-root /sysroot 168 AH0054602-02 F 9–Configuration iSCSI Configuration du démarrage iSCSI à partir du SAN pour RHEL 7.4 et les versions ultérieures 14. Modifiez le fichier /sysroot/usr/libexec/iscsi-mark-root-nodes et trouvez l’élément suivant : if [ "$transport" = bnx2i ]; then Remplacez-le par : if [ "$transport" = bnx2i ] || [ "$transport" = qedi ]; then 15. Démontez le système de fichiers à l'aide de la commande suivante : # umount /sysroot 16. Redémarrez le serveur, puis ajoutez les paramètres suivants dans la ligne de commande : rd.iscsi.firmware rd.driver.pre=qed,qedi (pour charger tous les pilotes pre=qed,qedi,qedi,qedf) selinux=0 17. Une fois le système correctement redémarré, modifiez le fichier /etc/modprobe.d/anaconda-blacklist.conf pour retirer le pilote sélectionné de la blacklist. 18. Recréez le ramdisk en émettant la commande dracut -f, puis redémarrez. 169 AH0054602-02 F 10 Configuration de FCoE Ce chapitre fournit les informations de configuration suivantes de Fibre Channel over Ethernet (FCoE) : Démarrage FCoE à partir de SAN « Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows » à la page 178 « Configuration du déchargement FCoE pour Linux » à la page 179 « Différences entre qedf et bnx2fc » à la page 180 « Configuration de qedi.ko » à la page 180 « Vérification des périphériques FCoE sous Linux » à la page 181 « Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures » à la page 182 REMARQUE Le déchargement FCoE est pris en charge sur tous les Adaptateurs série 41xxx. Certaines fonctionnalités FCoE peuvent ne pas être entièrement activées dans la version actuelle. Pour en savoir plus, reportez-vous à la section « Annexe D Contraintes en matière de fonctionnalités ». Démarrage FCoE à partir de SAN Cette section décrit les procédures d'installation et de démarrage des systèmes d'exploitation Windows, Linux et ESXi, y compris : Préparation du BIOS système pour la version de FCoE et le démarrage Démarrage FCoE à partir de SAN pour Windows REMARQUE Le démarrage FCoE à partir de SAN est pris en charge sur ESXi 5.5 et versions ultérieures. Toutes les versions de l'adaptateur ne prennent pas en charge FCoE et le démarrage FCoE à partir de SAN. 170 AH0054602-02 F 10–Configuration de FCoE Démarrage FCoE à partir de SAN Préparation du BIOS système pour la version de FCoE et le démarrage Pour préparer le BIOS du système, modifiez la séquence de démarrage du système et spécifiez le protocole de démarrage du BIOS, si nécessaire. Spécification du protocole de démarrage du BIOS Le démarrage FCoE à partir de SAN est pris en charge uniquement dans le mode UEFI. Configurez la plateforme dans le mode (protocole) de démarrage à l'aide de la configuration du BIOS du système sur UEFI. REMARQUE Le démarrage FCoE à partir de SAN n'est pas pris en charge dans le mode BIOS hérité. Configuration du mode de démarrage UEFI de l'adaptateur Pour configurer le mode de démarrage sur FCoE : 1. Redémarrez votre système. 2. Appuyez sur la touche d'accès rapide OEM pour accéder à la configuration du système (Figure 10-1). On l'appelle aussi HII UEFI. Figure 10-1. Configuration du système : Sélection des paramètres de périphérique 171 AH0054602-02 F 10–Configuration de FCoE Démarrage FCoE à partir de SAN REMARQUE Le démarrage SAN est pris en charge uniquement dans l'environnement UEFI. Assurez-vous que l'option de démarrage du système est UEFI et non le BIOS hérité. 3. Sur la page Paramètres de périphérique, sélectionnez le périphérique QLogic (Figure 10-2). Figure 10-2. Configuration du système : Paramètres de périphérique, Sélection du port 172 AH0054602-02 F 10–Configuration de FCoE Démarrage FCoE à partir de SAN 4. Sur la page de configuration principale, sélectionnez Configuration NIC (Figure 10-3), et appuyez sur ENTRÉE. Figure 10-3. Configuration du système : Configuration NIC 5. Sur la page de configuration NIC, sélectionnez Mode de démarrage, et appuyez sur ENTRÉE pour sélectionner FCoE comme mode de démarrage préféré. REMARQUE FCoE ne figure pas comme option de démarrage si la fonction Mode FCoE est désactivée au niveau du port. Si le Mode de démarrage préféré est FCoE, assurez-vous que la fonction Mode FCoE est activée comme indiqué à la Figure 10-4. Toutes les versions de l'adaptateur ne sont pas compatibles avec FCoE. 173 AH0054602-02 F 10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-4. Configuration du système : Mode FCoE activé Pour configurer les paramètres de démarrage FCoE : 1. Sur la page de configuration principale HII du périphérique, sélectionnez Configuration FCoE, et appuyez sur ENTRÉE. 2. Sur la page de configuration FCoE, sélectionnez Paramètres généraux FCoE, et appuyez sur ENTRÉE. 3. Sur la page des paramètres généraux FCoE (Figure 10-5), appuyez sur les touches FLÈCHE VERS LE HAUT et FLÈCHE VERS LE BAS pour sélectionner un paramètre, puis appuyez sur ENTRÉE pour sélectionner et saisir les valeurs suivantes : Nombre de tentatives de détection de structure : Valeur par défaut ou selon les besoins Nombre de tentatives pour un LUN occupé : Valeur par défaut ou selon les besoins 174 AH0054602-02 F 10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-5. Configuration du système : Paramètres généraux FCoE 4. Retournez à la page Configuration FCoE. 5. Appuyez sur ÉCHAP et sélectionnez Paramètres de cible FCoE. 6. Appuyez sur ENTRÉE. 7. Dans le menu Paramètres de cible FCoE, activez Connexion à la cible FCoE préférée. 8. Entrez les valeurs des paramètres suivants (Figure 10-6) de la cible iSCSI, puis appuyez sur ENTRÉE : Nom universel de port (WWPN) de cible n LUN de démarrage n Où la valeur de n est comprise entre 1 et 8, ce qui vous permet de configurer 8 cibles FCoE. 175 AH0054602-02 F 10–Configuration de FCoE Démarrage FCoE à partir de SAN Figure 10-6. Configuration du système : Paramètres généraux FCoE Démarrage FCoE à partir de SAN pour Windows Les informations du démarrage FCoE à partir SAN pour Windows comprennent : Installation du démarrage FCoE Windows Server 2012 R2 et 2016 Configuration de FCoE Vidage sur incident FCoE Installation du démarrage FCoE Windows Server 2012 R2 et 2016 Pour l'installation du démarrage à partir de SAN sous Windows Server 2012R2/2016, QLogic nécessite l'utilisation d'un DVD intégré ou d'une image ISO, avec les pilotes QLogic les plus récents injectés. Voir « Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows » à la page 178. La procédure suivante prépare l'image pour l'installation et le démarrage dans le mode FCoE : Pour configurer le démarrage FCoE pour Windows Server 2012R2/2016 : 1. Supprimez tous les disques durs locaux du système à démarrer (système distant). 2. Préparez le support d'installation du système d'exploitation Windows en suivant les étapes d'intégration de la section « Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows » à la page 178. 176 AH0054602-02 F 10–Configuration de FCoE Démarrage FCoE à partir de SAN 3. Chargez les images de démarrage FCoE QLogic les plus récentes dans la NVRAM de l'adaptateur. 4. Configurez la cible FCoE de sorte à autoriser une connexion depuis le périphérique distant. Assurez-vous que l'espace disque soit suffisant sur la cible pour contenir l'installation du nouveau système d'exploitation. 5. Configurez l'HII UEFI pour définir le type de démarrage FCoE sur le port de l'adaptateur requis, l'initiateur correct et les paramètres de cible pour le démarrage FCoE. 6. Enregistrez les paramètres et redémarrez le système. Le système distant devrait se connecter à la cible FCoE puis démarrer depuis le périphérique DVD-ROM. 7. Démarrez depuis le DVD et commencez l'installation. 8. Suivez les instructions à l'écran. 9. Sur la fenêtre qui affiche la liste des disques disponibles pour l'installation, le disque de la cible FCoE devrait être visible. Il s'agit d'un disque connecté via le protocole de démarrage FCoE, situé sur la cible FCoE distante. 10. Pour poursuivre l'installation sous Windows Server 2012R2/2016, sélectionnez Suivant, et suivez les instructions à l'écran. Le serveur effectue un redémarrage à plusieurs reprises dans le cadre du processus d'installation. 11. Après le démarrage du serveur sur le SE, exécutez le programme d'installation des pilotes pour effectuer l'installation des pilotes QLogic et de l'application. Configuration de FCoE Par défaut, DCB est activé sur les C-NIC compatibles DCB et FCoE pour QLogic 41xxx. FCoE pour QLogic 41xxx nécessite une interface avec DCB activé. Pour les systèmes d'exploitation Windows, utilisez l'interface graphique QCC ou un utilitaire de la ligne de commande pour configurer les paramètres DCB. Vidage sur incident FCoE La fonctionnalité de vidage sur incident est actuellement prise en charge pour le démarrage FCoE pour les Adaptateurs série 41xxx FastLinQ. Aucune configuration supplémentaire n'est requise pour la génération du vidage sur incident FCoE en mode de démarrage FCoE. 177 AH0054602-02 F 10–Configuration de FCoE Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows Injection (intégration) de pilotes de l'adaptateur dans les fichiers image Windows Pour injecter des pilotes de l'adaptateur dans les fichiers image Windows : 1. Procurez-vous le paquet de pilotes le plus récent pour la version Windows Server applicable (2012, 2012 R2 ou 2016). 2. Extrayez le paquet de pilotes dans un répertoire de travail : a. Ouvrez une session de ligne de commande et accédez au dossier contenant le paquet de pilotes. b. Pour démarrer le programme d'installation des pilotes, entrez la commande suivante : setup.exe /a c. Dans le champ Network location, entrez le chemin du dossier dans lequel extraire le pilote de pilotes. Par exemple, entrez c:\temp. d. Suivez les instructions d'installation des pilotes pour installer les pilotes dans le dossier spécifié. Dans cet exemple, les fichiers des pilotes sont installés ici : c:\temp\Program File 64\QLogic Corporation\QDrivers 3. Téléchargez le Kit de déploiement et d’évaluation Windows (ADK) version 10 de Microsoft : https://developer.microsoft.com/en-us/windows/hardware/ windows-assessment-deployment-kit 4. Ouvrez une session de ligne de commande (avec privilège d'administrateur) et naviguez sur le CD de la version jusqu'au dossier Tools\Slipstream. 5. Localisez le fichier de script slipstream.bat, puis entrez la commande suivante : slipstream.bat <path> Où <path> est le lecteur et le sous-dossier que vous avez spécifiés à l'étape 2. Par exemple : slipstream.bat "c:\temp\Program Files 64\QLogic Corporation\QDrivers" 178 AH0054602-02 F 10–Configuration de FCoE Configuration du déchargement FCoE pour Linux REMARQUE Notez ce qui suit concernant le support d'installation du système d'exploitation : Le support d'installation du système d'exploitation devrait être un lecteur local. Les chemins réseau des supports d'installation du système d'exploitation ne sont pas pris en charge. Le script slipstream.bat injecte les composants de pilote dans tous les SKU pris en charge par le support d'installation du système d'exploitation. 6. Gravez un DVD contenant le fichier image ISO des pilotes résultant situé dans le répertoire de travail. 7. Installez le système d'exploitation Windows Server à l'aide du nouveau DVD. Configuration du déchargement FCoE pour Linux Le logiciel FCoE Cavium FastLinQ Adaptateur série 41xxx se compose d'un module de noyau unique appelé qedf.ko (qedf). Le module qedf dépend de parties supplémentaires du noyau Linux pour des fonctionnalités spécifiques : qed.ko est le module de noyau eCore Linux utilisé pour les routines courantes d'initialisation matérielle Cavium FastLinQ 41xxx. libfcoe.ko est la bibliothèque de noyau FCoE Linux nécessaire pour effectuer la sollicitation de redirecteur FCoE (FCoE Forwarder – FCF) et la connexion de structure (Fabric Login – FLOGI) de protocole d'initialisation FCoE (FCoE Initialization Protocol – FIP). libfc.ko est la bibliothèque du noyau FC Linux nécessaire à plusieurs fonctions, y compris : Connexion et enregistrement de nom de serveur Gestion de session rport scsi_transport_fc.ko est la bibliothèque de transport SCSI FC Linux utilisée pour la gestion de port distant et de cible SCSI. Ces modules doivent être chargés pour que qedf soit fonctionnel, sinon des erreurs du type « Symbole non résolu » peuvent se produire. Si le module qedf est installé dans le chemin de mise à jour de distribution, les modules requis sont automatiquement chargés par modprobe. Les Adaptateurs Cavium série 41xxx prennent en charge le déchargement FCoE. 179 AH0054602-02 F 10–Configuration de FCoE Différences entre qedf et bnx2fc REMARQUE En cas d’installation avec SLES 11 ou SLES 12, le paramètre withfcoe=1 n’est pas requis car l’Adaptateur série 41xxx ne requiert plus le démon logiciel FCoE. Différences entre qedf et bnx2fc Il existe des différences significatives entre qedf – le pilote du Cavium FastLinQ 41xxx 10/25GbE Controller (FCoE) – et le pilote de déchargement FCoE Cavium précédent, bnx2fc. Les voici : qedf se lie directement à une fonction PCI exposée par le CNA. qedf n'a pas besoin des outils d'espace utilisateur open-fcoe (fipvlan, fcoemon, fcoeadm) pour lancer la détection. qedf émet directement des requêtes FIP VLAN et n'a pas besoin de l'utilitaire fipvlan. qedf n'a pas besoin d'une interface FCoE créée par fipvlan pour fcoemon. qedf ne repose pas au-dessus du net_device. qedf ne dépend pas de pilotes réseau (tels que bnx2x et cnic). qedf lance automatiquement la détection FCoE lorsque la liaison est établie (car il ne dépend pas de fipvlan ou fcoemon pour la création de l'interface FCoE). REMARQUE Les interfaces FCoE ne se trouvent plus sur le dessus de l’interface réseau. Le pilote qedf crée automatiquement des interfaces FCoE distinctes de l’interface réseau. En conséquence, les interfaces FCoE n’apparaissent pas dans la boîte de dialogue Interface FCoE dans le programme d’installation. Les disques apparaissent automatiquement en tant que disques SCSI, ce qui constitue un fonctionnement similaire à celui des pilotes Fibre Channel. Configuration de qedi.ko Aucune configuration explicite n'est requise pour qedf.ko. Le pilote se lie automatiquement aux fonctions FCoE exposées du CNA et commence la détection. Cette fonctionnalité est similaire à la fonctionnalité et au fonctionnement du pilote FC de QLogic, qla2xx, contrairement à l'ancien pilote bnx2fc. 180 AH0054602-02 F 10–Configuration de FCoE Vérification des périphériques FCoE sous Linux REMARQUE Reportez-vous au Chapitre 3 Installation des pilotes pour plus de renseignements sur l'installation des pilotes FastLinQ. Le chargement du module du noyau qedf.ko effectue les actions suivantes : # modprobe qed # modprobe libfcoe # modprobe qedf Vérification des périphériques FCoE sous Linux Suivez ces étapes pour vérifier que les périphériques FCoE ont été détectés correctement après l'installation et le chargement du module du noyau qedf. Pour vérifier les périphériques FCoE sous Linux : 1. Vérifiez lsmod pour s'assurer que le qedf et les modules du noyau associés ont été chargés : # lsmod | grep qedf 69632 1 qedf libfc 143360 2 qedf,libfcoe scsi_transport_fc 65536 2 qedf,libfc qed 806912 1 qedf scsi_mod 262144 14 sg,hpsa,qedf,scsi_dh_alua,scsi_dh_rdac,dm_multipath,scsi_transport_fc, scsi_transport_sas,libfc,scsi_transport_iscsi,scsi_dh_emc,libata,sd_mod,sr_mod 2. Vérifiez dmesg pour vous assurer que les périphériques FCoE ont été correctement détectés. Dans cet exemple, les deux périphériques CNA FCoE détectés sont les numéros d'hôte SCSI 4 et 5. # dmesg | grep qedf [ 235.321185] [0000:00:00.0]: [qedf_init:3728]: QLogic FCoE Offload Driver v8.18.8.0. .... [ 235.322253] [0000:21:00.2]: [__qedf_probe:3142]:4: QLogic FastLinQ FCoE Module qedf 8.18.8.0, FW 8.18.10.0 [ 235.606443] scsi host4: qedf .... [ 235.624337] [0000:21:00.3]: [__qedf_probe:3142]:5: QLogic FastLinQ FCoE Module qedf 8.18.8.0, FW 8.18.10.0 [ 235.886681] scsi host5: qedf .... 181 AH0054602-02 F 10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures [ 243.991851] [0000:21:00.3]: [qedf_link_update:489]:5: LINK UP (40 GB/s). 3. Vérifiez les périphériques FCoE détectés à l'aide de lsblk -S : # lsblk -S NAME HCTL sdb 5:0:0:0 sdc 5:0:0:1 sdd 5:0:0:2 sde 5:0:0:3 sdf 5:0:0:4 sdg 5:0:0:5 sdh 5:0:0:6 sdi 5:0:0:7 sdj 5:0:0:8 sdk 5:0:0:9 TYPE disk disk disk disk disk disk disk disk disk disk VENDOR SANBlaze SANBlaze SANBlaze SANBlaze SANBlaze SANBlaze SANBlaze SANBlaze SANBlaze SANBlaze MODEL VLUN P2T1L0 VLUN P2T1L1 VLUN P2T1L2 VLUN P2T1L3 VLUN P2T1L4 VLUN P2T1L5 VLUN P2T1L6 VLUN P2T1L7 VLUN P2T1L8 VLUN P2T1L9 REV TRAN V7.3 fc V7.3 fc V7.3 fc V7.3 fc V7.3 fc V7.3 fc V7.3 fc V7.3 fc V7.3 fc V7.3 fc Les informations de configuration de l'hôte se trouvent dans /sys/class/fc_host/hostX, où X est le numéro de l'hôte SCSI. Dans l'exemple qui précède, X pourrait être égal à 4 ou 5. Le fichier hostX contient les attributs pour la fonction FCoE, tels que le nom universel de port et l'ID de matrice. Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures Pour installer RHEL 7.4 et version ultérieure : 1. Démarrez à partir du support d'installation de RHEL 7.x avec la cible FCoE déjà connectée dans UEFI. Installez Red Hat Enterprise Linux 7.x Testez ce support et installez Red Hat Enterprise 7.x Dépannage --> Utilisez les touches HAUT et BAS pour changer la sélection Appuyez sur ‘e’ pour modifier l'élément sélectionné ou sur ‘c’ pour une invite de commande 2. Pour installer un pilote non préinstallé, saisissez e. Sinon, passez à l'étape 7. 3. Sélectionnez la ligne de noyau, puis saisissez e. 182 AH0054602-02 F 10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures 4. Utilisez la commande suivante, puis appuyez sur ENTRÉE. linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf Vous pouvez utiliser l'option inst.dd au lieu de linux dd. 5. Le processus d'installation vous invite à installer le pilote non préinstallé de façon indiquée dans l'exemple de la Figure 10-7. Figure 10-7. Invite pour installation non préinstallée 6. Si votre configuration l'exige, chargez le disque de mise à jour de pilote FastLinQ lorsque vous êtes invité à introduire des disques de pilote supplémentaires. Autrement, saisissez c si vous n'avez pas d'autres disques de mise à jour de pilote à installer. 183 AH0054602-02 F 10–Configuration de FCoE Configuration du démarrage FCoE à partir du SAN pour RHEL 7.4 et les versions ultérieures 7. Poursuivez l'installation. Vous pouvez ignorer le test de support. Cliquez sur Suivant pour poursuivre l'installation. 8. Dans la fenêtre de Configuration (Figure 10-8), sélectionnez la langue à utiliser pendant le processus d'installation, et cliquez ensuite sur Continuer. Figure 10-8. Configuration de Red Hat Enterprise Linux 7.4 9. Dans la fenêtre Récapitulatif de l'installation, cliquez sur Destination d'installation. L'étiquette du disque est sda, ce qui indique une installation à chemin d'accès unique. Si vous avez configuré le multichemin, le disque a une étiquette de mappeur de périphérique. 10. Dans la section Disques spécialisés et réseau, sélectionnez le numéro d'unité logique FCoE. 11. Saisissez le mot de passe d'utilisateur racine, et cliquez ensuite sur Suivant pour achever l'installation. 12. Pendant le premier démarrage, ajoutez la ligne de commande de noyau suivante : rd.driver.pre=qed,qede,qedr,qedf,qedi 13. Une fois le système correctement redémarré, modifiez le fichier /etc/modprobe.d/anaconda-blacklist.conf pour retirer le pilote sélectionné de la blacklist. 14. Recréez le ramdisk en émettant la commande dracut -f, puis redémarrez. REMARQUE Désactivez les services lldpad et fcoe qui sont utilisés pour le FCoE logiciel. S’ils sont actifs, ils risquent de perturber le fonctionnement normal du FCoE de déchargement matériel. 184 AH0054602-02 F 11 Configuration de SR-IOV Single Root Input/Output Virtualization (SR-IOV) est une spécification de PCI-SIG qui permet à un seul périphérique PCI Express (PCIe) d'apparaître sous la forme de plusieurs périphériques PCIe physiques distincts. SR-IOV permet d'isoler les ressources PCIe à des fins de performance, d'interopérabilité et de gestion. REMARQUE Certaines fonctionnalités SR-IOV peuvent ne pas être entièrement activées dans la version actuelle. Ce chapitre fournit des instructions concernant : Configuration de SR-IOV sous Windows « Configuration de SR-IOV sous Linux » à la page 192 « Configuration de SR-IOV sous VMware » à la page 198 Configuration de SR-IOV sous Windows Pour configurer SR-IOV sous Windows : 1. Accédez à la configuration système du BIOS du serveur, puis cliquez sur Paramètres BIOS système. 2. Sur la page Paramètres BIOS système, cliquez sur Périphériques intégrés. 185 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows 3. Sur la page Périphériques intégrés (Figure 11-1) : a. Définissez l'option Activation globale SR-IOV sur Activé. b. Cliquez sur Précédent. Figure 11-1. Configuration système pour SR-IOV : Périphériques intégrés 4. Sur la page de configuration principale de l'adaptateur sélectionné, cliquez sur Configuration au niveau du périphérique. 5. Sur la page de configuration principale – Configuration au niveau du périphérique (Figure 11-2) : a. Définissez le mode de virtualisation sur SR-IOV ou NPAR+SR-IOV si vous utilisez le mode NPAR. b. Cliquez sur Précédent. Figure 11-2. Configuration système pour SR-IOV : Configuration au niveau du périphérique 186 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows 6. Sur la page de configuration principale, cliquez sur Terminer. 7. Dans la boîte de dialogue Avertissement – Enregistrement des modifications, cliquez sur Oui pour enregistrer la configuration. 8. Dans la boîte de dialogue Succès – Enregistrement des modifications, cliquez sur OK. 9. Pour activer SR-IOV sur l'adaptateur miniport : a. Accédez au Gestionnaire de périphériques. b. Ouvrez les propriétés de l'adaptateur miniport, puis cliquez sur l'onglet Avancé. c. Sur la page Propriétés avancées (Figure 11-3) sous Propriété, sélectionnez SR-IOV, puis définissez la valeur sur Activé. d. Cliquez sur OK. Figure 11-3. Propriétés de l'adaptateur, Avancées : Activation de SR-IOV 10. Pour créer un commutateur de machine virtuelle avec SR-IOV (Figure 11-4 à la page 188) : a. Lancez le Gestionnaire Hyper-V. b. Sélectionnez Gestionnaire de commutateur virtuel. c. Dans la zone Nom, entrez un nom pour le commutateur virtuel. d. Sous Type de connexion, sélectionnez Réseau externe. 187 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows e. Cochez la case Activer single-root I/O virtualization (SR-IOV), et cliquez ensuite sur Appliquer. REMARQUE Veillez à activer SR-IOV lorsque vous créez le vSwitch. Cette option n'est pas disponible après que le vSwitch est créé. Figure 11-4. Gestionnaire de commutateur virtuel : Activation de SR-IOV f. La boîte de dialogue Appliquer les modifications réseau vous indique que les modifications en attente peuvent perturber la connectivité réseau. Pour enregistrer vos modifications et continuer, cliquez sur Oui. 188 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows 11. Pour obtenir les capacités de commutateur de machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl La sortie de la commande Get-VMSwitch comprend les capacités SR-IOV suivantes : 12. IovVirtualFunctionCount : 96 IovVirtualFunctionsInUse : 1 Pour créer une machine virtuelle (VM) et exporter la fonction virtuelle (VF) dans la VM : a. Créez une machine virtuelle. b. Ajoutez le VMNetworkadapter à la machine virtuelle. c. Affectez un commutateur virtuel au VMNetworkadapter. d. Dans la boîte de dialogue VM <nom de VM> (Figure 11-5), page Accélération matérielle, sous Single-root I/O virtualization, cochez la case Activer SR-IOV, et cliquez ensuite sur OK. REMARQUE Après que la connexion de l'adaptateur virtuel est créée, le paramètre SR-IOV peut être activé ou désactivé à n'importe quel moment (même pendant l'exécution du trafic). 189 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Figure 11-5. Paramètres de la VM : Activation de SR-IOV 13. Installez les pilotes QLogic pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés). REMARQUE Veillez à utiliser le même jeu de pilotes sur la VM et sur le système hôte. Par exemple, utilisez la même version de pilote qeVBD et qeND sur la VM Windows et dans l'hôte Hyper-V Windows. 190 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Windows Après l'installation des pilotes, l'adaptateur QLogic est répertorié dans la VM. La Figure 11-6 montre un exemple. Figure 11-6. Gestion de périphériques : VM avec adaptateur QLogic 14. Pour afficher les détails de VF pour SR-IOV, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-NetadapterSriovVf La Figure 11-7 montre un exemple de sortie. Figure 11-7. Commande Windows PowerShell : Get-NetadapterSriovVf 191 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Configuration de SR-IOV sous Linux Pour configurer SR-IOV sous Linux : 1. Accédez à la configuration système du BIOS du serveur, puis cliquez sur Paramètres BIOS système. 2. Sur la page Paramètres BIOS système, cliquez sur Périphériques intégrés. 3. Sur la page Périphériques intégrés du système (voir Figure 11-1 à la page 186) : a. Définissez l'option Activation globale SR-IOV sur Activé. b. Cliquez sur Précédent. 4. Sur la page Paramètres BIOS système, cliquez sur Paramètres du processeur. 5. Sur la page Paramètres du processeur (Figure 11-8) : a. Définissez l'option Technologie de virtualisation sur Activé. b. Cliquez sur Précédent. Figure 11-8. Configuration du système : Paramètres du processeur pour SR-IOV 192 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux 6. Sur la page Configuration système, sélectionnez Paramètres de périphérique. 7. Sur la page Paramètres de périphérique, sélectionnez le Port 1 de l'adaptateur QLogic. 8. Sur la page Configuration au niveau du périphérique (Figure 11-9) : a. Définissez le Mode de virtualisation sur SR-IOV. b. Cliquez sur Précédent. Figure 11-9. Configuration système pour SR-IOV : Périphériques intégrés 9. Sur la page de configuration principale, cliquez sur Terminer, enregistrez vos paramètres, puis redémarrez le système. 10. Pour activer et vérifier la virtualisation : a. Ouvrez le fichier grub.conf et configurez le paramètre iommu de la façon indiquée dans la Figure 11-10. Pour systèmes basés sur Intel, ajoutez intel_iommu=on. Pour systèmes basés sur AMD, ajoutez amd_iommu=on. 193 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Figure 11-10. Modification du fichier grub.conf pour SR-IOV b. Enregistrez le fichier grub.conf et redémarrez le système. c. Pour vérifier que les modifications ont été appliquées, entrez la commande suivante : dmesg | grep -I iommu Une sortie réussie de la commande input–output memory management unit (IOMMU) devrait afficher, par exemple : Intel-IOMMU: enabled d. Pour afficher les détails de VF (nombre de VF et total de VF), émettez la commande suivante : find /sys/|grep -I sriov 194 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux 11. Pour un port spécifique, activez une quantité de VF. a. Entrez la commande suivante pour activer, par exemple, 8 VF sur l'instance PCI 04 :00.0 (bus 4, périphérique 0, fonction 0) : [root@ah-rh68 ~]# echo 8 > /sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs b. Vérifiez la sortie de la commande (Figure 11-11) pour confirmer que des VF réelles ont été créées sur le bus 4, périphérique 2 (à partir du paramètre 0000:00:02.0), fonctions 0 à 7. Notez que l'ID réelle de périphérique est différente sur les PF (8070 dans cet exemple) par rapport aux VF (9090 dans cet exemple). Figure 11-11. Sortie de commande pour sriov_numvfs 12. Pour afficher une liste des interfaces PF et VF, entrez la commande suivante : # ip link show | grep -i vf -b2 La Figure 11-12 montre un exemple de sortie. 195 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux Figure 11-12. Sortie de la commande ip link show 13. Attribuez et vérifiez les adresses MAC : a. Pour attribuer une adresse MAC à la VF, entrez la commande suivante : ip link set <pf device> vf <vf index> mac <mac address> b. Assurez-vous que l'interface VF est opérationnelle et exécutée avec l'adresse MAC attribuée. 196 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous Linux 14. Éteignez la VM et attachez la VF. (Certains systèmes d'exploitation prennent en charge la connexion à chaud de VF à la VM). a. Dans la boîte de dialogue Machine virtuelle (Figure 11-13), cliquez sur Ajouter un matériel. Figure 11-13. Machine virtuelle RHEL68 b. Dans le volet gauche de la boîte de dialogue Ajouter un nouveau matériel virtuel (Figure 11-14), cliquez sur Périphérique hôte PCI. c. Dans le volet droit, sélectionnez un périphérique hôte. 197 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous VMware d. Cliquez sur Terminer. Figure 11-14. Ajouter un nouveau matériel virtuel 15. Allumez la VM et entrez la commande suivante : check lspci -vv|grep -I ether 16. Installez les pilotes pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés). La même version de pilote doit être installée sur l'hôte et la machine virtuelle. 17. Au besoin, ajoutez plus de VF dans la VM. Configuration de SR-IOV sous VMware Pour configurer SR-IOV sous VMware : 1. Accédez à la configuration système du BIOS du serveur, puis cliquez sur Paramètres BIOS système. 2. Sur la page Paramètres BIOS système, cliquez sur Périphériques intégrés. 3. Sur la page Périphériques intégrés du système (voir Figure 11-1 à la page 186) : a. Définissez l'option Activation globale SR-IOV sur Activé. b. Cliquez sur Précédent. 4. Dans la fenêtre Configuration système, cliquez sur Paramètres de périphérique. 5. Sur la page Paramètres de périphérique, sélectionnez un port pour l'Adaptateur série 41xxx 25G. 198 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous VMware 6. Sur la page Configuration au niveau du périphérique (voir Figure 11-2 à la page 186) : a. Définissez le Mode de virtualisation sur SR-IOV. b. Cliquez sur Précédent. 7. Sur la page de configuration principale, cliquez sur Terminer. 8. Enregistrez les paramètres de configuration et redémarrez le système. 9. Pour activer la quantité nécessaire de VF par port (dans cet exemple, 16 sur chaque port d'un adaptateur double port), entrez la commande suivante : "esxcfg-module -s "max_vfs=16,16" qedentv" REMARQUE Chaque fonction Ethernet de l'Adaptateur série 41xxx doit avoir sa propre entrée. 10. Redémarrez l'hôte. 11. Pour vérifier que les modifications ont été appliquées au niveau du module, entrez la commande suivante : "esxcfg-module -g qedentv" [root@localhost:~] esxcfg-module -g qedentv qedentv enabled = 1 options = 'max_vfs=16,16' 12. Pour vérifier que les VF ont été vraiment créées, entrez la commande lspci comme suit : [root@localhost:~] lspci | grep -i QLogic | grep -i 'ethernet\|network' | more 0000:05:00.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx 10/25 GbE Ethernet Adapter [vmnic6] 0000:05:00.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx 10/25 GbE Ethernet Adapter [vmnic7] 0000:05:02.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_0] 0000:05:02.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_1] 0000:05:02.2 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_2] 0000:05:02.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xQL41xxxxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_3] . . . 199 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous VMware 0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15] 0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0] 0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1] 0000:05:0e.2 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_2] 0000:05:0e.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_3] . . . 0000:05:0f.6 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_14] 0000:05:0f.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_15] 13. 14. Joignez les VF à la VM comme suit : a. Éteignez la VM et attachez la VF. (Certains systèmes d'exploitation prennent en charge la connexion à chaud de VF à la VM). b. Ajoutez un hôte à une VMware vCenter Server Virtual Appliance (vCSA). c. Cliquez sur Modifier les paramètres de la VM. Complétez la boîte de dialogue Modifier les paramètres (Figure 11-15) comme suit : a. Dans la zone Nouveau périphérique, sélectionnez Réseau, puis cliquez sur Ajouter. b. Pour le Type d'adaptateur, sélectionnez Relais SR-IOV. c. Pour la Fonction physique, sélectionnez la VF QLogic. d. Pour enregistrer vos modifications de configuration et fermer cette boîte de dialogue, cliquez sur OK. 200 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous VMware Figure 11-15. Paramètres de modification de l'hôte VMware 15. Pour valider les VF par port, entrez la commande esxcli comme suit : [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID ----- ------ ----------- -------------- 0 true 005:02.0 60591 1 true 005:02.1 60591 201 AH0054602-02 F 11–Configuration de SR-IOV Configuration de SR-IOV sous VMware 2 false 005:02.2 - 3 false 005:02.3 - 4 false 005:02.4 - 5 false 005:02.5 - 6 false 005:02.6 - 7 false 005:02.7 - 8 false 005:03.0 - 9 false 005:03.1 - 10 false 005:03.2 - 11 false 005:03.3 - 12 false 005:03.4 - 13 false 005:03.5 - 14 false 005:03.6 - 15 false 005:03.7 - 16. Installez les pilotes QLogic pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés). La même version de pilote doit être installée sur l'hôte et la machine virtuelle. 17. Allumez la VM, puis entrez la commande ifconfig -a pour vérifier que l'interface réseau ajoutée est répertoriée. 18. Au besoin, ajoutez plus de VF dans la VM. 202 AH0054602-02 F 12 Configuration de NVMe-oF avec RDMA Le protocole Non-Volatile Memory Express over Fabrics (NVMe-oF) permet d'utiliser des transports alternatifs vers PCIe pour étendre la distance sur laquelle peuvent se connecter un périphérique hôte NVMe et un lecteur ou sous-système de stockage NVMe. NVMe-oF définit une architecture commune qui prend en charge une gamme de matrices réseau de stockage pour le protocole de stockage de blocs NVMe sur une matrice réseau de stockage. Cette architecture inclut l'activation d'une interface frontale en systèmes de stockage, la montée en charge vers de grandes quantités de périphériques NVMe, et l'extension de la distance au sein d'un centre de données sur laquelle il est possible d'accéder aux périphériques NVMe et aux sous-systèmes NVMe. Les procédures et options de configuration de NVMe-oF décrites dans ce chapitre s’appliquent aux protocoles RDMA basés sur Ethernet, RoCE et iWARP inclus. Le développement de NVMe-oF avec RDMA est défini par un sous-groupe technique de l'organisation NVMe. Ce chapitre montre comment configurer NVMe-oF pour un réseau simple. L'exemple de réseau comprend les éléments suivants : Deux serveurs : un initiateur et une cible. Le serveur cible est équipé d'un lecteur SSD PCIe. Système d'exploitation : RHEL 7.4 ou SLES 12 SP3 sur les deux serveurs Deux adaptateurs : Un Adaptateur série 41xxx installé dans chaque serveur. Chaque port peut être configuré individuellement pour utiliser RoCE, RoCEv2 ou iWARP en tant que protocole RDMA sur lequel NVMe-oF s’exécute. Pour RoCE et RoCEv2, un commutateur en option configuré pour le relais de centre de données (DCB, data center bridging), la politique pertinente de qualité de service (QoS) et les vLAN pour porter la priorité de classe de trafic RoCE/RoCEv2 DCB de NVMe-oF. Le commutateur n’est pas requis lorsque NVMe-oF utilise iWARP. 203 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA La Figure 12-1 illustre un exemple de réseau. Adaptateur série 41xxx Adaptateur série 41xxx Figure 12-1. Réseau NVMe-oF Le processus de configuration de NVMe-oF couvre les procédures suivantes : 1. Installation des pilotes de périphérique sur les deux serveurs 2. Configuration du serveur cible 3. Configuration du serveur initiateur 4. Préconditionnement du serveur cible 5. Test des périphériques NVMe-oF 6. Optimisation des performances 204 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA Installation des pilotes de périphérique sur les deux serveurs Installation des pilotes de périphérique sur les deux serveurs Après installation de votre système d'exploitation (RHEL 7.4 ou SLES 12 SP3), installez les pilotes de périphérique sur les deux serveurs. Pour mettre à jour le noyau vers le tout dernier noyau Linux en amont, accédez à : https://www.kernel.org/pub/linux/kernel/v4.x/ 1. Installez et chargez les pilotes FastLinQ (QED, QEDE, libqedr/QEDR) en suivant toutes les instructions d'installation figurant dans le fichier LISEZMOI. 2. (Facultatif) Si vous avez mis à jour le noyau du système d’exploitation, vous devez réinstaller et charger le dernier pilote comme suit : a. Installez le dernier micrologiciel FastLinQ en respectant toutes les instructions d’installation du fichier LISEZMOI b. Installez les applications et bibliothèques d’assistance RDMA du système d’exploitation en émettant les commandes suivantes : # yum groupinstall "Infiniband Support" # yum install tcl-devel libibverbs-devel libnl-devel glib2-devel libudev-devel lsscsi perftest # yum install gcc make git ctags ncurses ncurses-devel openssl* openssl-devel elfutils-libelf-devel* c. Pour vous assurer que l’assistance OFED NVMe se trouve dans le noyau du système d’exploitation sélectionné, émettez la commande suivante : make menuconfig d. Sous Pilotes de périphérique, vérifiez que les fonctions suivantes sont activées (définies sur M) : NVM Express block devices NVM Express over Fabrics RDMA host driver NVMe Target support NVMe over Fabrics RDMA target support e. (Facultatif) Si les options des Pilotes de périphérique ne sont pas déjà présentes, reconstituez le noyau en émettant les commandes suivantes : # make # make modules # make modules_install # make install 205 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA Configuration du serveur cible f. Si des changements ont été apportés au noyau, redémarrez sur ce nouveau noyau de système d’exploitation. Pour obtenir des instructions sur la configuration du noyau de démarrage par défaut, accédez à : https://wiki.centos.org/HowTos/Grub2 3. Activez et démarrez le service RDMA comme suit : # systemctl enable rdma.service # systemctl start rdma.service Ne tenez pas compte de l'erreur RDMA Service Failed. Tous les modules OFED requis par QEDR sont déjà chargés. Configuration du serveur cible Configurez le serveur cible après le processus de redémarrage. Une fois le serveur en fonctionnement, vous ne pouvez plus modifier la configuration sans redémarrage. Si vous utilisez le script de démarrage pour configurer le serveur cible, pensez à mettre le script en pause (à l’aide de la commande wait ou d'une autre commande similaire) pour avoir la garantie que chaque commande soit terminée avant d’exécuter la commande suivante. Pour configurer le service cible : 1. Chargez les modules cibles. Entrez les commandes suivantes après chaque redémarrage du serveur : # modprobe qedr # modprobe nvmet; modprobe nvmet-rdma # lsmod | grep nvme (confirmez que les modules sont chargés) 2. Créez le sous-système cible Nom qualifié NVMe (NQN) avec le nom indiqué par <nvme-subsystem-name>. Utilisez les spécifications NVMe-oF ; par exemple, nqn.<YEAR>-<Month>.org.<your-company>. # mkdir /sys/kernel/config/nvmet/subsystems/<nvme-subsystem-name> # cd /sys/kernel/config/nvmet/subsystems/<nvme-subsystem-name> 3. Créez plusieurs NQN uniques pour des périphériques NVMe supplémentaires selon le besoin. 4. Définissez les paramètres de cible, de la façon indiquée dans le Tableau 12-1. 206 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA Configuration du serveur cible Tableau 12-1. Paramètres de cible Commande Description # echo 1 > attr_allow_any_host Autoriser n'importe quel hôte à se connecter. # mkdir namespaces/1 Créer un espace de noms # echo -n /dev/nvme0n1 >namespaces/ 1/device_path Définir le chemin d'accès au périphérique NVMe. Le chemin d'accès au périphérique NVMe peut varier d'un système à l'autre. Vérifiez le chemin d'accès au périphérique à l'aide de la commande lsblk. Ce système comporte deux périphériques NVMe : nvme0n1 et nvme1n1. # echo 1 > namespaces/1/enable Activer l'espace de noms. # mkdir /sys/kernel/config/nvmet/ ports/1 Créer le port NVMe 1. # cd /sys/kernel/config/nvmet/ports/1 # echo 1.1.1.1 > addr_traddr Définissez la même adresse IP. Par exemple, 1.1.1.1 est l’adresse IP du port cible du 41xxx Series Adapter. # echo rdma > addr_trtype Définir le type de transport RDMA. # echo 4420 > addr_trsvcid Définissez le numéro du port RDMA. Le numéro de port du connecteur pour NVMe-oF est habituellement 4420. Néanmoins, n’importe quel numéro de port peut être utilisé à condition qu’il soit utilisé avec cohérence tout au long de la configuration. # echo ipv4 > addr_adrfam Définir le type d'adresse IP. 5. Créez une liaison symbolique (symlink) vers le sous-système NQN récemment créé : # ln -s /sys/kernel/config/nvmet/subsystems/ nvme-subsystem-name subsystems/nvme-subsystem-name 6. Procédez comme suit pour confirmer que la cible NVMe écoute sur le port : # dmesg | grep nvmet_rdma [ 8769.470043] nvmet_rdma: enabling port 1 (1.1.1.1:4420) 207 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA Configuration du serveur initiateur Configuration du serveur initiateur Vous configurez le serveur initiateur après le processus de redémarrage. Une fois le serveur en fonctionnement, vous ne pouvez plus modifier la configuration sans redémarrage. Si vous utilisez le script de démarrage pour configurer le serveur initiateur, pensez à mettre en pause le script (à l’aide de la commande wait ou autre commande similaire) pour avoir la garantie que chaque commande soit terminée avant d’exécuter la commande suivante. Pour configurer le serveur initiateur : 1. Chargez les modules NVMe. Entrez ces commandes après chaque redémarrage du serveur : # modprobe qedr # modprobe nvme-rdma 2. Téléchargez, compilez et installez l'utilitaire d'initiateur nvme-cli. Entrez ces commandes à la première configuration — vous n’avez pas besoin d’entrer ces commandes après chaque redémarrage. # git clone https://github.com/linux-nvme/nvme-cli.git # cd nvme-cli # make && make install 3. Vérifiez la version d'installation de la façon suivante : # nvme version 4. Procédez comme suit pour détecter la cible NVMe-oF : # nvme discover -t rdma -a 1.1.1.1 -s 1023 Prenez note du NDN de sous-système (subnqn) de la cible détectée (Figure 12-2) pour l’utiliser à l’étape 5. 208 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA Configuration du serveur initiateur Figure 12-2. NQN de sous-système 5. Connectez la cible NVMe-oF détectée (nvme-qlogic-tgt1) à l'aide de NQN. Entrez la commande suivante après chaque redémarrage du serveur. Par exemple : # nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023 6. Confirmez la connexion de la cible NVMe-oF au périphérique NVMe-oF de la façon suivante : # dmesg | grep nvme # lsblk # list nvme La Figure 12-3 montre un exemple. Figure 12-3. Confirmez la connexion NVMe-oF 209 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA Préconditionnement du serveur cible Préconditionnement du serveur cible Les serveurs cibles NVMe qui sont testés non préinstallés présentent un niveau de performance plus élevé qu'attendu. Avant l'exécution d'une batterie d'essais, le serveur cible doit être prérempli ou préconditionné. Pour préconditionner le serveur cible : 1. Procédez à un effacement sécurisé du serveur cible avec des outils propres au fournisseur (similaire à un formatage). Cet exemple de test utilise un périphérique SSD Intel NVMe, qui exige l'outil Intel Data Center Tool disponible à l'adresse suivante : https://downloadcenter.intel.com/download/23931/Intel-Solid-State-DriveData-Center-Tool 2. Préconditionnez le serveur cible (nvme0n1) avec des données, ce qui garantit que la mémoire disponible est remplie. Cet exemple utilise l'utilitaire disque « DD » : # dd if=/dev/zero bs=1024k of=/dev/nvme0n1 Test des périphériques NVMe-oF Comparez la latence du périphérique NVMe local sur le serveur cible à celle du périphérique NVMe-oF sur le serveur initiateur pour montrer la latence que NVMe ajoute au système. Test du périphérique NVMe-oF : 1. Mettez à jour la source Repository (Repo) et installez l'utilitaire de comparaison de performance Flexible Input/Output (FIO) tant sur le serveur cible que sur les serveurs initiateurs, en émettant les commandes suivantes : # yum install epel-release # yum install fio Figure 12-4. Installation de l'utilitaire FIO 210 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA Optimisation des performances 2. Exécutez l'utilitaire FIO pour mesurer la latence du périphérique NVMe-oF initiateur. Tapez la commande suivante : # fio --filename=/dev/nvme0n1 --direct=1 --time_based --rw=randread --refill_buffers --norandommap --randrepeat=0 --ioengine=libaio --bs=4k --iodepth=1 --numjobs=1 --runtime=60 --group_reporting --name=temp.out FIO indique deux types de latence : soumission et achèvement. La latence de soumission (slat) mesure la latence de l'application au noyau. La latence d'achèvement (clat), mesure la latence du noyau de bout à bout. La méthode acceptée dans l'industrie consiste à lire les percentiles de clat dans la 99,00ème plage. Dans cet exemple, la latence NVMe-oF du périphérique initiateur est de 30 µs. 3. Exécutez FIO pour mesurer la latence du périphérique NVMe local sur le serveur cible. Tapez la commande suivante : # fio --filename=/dev/nvme0n1 --direct=1 --time_based --rw=randread --refill_buffers --norandommap --randrepeat=0 --ioengine=libaio --bs=4k --iodepth=1 --numjobs=1 --runtime=60 --group_reporting --name=temp.out Dans cet exemple, la latence du périphérique NVMe cible est de 8 µs. La latence totale qui résulte de l'utilisation de NVMe-oF est la différence entre la latence NVMe-oF du périphérique initiateur (30 µs) et la latence NVMe-oF du périphérique cible (8 µs), ou 22 µs. 4. Exécutez FIO pour mesurer la largeur de bande du périphérique NVMe local sur le serveur cible. Tapez la commande suivante : fio --verify=crc32 --do_verify=1 --bs=8k --numjobs=1 --iodepth=32 --loops=1 --ioengine=libaio --direct=1 --invalidate=1 --fsync_on_close=1 --randrepeat=1 --norandommap --time_based --runtime=60 --filename=/dev/nvme0n1 --name=Write-BW-to-NVMe-Device --rw=randwrite où --rw peut être randread pour lecture seule, randwrite pour écriture seul, et randrw pour lecture et écriture. Optimisation des performances Pour optimiser les performances du serveur initiateur et du serveur cible : 1. Configurez les paramètres suivants du BIOS du système : Profils d'alimentation = 'Performance max' ou équivalent TOUS les états C = désactivé 211 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA Optimisation des performances 2. Hyperthreading = désactivé Configurez les paramètres du noyau Linux en modifiant le fichier grub (/etc/default/grub). a. Ajoutez les paramètres à la fin de la ligne GRUB_CMDLINE_LINUX : GRUB_CMDLINE_LINUX="nosoftlockup intel_idle.max_cstate=0 processor.max_cstate=1 mce=ignore_ce idle=poll" b. Enregistrez le fichier grub. c. Reconstruisez le fichier grub. Pour reconstruire le fichier grub pour un démarrage de BIOS hérité, entrez la commande suivante : # grub2-mkconfig -o /boot/grub2/grub.cfg (démarrage de BIOS hérité) Pour reconstruire le fichier grub pour un démarrage EFI, entrez la commande suivante : # grub2-mkconfig -o /boot/efi/EFI/<os>/grub.cfg (démarrage EFI) d. 3. Redémarrez le serveur pour mettre en œuvre les modifications. Définissez l'affinité d'IRQ pour tous les Adaptateurs série 41xxx. Le fichier multi_rss-affin.sh est un fichier de script qui est répertorié dans « Affinité .IRQ (multi_rss-affin.sh) » à la page 212. # systemctl stop irqbalance # ./multi_rss-affin.sh eth1 REMARQUE Une version différente de ce script, qedr_affin.sh, se trouve dans le jeu de codes sources Linux 41xxx dans le répertoire \add-ons\performance\roce. Pour obtenir une explication des paramètres d’affinité IRQ, reportez-vous au fichier multiple_irqs.txt dans ce répertoire. 4. Définissez la fréquence de l'UC. Le fichier cpufreq.sh est un script qui est répertorié dans « Fréquence d'UC (cpufreq.sh) » à la page 213. # ./cpufreq.sh Les sections suivantes répertorient les scripts qui sont utilisés dans les étape 3 et 4. Affinité .IRQ (multi_rss-affin.sh) Le script suivant définit l’affinité de l’IRQ. 212 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA Optimisation des performances #!/bin/bash #RSS affinity setup script #input: the device name (ethX) #OFFSET=0 0/1 0/1/2 0/1/2/3 #FACTOR=1 2 3 4 OFFSET=0 FACTOR=1 LASTCPU='cat /proc/cpuinfo | grep processor | tail -n1 | cut -d":" -f2' MAXCPUID='echo 2 $LASTCPU ^ p | dc' OFFSET='echo 2 $OFFSET ^ p | dc' FACTOR='echo 2 $FACTOR ^ p | dc' CPUID=1 for eth in $*; do NUM='grep $eth /proc/interrupts | wc -l' NUM_FP=$((${NUM})) INT='grep -m 1 $eth /proc/interrupts | cut -d ":" -f 1' echo "$eth: ${NUM} (${NUM_FP} fast path) starting irq ${INT}" CPUID=$((CPUID*OFFSET)) for ((A=1; A<=${NUM_FP}; A=${A}+1)) ; do INT='grep -m $A $eth /proc/interrupts | tail -1 | cut -d ":" -f 1' SMP='echo $CPUID 16 o p | dc' echo ${INT} smp affinity set to ${SMP} echo $((${SMP})) > /proc/irq/$((${INT}))/smp_affinity CPUID=$((CPUID*FACTOR)) if [ ${CPUID} -gt ${MAXCPUID} ]; then CPUID=1 CPUID=$((CPUID*OFFSET)) fi done done Fréquence d'UC (cpufreq.sh) Le script suivant définit la fréquence de l'UC. #Usage "./nameofscript.sh" grep -E '^model name|^cpu MHz' /proc/cpuinfo cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor 213 AH0054602-02 F 12–Configuration de NVMe-oF avec RDMA Optimisation des performances for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f $CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor Pour configurer les paramètres de réseau ou de mémoire : sysctl -w net.ipv4.tcp_mem="16777216 16777216 16777216" sysctl -w net.ipv4.tcp_wmem="4096 65536 16777216" sysctl -w net.ipv4.tcp_rmem="4096 87380 16777216" sysctl -w net.core.wmem_max=16777216 sysctl -w net.core.rmem_max=16777216 sysctl -w net.core.wmem_default=16777216 sysctl -w net.core.rmem_default=16777216 sysctl -w net.core.optmem_max=16777216 sysctl -w net.ipv4.tcp_low_latency=1 sysctl -w net.ipv4.tcp_timestamps=0 sysctl -w net.ipv4.tcp_sack=1 sysctl -w net.ipv4.tcp_window_scaling=0 sysctl -w net.ipv4.tcp_adv_win_scale=1 REMARQUE Les commandes suivantes s'appliquent uniquement au serveur initiateur. # echo noop > /sys/block/nvme0n1/queue/scheduler # echo 0 > /sys/block/nvme0n1/queue/add_random # echo 2 > /sys/block/nvme0n1/queue/nomerges 214 AH0054602-02 F 13 Windows Server 2016 Ce chapitre fournit les informations suivantes concernant Windows Server 2016 : Configuration des interfaces RoCE avec Hyper-V « RoCE sur Switch Embedded Teaming » à la page 220 « Configuration de QoS pour RoCE » à la page 222 « Configuration de VMMQ » à la page 229 « Configuration de VXLAN » à la page 236 « Configuration des Espaces de stockage direct » à la page 237 « Déploiement et gestion de Nano Server » à la page 243 Configuration des interfaces RoCE avec Hyper-V Sous Windows Server 2016, Hyper-V avec Network Direct Kernel Provider Interface (NDKPI) Mode-2, les adaptateurs réseau virtuels hôtes (NIC virtuelles hôtes) prennent en charge RDMA. REMARQUE DCBX est requis pour RoCE sur Hyper-V. Pour configurer DCBX, choisissez l'une de ces deux options : Configurez via le HII (voir « Préparation de l'adaptateur » à la page 68). Configurez à l'aide de QoS (voir « Configuration de QoS pour RoCE » à la page 222). Les procédures de configuration de RoCE fournies dans cette section comprennent : Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA Ajout d'un ID VLAN à une NIC virtuelle hôte Vérification de l'activation de RoCE Ajout de NIC virtuelles hôtes (ports virtuels) Mappage du lecteur SMB et exécution du trafic RoCE 215 AH0054602-02 F 13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA Suivez les procédures de cette section pour créer un commutateur virtuel Hyper-V, puis activez RDMA dans la VNIC hôte. Pour créer un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA : 1. Lancez le Gestionnaire Hyper-V. 2. Cliquez sur Gestionnaire de commutateur virtuel (voir la Figure 13-1). Figure 13-1. Activation de RDMA dans la NIC virtuelle hôte 3. Créez un commutateur virtuel. 4. Cochez la case Autoriser le système d'exploitation de gestion à partager cette carte réseau. Dans Windows Server 2016, un nouveau paramètre – Network Direct (RDMA) – est ajouté dans la NIC virtuelle hôte. Pour activer RDMA dans une NIC virtuelle hôte : 1. Ouvrez la fenêtre Propriétés de la carte Ethernet virtuelle Hyper-V. 2. Cliquez sur l'onglet Avancé. 216 AH0054602-02 F 13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V 3. Sur la page Avancé (Figure 13-2) : a. Sous Propriété, sélectionnez Network Direct (RDMA). b. Sous Valeur, sélectionnez Activé. c. Cliquez sur OK. Figure 13-2. Propriétés de la carte Ethernet virtuelle Hyper-V 4. Pour activer RDMA, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (New Virtual Switch)" PS C:\Users\Administrator> Ajout d'un ID VLAN à une NIC virtuelle hôte Pour ajouter un ID VLAN à une NIC virtuelle hôte : 1. Pour trouver le nom de la NIC virtuelle hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-VMNetworkAdapter -ManagementOS La Figure 13-3 montre la sortie de la commande. Figure 13-3. Commande Windows PowerShell : Get-VMNetworkAdapter 217 AH0054602-02 F 13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V 2. Pour définir l'ID VLAN sur la NIC virtuelle hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Set-VMNetworkAdaptervlan -VMNetworkAdapterName ""New Virtual Switch" -VlanId 5 -Access -Management05 REMARQUE Prenez note de ce qui suit concernant l'ajout d'un ID VLAN à une NIC virtuelle hôte : Un ID VLAN doit être affecté à une NIC virtuelle hôte. Le même ID VLAN doit être affecté à toutes les interfaces et sur le commutateur. Assurez-vous que l'ID VLAN n'est pas affecté à l'interface physique lors de l'utilisation d'une NIC virtuelle hôte pour RoCE. Si vous créez plusieurs NIC virtuelles hôte, vous pouvez affecter un VLAN différent à chaque NIC virtuelle hôte. Vérification de l'activation de RoCE Pour vérifier si RoCE est activé : Entrez la commande Windows PowerShell suivante : Get-NetAdapterRdma La sortie de la commande répertorie les adaptateurs compatibles RDMA comme indiqué à la Figure 13-4. Figure 13-4. Commande Windows PowerShell : Get-NetAdapterRdma Ajout de NIC virtuelles hôtes (ports virtuels) Pour ajouter des NIC virtuelles hôte : 1. Pour ajouter une NIC virtuelle hôte, entrez la commande suivante : Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name SMB - ManagementOS 2. Activez RDMA sur les NIC virtuelles hôtes comme indiqué à la section « Pour activer RDMA dans une NIC virtuelle hôte : » à la page 216. 218 AH0054602-02 F 13–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V 3. Pour attribuer un ID VLAN au port virtuel, entrez la commande suivante : Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB -VlanId 5 -Access -ManagementOS Mappage du lecteur SMB et exécution du trafic RoCE Pour mapper le lecteur SMB et exécuter le trafic RoCE : 1. Lancez Performance Monitor (Perfmon). 2. Complétez la boîte de dialogue Ajouter des compteurs (Figure 13-5) de la façon suivante : a. Sous Compteurs disponibles, sélectionnez Activité RDMA. b. Sous Instances de l'objet sélectionné, sélectionnez l'adaptateur. c. Cliquez sur Ajouter. Figure 13-5. Boîte de dialogue Ajouter des compteurs 219 AH0054602-02 F 13–Windows Server 2016 RoCE sur Switch Embedded Teaming Si le trafic RoCE est exécuté, les compteurs apparaissent comme indiqué à la Figure 13-6. Figure 13-6. Performance Monitor montre le trafic RoCE RoCE sur Switch Embedded Teaming Switch Embedded Teaming (SET) est la solution alternative d'association de NIC de Microsoft qui peut être utilisée dans les environnements incluant Hyper-V et la pile SDN (Software Defined Networking) dans Windows Server 2016 Technical Preview. SET intègre une fonctionnalité limitée d'association de NIC dans le commutateur virtuel Hyper-V. Utilisez SET pour associer entre une et huit cartes réseau Ethernet physiques dans une ou plusieurs cartes réseau virtuelles logicielles. Ces cartes offrent des performances rapides et une tolérance de panne en cas de panne de carte réseau. Pour être placées dans une association, les cartes réseau membres SET doivent être toutes installées dans le même hôte physique Hyper-V. Voici les procédures relatives à RoCE sur SET incluses dans cette section : Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET Activation de RDMA sur SET Attribution d'un ID VLAN sur SET Exécution du trafic RDMA sur SET 220 AH0054602-02 F 13–Windows Server 2016 RoCE sur Switch Embedded Teaming Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET Pour créer un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET : Pour créer un SET, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> New-VMSwitch -Name SET -NetAdapterName "Ethernet 2","Ethernet 3" -EnableEmbeddedTeaming $true La Figure 13-7 montre la sortie de la commande. Figure 13-7. Commande Windows PowerShell : New-VMSwitch Activation de RDMA sur SET Pour activer RDMA sur SET : 1. Pour afficher le SET sur l'adaptateur, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-NetAdapter "vEthernet (SET)" La Figure 13-8 montre la sortie de la commande. Figure 13-8. Commande Windows PowerShell : Get-NetAdapter 2. Pour activer RDMA sur SET, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (SET)" Attribution d'un ID VLAN sur SET Pour attribuer un ID VLAN sur SET : Pour attribuer un ID VLAN sur SET, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SET" -VlanId 5 -Access -ManagementOS 221 AH0054602-02 F 13–Windows Server 2016 Configuration de QoS pour RoCE REMARQUE Prenez note de ce qui suit lors de l'ajout d'un ID VLAN à une NIC virtuelle hôte : Assurez-vous que l'ID VLAN n'est pas affecté à l'interface physique lors de l'utilisation d'une NIC virtuelle hôte pour RoCE. Si vous créez plusieurs NIC virtuelles hôte, vous pouvez affecter un VLAN différent à chaque NIC virtuelle hôte. Exécution du trafic RDMA sur SET Pour plus d'informations sur l'exécution du trafic RDMA sur SET, consultez : https://technet.microsoft.com/en-us/library/mt403349.aspx Configuration de QoS pour RoCE Voici les deux méthodes de configuration de la qualité de service (QoS) : Configuration de QoS en désactivant DCBX sur l'adaptateur Configuration de QoS en activant DCBX sur l'adaptateur Configuration de QoS en désactivant DCBX sur l'adaptateur Il faut effectuer toute la configuration sur tous les systèmes utilisés avant de configurer la qualité de service en désactivant DCBX sur l'adaptateur. Les configurations du contrôle de flux basé sur la priorité (PFC), des services de transition améliorés (ETS) et des classes de trafic doivent être identiques sur le commutateur et le serveur. Pour configurer QoS en désactivant DCBX : 1. Désactivez DCBX sur l'adaptateur. 2. En utilisant HII, définissez la Priorité RoCE sur 0. 3. Pour installer le rôle DCB sur l'hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Install-WindowsFeature Data-Center-Bridging 4. Pour définir le mode DCBX Willing sur Faux, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> set-NetQosDcbxSetting -Willing 0 222 AH0054602-02 F 13–Windows Server 2016 Configuration de QoS pour RoCE 5. Activez QoS sur le miniport comme suit : a. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. b. Sur la page Propriétés avancées de l'adaptateur (Figure 13-9), sous Propriété, sélectionnez Qualité de service, puis définissez la valeur sur Activé. c. Cliquez sur OK. Figure 13-9. Propriétés avancées : Activer QoS 6. Attribuez un ID VLAN à l'interface comme suit : a. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. b. Sur la page Propriétés avancées de l'adaptateur (Figure 13-10), sous Propriété, sélectionnez ID VLAN, puis définissez la valeur. c. Cliquez sur OK. REMARQUE L'étape précédente est requise pour le contrôle de flux basé sur la priorité (PFC). 223 AH0054602-02 F 13–Windows Server 2016 Configuration de QoS pour RoCE Figure 13-10. Propriétés avancées : Configuration d'ID VLAN 7. Pour activer le contrôle de flux basé sur la priorité pour RoCE pour une priorité spécifique, entrez la commande suivante : PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 4 REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID VLAN à l'interface physique. 8. Pour désactiver le contrôle de flux basé sur la priorité pour toute autre priorité, entrez les commandes suivantes : PS C:\Users\Administrator> Disable-NetQosFlowControl 0,1,2,3,5,6,7 PS C:\Users\Administrator> Get-NetQosFlowControl Priority Enabled PolicySet IfIndex IfAlias -------- ------- --------- ------- ------- 0 False Global 1 False Global 2 False Global 3 False Global 224 AH0054602-02 F 13–Windows Server 2016 Configuration de QoS pour RoCE 4 True Global 5 False Global 6 False Global 7 False Global 9. Pour configurer QoS et attribuer la priorité pertinente à chaque type de trafic, entrez les commandes suivantes (où la Priorité 4 correspond à RoCE et la Priorité 0 correspond à TCP) : PS C:\Users\Administrators> New-NetQosPolicy "SMB" -NetDirectPortMatchCondition 445 -PriorityValue8021Action 4 -PolicyStore ActiveStore PS C:\Users\Administrators> New-NetQosPolicy "TCP" -IPProtocolMatchCondition TCP -PriorityValue8021Action 0 -Policystore ActiveStore PS C:\Users\Administrator> Get-NetQosPolicy -PolicyStore activestore Name : tcp Owner : PowerShell / WMI NetworkProfile : All Precedence : 127 JobObject : IPProtocol : TCP PriorityValue : 0 Name : smb Owner : PowerShell / WMI NetworkProfile : All Precedence : 127 JobObject : NetDirectPort : 445 PriorityValue : 4 10. Pour configurer ETS pour toutes les classes de trafic définies à l'étape précédente, entrez les commandes suivantes : PS C:\Users\Administrators> New-NetQosTrafficClass -name "RDMA class" -priority 4 -bandwidthPercentage 50 -Algorithm ETS PS C:\Users\Administrators> New-NetQosTrafficClass -name "TCP class" -priority 0 -bandwidthPercentage 30 -Algorithm ETS PS C:\Users\Administrator> Get-NetQosTrafficClass 225 AH0054602-02 F 13–Windows Server 2016 Configuration de QoS pour RoCE Name ---[Default] RDMA class TCP class Algorithm Bandwidth(%) Priority --------- ------------ -------ETS 20 2-3,5-7 ETS 50 4 ETS 30 0 11. PolicySet --------Global Global Global IfIndex IfAlias ------- ------- Pour afficher la QoS de l'adaptateur réseau à partir de la configuration précédente, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-NetAdapterQos Name Enabled Capabilities : SLOT 4 Port 1 : True : OperationalTrafficClasses : TC -0 1 2 Hardware -------MacSecBypass : NotSupported DcbxSupport : None NumTCs(Max/ETS/PFC) : 4/4/4 TSA --ETS ETS ETS Bandwidth --------20% 50% 30% OperationalFlowControl : Priority 4 Enabled OperationalClassifications : Protocol Port/Type -------- --------Default NetDirect 445 Current ------NotSupported None 4/4/4 Priorities ---------2-3,5-7 4 0 Priority -------0 4 12. Créez un script de démarrage pour que les paramètres persistent lorsque le système redémarre. 13. Exécutez le trafic RDMA et vérifiez comme décrit à la section « Configuration de RoCE » à la page 66. Configuration de QoS en activant DCBX sur l'adaptateur Toute la configuration doit être effectuée sur tous les systèmes utilisés. La configuration de PFC, d'ETS et des classes de trafic doivent être identiques sur le commutateur et le serveur. Pour configurer QoS en activant DCBX : 1. Activez DCBX (IEEE, CEE ou Dynamique). 2. En utilisant HII, définissez la Priorité RoCE sur 0. 226 AH0054602-02 F 13–Windows Server 2016 Configuration de QoS pour RoCE 3. Pour installer le rôle DCB sur l'hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Install-WindowsFeature Data-Center-Bridging REMARQUE Pour cette configuration, configurez le Protocole DCBX sur CEE. 4. Pour définir le mode DCBX Willing sur Vrai, entrez la commande PowerShell suivante : PS C:\Users\Administrators> set-NetQosDcbxSetting -Willing 1 5. Activez QoS sur le miniport comme suit : a. Sur la page Propriétés avancées de l'adaptateur (Figure 13-11), sous Propriété, sélectionnez Qualité de service, puis définissez la valeur sur Activé. b. Cliquez sur OK. Figure 13-11. Propriétés avancées : Activation de QoS 227 AH0054602-02 F 13–Windows Server 2016 Configuration de QoS pour RoCE 6. Attribuez un ID VLAN à l'interface (requis pour PFC) comme suit : a. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. b. Sur la page Propriétés avancées de l'adaptateur (Figure 13-12), sous Propriété, sélectionnez ID VLAN, puis définissez la valeur. c. Cliquez sur OK. Figure 13-12. Propriétés avancées : Configuration d'ID VLAN 7. Pour configurer le commutateur, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Get-NetAdapterQoS Name Enabled Capabilities : Ethernet 5 : True : Hardware -------MacSecBypass : NotSupported DcbxSupport : CEE NumTCs(Max/ETS/PFC) : 4/4/4 228 Current ------NotSupported CEE 4/4/4 AH0054602-02 F 13–Windows Server 2016 Configuration de VMMQ OperationalTrafficClasses : TC -0 1 TSA --ETS ETS Bandwidth --------5% 95% Priorities ---------0-3,5-7 4 OperationalFlowControl : Priority 4 Enabled OperationalClassifications : Protocol Port/Type Priority -------- --------- -------NetDirect 445 4 RemoteTrafficClasses : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 5% 0-3,5-7 1 ETS 95% 4 RemoteFlowControl : Priority 4 Enabled RemoteClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirect 445 4 REMARQUE L'exemple précédent correspond à un port de l'adaptateur connecté à un commutateur Arista 7060X. Dans cet exemple, le PFC du commutateur PFC sur la Priorité 4. Les TLV d'application RoCE sont définis. Les deux classes de trafic sont définies comme TC0 et TC1, où TC1 est définie pour RoCE. Le mode de Protocole DCBX est défini sur CEE. Pour la configuration du commutateur Arista, reportez-vous à la section « Préparation du commutateur Ethernet » à la page 68. Lorsque l'adaptateur est en mode Willing, il accepte la Configuration à distance, qu'il montre en tant que Paramètres opérationnels. Configuration de VMMQ Les informations de configuration de file d'attente de machine virtuelle (Virtual machine multiqueue - VMMQ) comprennent : Activation de VMMQ sur l'adaptateur Configuration du port virtuel par défaut et non-par défaut de paires de files d'attente (QP) max VMMQ Création d'un commutateur de machine virtuelle avec ou sans SRI-OV Activation de VMMQ sur le commutateur de machine virtuelle Obtention de la fonction de commutateur de machine virtuelle 229 AH0054602-02 F 13–Windows Server 2016 Configuration de VMMQ Création d'une VM et activation de VMMQ sur VMNetworkadapters dans la VM NIC virtuelle VMMQ par défaut et maximum Activation et désactivation de VMMQ sur une NIC de gestion Surveillance des statistiques de trafic Activation de VMMQ sur l'adaptateur Pour activer VMMQ sur l'adaptateur : 1. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. 2. Sur la page de propriétés avancées (Figure 13-13) sous Propriété, sélectionnez RSS de commutateur virtuel, puis configurez la valeur sur Activé. 3. Cliquez sur OK. Figure 13-13. Propriétés avancées : Activation de RSS de commutateur virtuel 230 AH0054602-02 F 13–Windows Server 2016 Configuration de VMMQ Configuration du port virtuel par défaut et non-par défaut de paires de files d'attente (QP) max VMMQ Pour configurer le port virtuel par défaut et non-par défaut de paires de files d'attente (QP) maximum VMMQ : 1. Ouvrez la fenêtre miniport, et cliquez sur l'onglet Avancé. 2. Sur la page Propriétés avancées (Figure 13-14), sous Propriété, sélectionnez l'une des options suivantes : 3. QP max VMMQ – Port virtuel par défaut QP max VMMQ – Port virtuel non-par défaut S'il y a lieu, ajustez la Valeur pour la propriété sélectionnée. Figure 13-14. Propriétés avancées : Configuration de VMMQ 4. Cliquez sur OK. Création d'un commutateur de machine virtuelle avec ou sans SRI-OV Pour créer un commutateur de machine virtuelle avec ou sans SR-IOV : 1. Lancez le Gestionnaire Hyper-V. 2. Sélectionnez Gestionnaire de commutateur virtuel (voir la Figure 13-15). 3. Dans la zone Nom, entrez un nom pour le commutateur virtuel. 231 AH0054602-02 F 13–Windows Server 2016 Configuration de VMMQ 4. Sous Type de connexion : a. Cliquez sur Réseau externe. b. Cochez la case Autoriser le système d'exploitation de gestion à partager cette carte réseau. Figure 13-15. Gestionnaire de commutateur virtuel 5. Cliquez sur OK. 232 AH0054602-02 F 13–Windows Server 2016 Configuration de VMMQ Activation de VMMQ sur le commutateur de machine virtuelle Pour activer VMMQ sur le commutateur de machine virtuelle : Entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Obtention de la fonction de commutateur de machine virtuelle Pour obtenir la fonction de commutateur de machine virtuelle : Entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-VMSwitch -Name ql | fl La Figure 13-16 montre un exemple de sortie. Figure 13-16. Commande Windows PowerShell : Get-VMSwitch 233 AH0054602-02 F 13–Windows Server 2016 Configuration de VMMQ Création d'une VM et activation de VMMQ sur VMNetworkadapters dans la VM Pour créer une machine virtuelle (VM) et activer VMMQ sur les VMNetworkadapters dans la VM : 1. Créez une VM. 2. Ajoutez le VMNetworkadapter à la VM. 3. Affectez un commutateur virtuel au VMNetworkadapter. 4. Pour activer VMMQ sur la machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> set-vmnetworkadapter -vmname vm1 -VMNetworkAdapterName "network adapter" -vmmqenabled $true -vmmqqueuepairs 4 REMARQUE Pour un commutateur virtuel compatible avec SR-IOV : Si SR-IOV est activé sur le commutateur de VM et l'accélération matérielle, vous devez créer 10 VM avec 8 NIC virtuelles chacune pour utiliser VMMQ. Cette exigence est due au fait que SR-IOV a préséance sur VMMQ. Voici un exemple de sortie de 64 fonctions virtuelles et 16 VMMQ : PS C:\Users\Administrator> get-netadaptervport Name ---Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet . . . Ethernet Ethernet Ethernet Ethernet Ethernet 3 3 3 3 3 3 3 3 3 3 3 3 ID -0 1 2 3 4 5 6 7 8 9 10 11 3 3 3 3 3 64 65 66 67 68 MacAddress ---------00-15-5D-36-0A-FB 00-0E-1E-C4-C0-A4 00-15-5D-36-0A-04 00-15-5D-36-0A-05 00-15-5D-36-0A-06 VID --- ProcMask -------0:0 0:8 0:0 0:0 0:0 0:0 0:0 0:0 0:0 0:0 0:0 0:0 FID --PF PF 0 1 2 3 4 5 6 7 8 9 State ----Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated ITR --Unknown Adaptive Unknown Unknown Unknown Unknown Unknown Unknown Unknown Unknown Unknown Unknown QPairs -----4 4 1 1 1 1 1 1 1 1 1 1 0:0 0:0 0:16 1:0 0:0 62 63 PF PF PF Activated Activated Activated Activated Activated Unknown Unknown Adaptive Adaptive Adaptive 1 1 4 4 4 234 AH0054602-02 F 13–Windows Server 2016 Configuration de VMMQ Name ---Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet 3 3 3 3 3 3 3 3 3 3 3 3 ID -69 70 71 72 73 74 75 76 77 78 79 80 MacAddress ---------00-15-5D-36-0A-07 00-15-5D-36-0A-08 00-15-5D-36-0A-09 00-15-5D-36-0A-0A 00-15-5D-36-0A-0B 00-15-5D-36-0A-F4 00-15-5D-36-0A-F5 00-15-5D-36-0A-F6 00-15-5D-36-0A-F7 00-15-5D-36-0A-F8 00-15-5D-36-0A-F9 00-15-5D-36-0A-FA VID --- ProcMask -------0:8 0:16 1:0 0:0 0:8 0:16 1:0 0:0 0:8 0:16 1:0 0:0 FID --PF PF PF PF PF PF PF PF PF PF PF PF State ----Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated ITR --Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive QPairs -----4 4 4 4 4 4 4 4 4 4 4 4 PS C:\Users\Administrator> get-netadaptervmq Name InterfaceDescription ---Ethernet 4 -------------------QLogic FastLinQ 41xxx Enabled BaseVmqProcessor MaxProcessors NumberOfReceive Queues ------- ---------------- ------------- --------------False 0:0 16 1 NIC virtuelle VMMQ par défaut et maximum Selon la mise en œuvre actuelle, une quantité maximale de 4 VMMQ est disponible par NIC virtuelle ; c'est-à-dire, jusqu'à 16 NIC virtuelles. Quatre files d'attente par défaut sont disponibles comme précédemment défini à l'aide des commandes Windows PowerShell. La file d'attente par défaut maximum peut actuellement être définie sur 8. Pour vérifier la file d'attente par défaut maximum, utilisez la fonction VMswitch. Activation et désactivation de VMMQ sur une NIC de gestion Pour activer et désactiver VMMQ sur une NIC de gestion : Pour activer VMMQ sur une NIC de gestion, entrez la commande suivante : PS C:\Users\Administrator> Set-VMNetworkAdapter –ManagementOS –vmmqEnabled $true La VNIC MOS a quatre VMMQ. Pour désactiver VMMQ sur une NIC de gestion, entrez la commande suivante : PS C:\Users\Administrator> Set-VMNetworkAdapter –ManagementOS –vmmqEnabled $false Un VMMQ sera également disponible pour le protocole Multicast Open Shortest Path First (MOSPF). 235 AH0054602-02 F 13–Windows Server 2016 Configuration de VXLAN Surveillance des statistiques de trafic Pour surveiller le trafic de fonction virtuelle dans une machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Use get-netadapterstatistics | fl Configuration de VXLAN Les informations de configuration de VXLAN comprennent : Activation du déchargement VXLAN sur l'adaptateur Déploiement d'un réseau défini par logiciel Activation du déchargement VXLAN sur l'adaptateur Pour activer le déchargement VXLAN sur l'adaptateur : 1. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Avancé. 2. Sur la page Propriétés avancées (Figure 13-17), sous Propriété, sélectionnez Déchargement de tâches d'encapsulation VXLAN. Figure 13-17. Propriétés avancées : Activation de VXLAN 3. Définissez la Valeur sur Activé. 4. Cliquez sur OK. 236 AH0054602-02 F 13–Windows Server 2016 Configuration des Espaces de stockage direct Déploiement d'un réseau défini par logiciel Pour profiter du déchargement de tâches d'encapsulation VXLAN sur les machines virtuelles, vous devez déployer une pile de réseau défini par logiciel (Software-Defined Networking – SDN) qui utilise un contrôleur réseau Microsoft. Pour plus de détails, reportez-vous au lien de Microsoft TechNet suivant sur les réseaux définis par logiciel : https://technet.microsoft.com/en-us/windows-server-docs/networking/sdn/ software-defined-networking--sdn- Configuration des Espaces de stockage direct Windows Server 2016 présente la fonction Espaces de stockage direct, qui permet de créer des systèmes de stockage hautement disponibles et évolutifs à partir du stockage local. Pour plus d'informations, reportez-vous au lien de Microsoft TechNet suivant : https://technet.microsoft.com/en-us/windows-server-docs/storage/storage-spaces /storage-spaces-direct-windows-server-2016 Configuration du matériel La Figure 13-18 montre un exemple de configuration matérielle. Figure 13-18. Exemple de configuration matérielle 237 AH0054602-02 F 13–Windows Server 2016 Configuration des Espaces de stockage direct REMARQUE Les disques utilisés dans cet exemple sont des disques NVMe™ 400 G x4 et SSD 200 G x12. Déploiement d'un système hyper-convergé Cette section comprend les instructions pour installer et configurer les composants d'un système hyper-convergé à l'aide de Windows Server 2016. Le déploiement d'un système hyper-convergé peut se diviser en trois phases globales : Déploiement du système d'exploitation Configuration du réseau Configuration des Espaces de stockage direct Déploiement du système d'exploitation Pour déployer le système d'exploitation : 1. Installez le système d'exploitation. 2. Installez les rôles de serveur Windows (Hyper-V). 3. Installez les fonctionnalités suivantes : 4. Reprise Cluster Data center bridging (DCB) Connectez les nœuds au domaine et ajoutez des comptes de domaine. Configuration du réseau Pour déployer la fonction Espaces de stockage direct, le commutateur Hyper-V doit être déployé avec des NIC virtuelles hôte avec RDMA activé. REMARQUE La procédure suivante suppose qu'il existe quatre ports NIC RDMA. Pour configurer le réseau sur chaque serveur : 1. Configurez le commutateur réseau physique comme suit : a. Connectez toutes les NIC de l'adaptateur au port du commutateur. REMARQUE Si votre adaptateur de test possède plusieurs ports NIC, vous devez connecter les deux ports au même commutateur. 238 AH0054602-02 F 13–Windows Server 2016 Configuration des Espaces de stockage direct b. Activez le port du commutateur et assurez-vous que le port du commutateur prend en charge le mode d'association indépendante du commutateur et fait également partie de plusieurs réseaux VLAN. Exemple de configuration de commutateur Dell : no ip address mtu 9416 portmode hybrid switchport dcb-map roce_S2D protocol lldp dcbx version cee no shutdown 2. Activez la Qualité de service réseau. REMARQUE La qualité de service réseau sert à s'assurer que le système de stockage défini par logiciel a suffisamment de bande passante pour communiquer entre les nœuds afin d'assurer la résilience et les performances. Pour configurer la qualité de service (QoS) sur l'adaptateur, voir « Configuration de QoS pour RoCE » à la page 222. 3. Créez un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET comme suit : a. Pour identifier les cartes réseau, entrez la commande suivante : Get-NetAdapter | FT Name,InterfaceDescription,Status,LinkSpeed b. Pour créer le commutateur virtuel connecté à toutes les cartes réseau physiques, puis activer l'association intégrée de commutateur, entrez la commande suivante : New-VMSwitch -Name SETswitch -NetAdapterName "<port1>","<port2>","<port3>","<port4>" –EnableEmbeddedTeaming $true c. Pour ajouter des NIC virtuelles hôte au commutateur virtuel, entrez les commandes suivantes : Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_1 –managementOS Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_2 –managementOS 239 AH0054602-02 F 13–Windows Server 2016 Configuration des Espaces de stockage direct REMARQUE Les commandes précédentes configurent la NIC virtuelle à partir du commutateur virtuel que vous venez de configurer pour le système d'exploitation de gestion à utiliser. d. Pour configurer la NIC virtuelle hôte pour utiliser un VLAN, entrez les commandes suivantes : Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_1" -VlanId 5 -Access -ManagementOS Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_2" -VlanId 5 -Access -ManagementOS REMARQUE Ces commandes peuvent être sur des VLAN identiques ou différents. e. Pour vérifier que l'ID VLAN est défini, entrez la commande suivante : Get-VMNetworkAdapterVlan -ManagementOS f. Pour désactiver et activer chaque carte NIC virtuelle hôte afin que le VLAN soit actif, entrez la commande suivante : Disable-NetAdapter "vEthernet (SMB_1)" Enable-NetAdapter "vEthernet (SMB_1)" Disable-NetAdapter "vEthernet (SMB_2)" Enable-NetAdapter "vEthernet (SMB_2)" g. Pour activer RDMA sur les cartes NIC virtuelles hôte, entrez la commande suivante : Enable-NetAdapterRdma "SMB1","SMB2" h. Pour vérifier les capacités RDMA, entrez la commande suivante : Get-SmbClientNetworkInterface | where RdmaCapable -EQ $true Configuration des Espaces de stockage direct La configuration des Espaces de stockage direct dans Windows Server 2016 comprend les étapes suivantes : Étape 1. Exécution d’un outil de validation de cluster Étape 2. Création d'un cluster 240 AH0054602-02 F 13–Windows Server 2016 Configuration des Espaces de stockage direct Étape 3. Configuration d'un témoin de cluster Étape 4. Disques de nettoyage utilisés pour les Espaces de stockage direct Étape 5. Activation des Espaces de stockage direct Étape 6. Création de disques virtuels Étape 7. Création ou déploiement de machines virtuelles Étape 1. Exécution d’un outil de validation de cluster Exécutez l'outil de validation de cluster pour vous assurer que les nœuds de serveur sont correctement configurés pour créer un cluster à l'aide des Espaces de stockage direct. Entrez la commande Windows PowerShell suivante pour valider un ensemble de serveurs à utiliser comme cluster d'Espaces de stockage direct : Test-Cluster -Node <MachineName1, MachineName2, MachineName3, MachineName4> -Include "Storage Spaces Direct", Inventory, Network, "System Configuration" Étape 2. Création d'un cluster Créez un cluster avec les quatre nœuds (qui a été validé pour la création de cluster) à l'Étape 1. Exécution d’un outil de validation de cluster. Pour créer un cluster, entrez la commande Windows PowerShell suivante : New-Cluster -Name <ClusterName> -Node <MachineName1, MachineName2, MachineName3, MachineName4> -NoStorage Le paramètre -NoStorage est obligatoire. S'il n'est pas inclus, les disques sont automatiquement ajoutés au cluster et vous devez les supprimer avant d'autoriser les Espaces de stockage direct. Sinon, ils ne seront pas inclus dans le pool de stockage des Espaces de stockage direct. Étape 3. Configuration d'un témoin de cluster Vous devez configurer un témoin pour le cluster, afin que ce système à quatre nœuds puisse résister à la défaillance ou à l'indisponibilité de deux nœuds. Avec ces systèmes, vous pouvez configurer un témoin de partage de fichiers ou un témoin de cloud. Pour plus d'informations, consultez le site : https://blogs.msdn.microsoft.com/clustering/2014/03/31/configuring-a-file-sharewitness-on-a-scale-out-file-server/ Étape 4. Disques de nettoyage utilisés pour les Espaces de stockage direct Les disques destinés à être utilisés pour les Espaces de stockage direct doivent être vides et sans partitions ou autres données. Si un disque comporte des partitions ou d'autres données, il ne sera pas inclus dans le système d'Espaces de stockage direct. 241 AH0054602-02 F 13–Windows Server 2016 Configuration des Espaces de stockage direct La commande Windows PowerShell suivante peut être placée dans un fichier Windows PowerShell script (.PS1) et exécutée à partir du système de gestion dans une console ouverte Windows PowerShell (ou Windows PowerShell ISE) avec privilèges d'Administrateur. REMARQUE L'exécution de ce script permet d'identifier les disques sur chaque nœud qui peuvent être utilisés pour les Espaces de stockage direct et supprime toutes les données et partitions de ces disques. icm (Get-Cluster -Name HCNanoUSClu3 | Get-ClusterNode) { Update-StorageProviderCache Get-StoragePool |? IsPrimordial -eq $false | Set-StoragePool -IsReadOnly:$false -ErrorAction SilentlyContinue Get-StoragePool |? IsPrimordial -eq $false | Get-VirtualDisk | Remove-VirtualDisk -Confirm:$false -ErrorAction SilentlyContinue Get-StoragePool |? IsPrimordial -eq $false | Remove-StoragePool -Confirm:$false -ErrorAction SilentlyContinue Get-PhysicalDisk | Reset-PhysicalDisk -ErrorAction SilentlyContinue Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne $true |? PartitionStyle -ne RAW |% { $_ | Set-Disk -isoffline:$false $_ | Set-Disk -isreadonly:$false $_ | Clear-Disk -RemoveData -RemoveOEM -Confirm:$false $_ | Set-Disk -isreadonly:$true $_ | Set-Disk -isoffline:$true } Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne $true |? PartitionStyle -eq RAW | Group -NoElement -Property FriendlyName } | Sort -Property PsComputerName,Count Étape 5. Activation des Espaces de stockage direct Après création du cluster, entrez le cmdlet Enable-ClusterStorageSpacesDirect Windows PowerShell. L'applet de commande met le système de stockage en mode Espaces de stockage direct et effectue automatiquement ce qui suit : Crée un grand pool unique doté d'un nom tel que S2D sur Cluster1. 242 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server Configure le cache des Espaces de stockage direct S'il existe plusieurs types de support disponibles pour l'utilisation d'Espaces de stockage direct, il configure le type le plus efficace en tant que périphériques de cache (dans la plupart des cas, lecture et écriture). Crée deux niveaux – Capacité et Performance – comme niveaux par défaut. L'applet de commande analyse les périphériques et configure chaque niveau avec le mélange de types de périphériques et résilience. Étape 6. Création de disques virtuels Si les Espaces de stockage direct étaient activés, il crée un pool unique à partir de tous les disques. Il nomme également le pool (par exemple S2D sur Cluster1), avec le nom du cluster spécifié dans le nom. La commande Windows PowerShell suivante crée un disque virtuel avec résilience de miroir et parité sur le pool de stockage : New-Volume -StoragePoolFriendlyName "S2D*" -FriendlyName <VirtualDiskName> -FileSystem CSVFS_ReFS -StorageTierfriendlyNames Capacity,Performance -StorageTierSizes <Size of capacity tier in size units, example: 800GB>, <Size of Performance tier in size units, example: 80GB> -CimSession <ClusterName> Étape 7. Création ou déploiement de machines virtuelles Vous pouvez provisionner les machines virtuelles sur les nœuds du cluster S2D hyper-convergé. Stockez les fichiers de la machine virtuelle sur l'espace de noms CSV du système (par exemple, c:\ClusterStorage\Volume1), à l'instar des machines virtuelles en cluster sur les clusters de basculement. Déploiement et gestion de Nano Server Windows Server 2016 offre Nano Server comme nouvelle option d'installation. Nano Server est un système d'exploitation de serveur administré à distance, optimisé pour les clouds privés et les centres de données. Il est similaire à Windows Server en mode Server Core, mais est significativement plus petit, n'a pas de fonction d'ouverture de session locale et prend en charge uniquement les applications, outils et agents 64 bits. Nano Server prend moins d'espace disque, se configure rapidement et nécessite moins de mises à jour et de redémarrages que Windows Server. Quand il redémarre, il redémarre beaucoup plus rapidement. 243 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server Rôles et fonctionnalités Le Tableau 13-1 montre les rôles et les fonctionnalités disponibles dans cette version de Nano Server, ainsi que les options Windows PowerShell qui installeront les paquets correspondants. Certains paquets sont installés directement avec leurs propres options Windows PowerShell (par exemple -Compute). D'autres sont installés en tant qu'extensions de l'option -Packages, que vous pouvez combiner dans une liste séparée par des virgules. Tableau 13-1. Rôles et fonctionnalités de Nano Server Rôle ou fonctionnalité Article Rôle Hyper-V -Compute Clusters de basculement -Clustering Pilotes invités Hyper-V pour héberger Nano Server en tant que machine virtuelle -GuestDrivers Pilotes de base pour diverses cartes réseau et contrôleurs de stockage. Il s'agit du même ensemble de pilotes inclus dans une installation Server Core de Windows Server 2016 Technical Preview. -OEMDrivers Rôle de serveur de fichiers et autres composants de stockage -Storage Windows Defender Antimalware, y compris un fichier de signature par défaut -Defender Redirecteurs inverses pour la compatibilité des applications. Par exemple, des infrastructures d'application courantes telles que Ruby, Node.js, etc. -ReverseForwarders Rôle de serveur DNS -Packages Microsoft-NanoServer-DNSsource Configuration d'état souhaité (DSC) -Packages Microsoft-NanoServer-DSCsource Internet Information Server (IIS) -Packages Microsoft-NanoServer-IISsource Prise en charge des conteneurs Windows par l'hôte -Containers 244 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server Tableau 13-1. Rôles et fonctionnalités de Nano Server (Suite) Rôle ou fonctionnalité Agent System Center Virtual Machine Manager Article -Packages Microsoft-Windows-ServerSCVMM-Package -Packages Microsoft-Windows-ServerSCVMM-Compute-Package Remarque : Utilisez ce paquet uniquement si vous surveillez Hyper-V. Si vous installez ce paquet, n'utilisez pas l'option -Compute pour le rôle Hyper-V ; utilisez plutôt l'option -Packages pour installer -Packages Microsoft-NanoServer-Compute-Package, Microsoft-Windows-Server-SCVMMCompute-Package. Service de diagnostic de performance réseau (NPDS) -Packages Microsoft-NanoServer-NPDSsource Data Center Bridging -Packages Microsoft-NanoServer-DCBsource Les sections suivantes décrivent la configuration d'une image de Nano Server avec les paquets requis et l'ajout des pilotes de périphériques supplémentaires propres aux périphériques QLogic. Elles expliquent également comment utiliser la console de récupération Nano Server, comment gérer Nano Server à distance et comment exécuter le trafic Ntttcp à partir de Nano Server. Déploiement de Nano Server sur un serveur physique Suivez ces étapes pour créer un disque dur virtuel (VHD) Nano Server, qui s'exécutera sur un serveur physique à l'aide des pilotes de périphériques préinstallés. Pour déployer Nano Server : 1. Téléchargez l'image du SE Windows Server 2016. 2. Montez l'image ISO. 3. Copiez les fichiers suivants du dossier NanoServer sur un dossier de votre disque dur : 4. NanoServerImageGenerator.psm1 Convert-WindowsImage.ps1 Démarrez Windows PowerShell en tant qu'administrateur. 245 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server 5. Changez le répertoire au dossier dans lequel vous avez copié les fichiers à l'étape 3. 6. Importez le script NanoServerImageGenerator en entrant la commande suivante : Import-Module .\NanoServerImageGenerator.psm1 -Verbose 7. Pour créer un VHD qui définit un nom d'ordinateur et inclut les pilotes OEM et Hyper-V, entrez la commande Windows PowerShell suivante : REMARQUE Cette commande vous demande un mot de passe administrateur pour le nouveau VHD. New-NanoServerImage –DeploymentType Host –Edition <Standard/Datacenter> -MediaPath <path to root of media> -BasePath .\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd -ComputerName <computer name> –Compute -Storage -Cluster -OEMDrivers –Compute -DriversPath “<Path to Qlogic Driver sets>” Exemple : New-NanoServerImage –DeploymentType Host –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath ".\Base" -TargetPath "C:\Nano\PhysicalSystem\Nano_phy_vhd.vhd" -ComputerName "Nano-server1" –Compute -Storage -Cluster -OEMDrivers -DriversPath "C:\Nano\Drivers" Dans l'exemple précédent, C:\Nano\Drivers est le chemin d'accès des pilotes QLogic. Cette commande met environ 10 à 15 minutes pour créer un fichier VHD. Voici un exemple de sortie de cette commande : Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10 Copyright (C) Microsoft Corporation. All rights reserved. Version 10.0.14300.1000.amd64fre.rs1_release_svc.160324-1723 INFO : Looking for the requested Windows image in the WIM file INFO : Image 1 selected (ServerDatacenterNano)... INFO : Creating sparse disk... INFO : Mounting VHD... INFO : Initializing disk... 246 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server INFO : Creating single partition... INFO : Formatting windows volume... INFO : Windows path (I:) has been assigned. INFO : System volume location: I: INFO : Applying image to VHD. This could take a while... INFO : Image was applied successfully. INFO : Making image bootable... INFO : Fixing the Device ID in the BCD store on VHD... INFO : Drive is bootable. INFO : Dismounting VHD... INFO : Closing Windows image... INFO : Done. Cleaning up... Done. The log is at: C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log 8. Connectez-vous en tant qu'administrateur sur le serveur physique sur lequel vous souhaitez exécuter le VHD Nano Server. 9. Pour copier le VHD sur le serveur physique et le configurer pour démarrer à partir du nouveau VHD : a. Accédez à Gestion de l'ordinateur > Stockage > Gestion des disques. b. Cliquez avec le bouton droit sur Gestion des disques et sélectionnez Attacher un disque dur virtuel. c. Indiquez le chemin d'accès au fichier du VHD d. Cliquez sur OK. e. Exécutez bcdboot d:\windows. REMARQUE Dans cet exemple, le VHD est attaché sous D:\. f. Cliquez avec le bouton droit sur Gestion des disques et sélectionnez Détacher un disque dur virtuel. 10. Redémarrez le serveur physique sur le VHD Nano Server. 11. Connectez-vous à la console de récupération en utilisant l'administrateur et le mot de passe que vous avez fournis lors de l'exécution du script à l'étape 7. 12. Obtenez l'adresse IP de l'ordinateur de Nano Server. 13. Utilisez l'outil d'accès à distance Windows PowerShell (ou un autre outil de gestion à distance) pour vous connecter et gérer à distance le serveur. 247 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server Déploiement de Nano Server sur une machine virtuelle Pour créer un disque dur virtuel (VHD) Nano Server pour s'exécuter dans une machine virtuelle : 1. Téléchargez l'image du SE Windows Server 2016. 2. Accédez au dossier NanoServer à partir du fichier téléchargé à l'étape 1. 3. Copiez les fichiers suivants du dossier NanoServer sur un dossier de votre disque dur : NanoServerImageGenerator.psm1 Convert-WindowsImage.ps1 4. Démarrez Windows PowerShell en tant qu'administrateur. 5. Changez le répertoire au dossier dans lequel vous avez copié les fichiers à l'étape 3. 6. Importez le script NanoServerImageGenerator en entrant la commande suivante : Import-Module .\NanoServerImageGenerator.psm1 -Verbose 7. Entrez la commande Windows PowerShell suivante pour créer un VHD qui définit un nom d'ordinateur et inclut les pilotes invités Hyper-V : REMARQUE La commande suivante vous demande un mot de passe administrateur pour le nouveau VHD. New-NanoServerImage –DeploymentType Guest –Edition <Standard/Datacenter> -MediaPath <path to root of media> -BasePath .\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd -ComputerName <computer name> –GuestDrivers Exemple : New-NanoServerImage –DeploymentType Guest –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.vhd -ComputerName Nano-VM1 –GuestDrivers 248 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server La commande précédente met environ 10 à 15 minutes pour créer un fichier VHD. Voici un exemple de sortie de cette commande : PS C:\Nano> New-NanoServerImage –DeploymentType Guest –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.vhd -ComputerName Nano-VM1 –GuestDrivers cmdlet New-NanoServerImage at command pipeline position 1 Supply values for the following parameters: Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10 Copyright (C) Microsoft Corporation. All rights reserved. Version 10.0.14300. 1000.amd64fre.rs1_release_svc.160324-1723 INFO : Looking for the requested Windows image in the WIM file INFO : Image 1 selected (ServerTuva)... INFO : Creating sparse disk... INFO : Attaching VHD... INFO : Initializing disk... INFO : Creating single partition... INFO : Formatting windows volume... INFO : Windows path (G:) has been assigned. INFO : System volume location: G: INFO : Applying image to VHD. This could take a while... INFO : Image was applied successfully. INFO : Making image bootable... INFO : Fixing the Device ID in the BCD store on VHD... INFO : Drive is bootable. INFO : Closing VHD... INFO : Deleting pre-existing VHD: Base.vhd... INFO : Closing Windows image... INFO : Done. Cleaning up... Done. The log is at: C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log 8. Créez une nouvelle machine virtuelle dans le Gestionnaire Hyper-V, et utilisez le VHD créé à l'étape 7. 9. Démarrez la machine virtuelle. 10. Connectez-vous à la machine virtuelle dans le Gestionnaire Hyper-V. 11. Connectez-vous à la console de récupération en utilisant l'administrateur et le mot de passe que vous avez fournis lors de l'exécution du script à l'étape 7. 249 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server 12. Obtenez l'adresse IP de l'ordinateur de Nano Server. 13. Utilisez l'outil d'accès à distance Windows PowerShell (ou un autre outil de gestion à distance) pour vous connecter et gérer à distance le serveur. Gestion à distance de Nano Server Les options de gestion à distance de Nano Server comprennent Windows PowerShell, Windows Management Instrumentation (WMI), Windows Remote Management et Emergency Management Services (EMS). Cette section décrit comment accéder à Nano Server à l'aide de l'accès à distance Windows PowerShell. Gestion d'un Nano Server avec accès à distance Windows PowerShell Pour gérer un Nano Server avec un accès à distance Windows PowerShell : 1. Ajoutez l'adresse IP de Nano Server à la liste des hôtes de confiance de votre ordinateur de gestion. REMARQUE Utilisez la console de récupération pour trouver l'adresse IP du serveur. 2. Ajoutez le compte que vous utilisez aux administrateurs de Nano Server. 3. (Facultatif) Activez CredSSP, s'il y a lieu. Ajout de Nano Server à une liste d'hôtes de confiance À une invite Windows PowerShell, ajoutez Nano Server à la liste des hôtes de confiance en entrant la commande suivante : Set-Item WSMan:\localhost\Client\TrustedHosts "<IP address of Nano Server>" Exemples : Set-Item WSMan:\localhost\Client\TrustedHosts "172.28.41.152" Set-Item WSMan:\localhost\Client\TrustedHosts "*" REMARQUE La commande précédente définit tous les serveurs hôte comme des hôtes de confiance. 250 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server Démarrage de la session Windows PowerShell à distance À une session Windows PowerShell locale élevée, démarrez la session Windows PowerShell à distance en entrant les commandes suivantes : $ip = "<IP address of Nano Server>" $user = "$ip\Administrator" Enter-PSSession -ComputerName $ip -Credential $user Vous pouvez maintenant exécuter les commandes Windows PowerShell sur Nano Server comme d'habitude. Cependant, toutes les commandes Windows PowerShell ne sont pas disponibles dans cette version de Nano Server. Pour connaître les commandes disponibles, entrez la commande Get-Command -CommandType Cmdlet. Pour arrêter la session distante, entrez la commande Exit-PSSession. Pour plus de détails sur Nano Server, rendez-vous sur : https://technet.microsoft.com/en-us/library/mt126167.aspx Gestion des adaptateurs QLogic sur Windows Nano Server Pour gérer les adaptateurs QLogic dans les environnements Nano Server, reportez-vous aux outils de gestion de l'interface graphique Windows QConvergeConsole et de l'interface CLI Windows QLogic Control Suite et à la documentation associée, disponibles sur le site Web de Cavium. Configuration de RoCE Pour gérer Nano Server avec l'accès à distance Windows PowerShell : 1. Connectez-vous à Nano Server via l'accès à distance Windows PowerShell à partir d'une autre machine. Par exemple : PS C:\Windows\system32> $1p="172.28.41.152" PS C:\Windows\system32> $user="172.28.41.152\Administrator" PS C:\Windows\system32> Enter-PSSession -ComputerName $ip -Credential $user REMARQUE Dans l'exemple précédent, l'adresse IP de Nano Server est 172.28.41.152 et le nom d'utilisateur est Administrator. Si Nano Server se connecte avec succès, le message suivant est renvoyé : [172.28.41.152]: PS C:\Users\Administrator\Documents> 251 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server 2. Pour déterminer si les pilotes sont installés et que la liaison est établie, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapter La Figure 13-19 montre un exemple de sortie. Figure 13-19. Commande Windows PowerShell : Get-NetAdapter 3. Pour vérifier si RDMA est activé sur l'adaptateur, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapterRdma La Figure 13-20 montre un exemple de sortie. Figure 13-20. Commande Windows PowerShell : Get-NetAdapterRdma 4. Pour attribuer une adresse IP et un ID VLAN à toutes les interfaces de l'adaptateur, entrez les commandes Windows PowerShell suivantes : [172.28.41.152]: PS C:\> Set-NetAdapterAdvancedProperty -InterfaceAlias "slot 1 port 1" -RegistryKeyword vlanid -RegistryValue 5 [172.28.41.152]: PS C:\> netsh interface ip set address name="SLOT 1 Port 1" static 192.168.10.10 255.255.255.0 5. Pour créer un SMBShare sur Nano Server, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> New-Item -Path C:\ -Type Directory -Name smbshare -Verbose 252 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server La Figure 13-21 montre un exemple de sortie. Figure 13-21. Commande Windows PowerShell : New-Item [172.28.41.152]: PS C:\> New-SMBShare -Name "smbshare" -Path C:\smbshare -FullAccess Everyone La Figure 13-22 montre un exemple de sortie. Figure 13-22. Commande Windows PowerShell : New-SMBShare 6. Pour mapper le SMBShare en tant que lecteur réseau dans la machine client, entrez la commande Windows PowerShell suivante : REMARQUE L'adresse IP d'une interface sur Nano Server est 192.168.10.10. PS C:\Windows\system32> net use z: \\192.168.10.10\smbshare This command completed successfully. 7. Pour effectuer une lecture/écriture sur SMBShare et vérifier les statistiques RDMA sur le Nano Sever, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\> (Get-NetAdapterStatistics).RdmaStatistics 253 AH0054602-02 F 13–Windows Server 2016 Déploiement et gestion de Nano Server La Figure 13-23 montre la sortie de la commande. Figure 13-23. Commande Windows PowerShell : Get-NetAdapterStatistics 254 AH0054602-02 F 14 Dépannage Ce chapitre fournit les informations de dépannage suivantes : Liste de vérification pour le dépannage « Vérification du chargement des pilotes à jour » à la page 256 « Vérification de la connectivité du réseau » à la page 257 « Virtualisation Microsoft avec Hyper-V » à la page 258 « Problèmes propres à Linux » à la page 258 « Problèmes divers » à la page 259 « Collecte des données de débogage » à la page 259 Liste de vérification pour le dépannage PRÉCAUTION Avant d'ouvrir l'armoire du serveur pour ajouter ou retirer l'adaptateur, consultez la section « Précautions de sécurité » à la page 5. La liste de vérification suivante recense les mesures recommandées pour résoudre les problèmes éventuels lors de l'installation de l'Adaptateur série 41xxx ou de son exécution sur votre système. Examinez tous les câbles et les connexions. Vérifiez que les câbles connectés à l'adaptateur réseau et au commutateur sont correctement branchés. Vérifiez l'installation de l'adaptateur en vous référant à la section « Installation de l'adaptateur » à la page 6. Assurez-vous que l'adaptateur est correctement positionné dans le logement. Vérifiez que le matériel ne présente pas de problèmes, tels que la détérioration évidente de composants de l'adaptateur ou du connecteur de bord PCI. Vérifiez les paramètres de configuration et modifiez-les en cas de conflit avec un autre périphérique. Vérifiez que votre serveur utilise le BIOS le plus récent. 255 AH0054602-02 F 14–Dépannage Vérification du chargement des pilotes à jour Essayez d'insérer l'adaptateur dans un autre logement. Si cette nouvelle position assure son fonctionnement, il se peut que le logement d'origine de votre système soit défectueux. Remplacez l'adaptateur défectueux par un adaptateur en bon état de fonctionnement. Si le deuxième adaptateur fonctionne dans le logement où le premier ne marchait pas, ce premier adaptateur est probablement défectueux. Installez l'adaptateur dans un autre système qui fonctionne, puis exécutez de nouveau les tests. Si l'adaptateur réussit les tests dans le nouveau système, le système d'origine est peut-être défectueux. Retirez tous les autres adaptateurs du système et exécutez de nouveau les tests. Si l'adaptateur subit les tests avec succès, il se peut que les autres adaptateurs causent le conflit. Vérification du chargement des pilotes à jour Assurez-vous que les pilotes à jour sont chargés pour votre système Windows, Linux ou VMware. Vérification des pilotes sous Windows Voir le Gestionnaire de périphériques pour afficher des informations essentielles sur l'adaptateur, l'état de la liaison et la connectivité réseau. Vérification des pilotes sous Linux Pour vérifier que le pilote qed.ko est chargé correctement, utilisez la commande suivante : # lsmod | grep -i <module name> Si le pilote est chargé, la sortie de cette commande affiche la taille du pilote en octets. L'exemple suivant montre les pilotes chargés pour le module qed : # lsmod | grep -i qed qed qede 199238 1 1417947 0 Si vous redémarrez après le chargement d'un nouveau pilote, vous pouvez utiliser la commande suivante pour vérifier que le pilote actuellement chargé est bien la version correcte. modinfo qede Sinon, vous pouvez utiliser la commande suivante : [root@test1]# ethtool -i eth2 driver: qede version: 8.4.7.0 256 AH0054602-02 F 14–Dépannage Vérification de la connectivité du réseau firmware-version: mfw 8.4.7.0 storm 8.4.7.0 bus-info: 0000:04:00.2 Si vous avez chargé un nouveau pilote, mais que vous n'avez pas encore redémarré, la commande modinfo n'affiche pas d'informations à jour sur le pilote. Entrez plutôt la commande dmesg suivante pour afficher les journaux. Dans cet exemple, la dernière entrée identifie le pilote qui sera actif au redémarrage. # dmesg | grep -i "Cavium" | grep -i "qede" [ 10.097526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x [ 23.093526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x [ 34.975396] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x [ 34.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x [ 3334.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x Vérification des pilotes sous VMware Pour vérifier que les pilotes VMware ESXi sont chargés, entrez la commande suivante : # esxcli software vib list Vérification de la connectivité du réseau Cette section fournit les procédures pour tester la connectivité réseau dans les environnements Windows et Linux. REMARQUE Lorsque vous utilisez des vitesses de liaison forcées, assurez-vous que l'adaptateur et le commutateur sont forcés à la même vitesse. Test de la connectivité réseau pour Windows Testez la connectivité réseau à l'aide de la commande ping. Pour déterminer si la connexion réseau fonctionne : 1. Cliquez sur Démarrer, puis sur Exécuter. 2. Dans la boîte de dialogue Ouvrir, saisissez cmd, puis cliquez sur OK. 3. Pour afficher les connexions du réseau à tester, utilisez les commandes suivantes : ipconfig /all 257 AH0054602-02 F 14–Dépannage Virtualisation Microsoft avec Hyper-V 4. Utilisez la commande suivante puis appuyez sur ENTRÉE. ping <ip_address> Les statistiques ping affichées indiquent si la connectivité réseau fonctionne. Test de la connectivité réseau pour Linux Pour vérifier que l'interface Ethernet est opérationnelle : 1. Pour vérifier l'état de l'interface Ethernet, entrez la commande ifconfig. 2. Pour vérifier les statistiques de l'interface Ethernet, entrez la commande netstat -i. Pour vérifier que la connexion a été établie : 1. Envoyez un ping à une adresse IP hôte sur le réseau. À partir de la ligne de commande, entrez la commande suivante : ping <ip_address> 2. Appuyez sur ENTRÉE. Les statistiques ping affichées indiquent si la connectivité réseau fonctionne. La vitesse de liaison de l'adaptateur peut être forcée à 10 Gbits/s ou à 25 Gbits/s à l'aide soit de l'outil d'interface graphique du système d'exploitation soit d ela commande ethtool, ethtool –s ethX speed SSSS. Virtualisation Microsoft avec Hyper-V La virtualisation Microsoft est un système de virtualisation avec hyperviseur pour Windows Server 2012 R2. Pour plus d'informations sur Hyper-V, rendez-vous sur : https://technet.microsoft.com/en-us/library/Dn282278.aspx Problèmes propres à Linux Problème : Des erreurs surviennent lors de la compilation du code source du pilote. Solution : Certaines installations de distributions Linux n'installent pas les outils de développement et les sources de noyau par défaut. Avant de compiler le code source du pilote, vérifiez que les outils de développement de la distribution Linux que vous utilisez sont installés. 258 AH0054602-02 F 14–Dépannage Problèmes divers Problèmes divers Problème : L'Adaptateur série 41xxx s'est arrêté et un message d'erreur s'affiche, indiquant une défaillance de son ventilateur. Solution : L'adaptateur Adaptateur série 41xxx peut s'arrêter intentionnellement afin d'éviter des dommages irréversibles. Contactez le support technique QLogic pour obtenir de l'aide. Problème : Dans un environnement ESXi, lorsque le pilote iSCSI (qedil) est installé, parfois, le client d’infrastructure virtuelle ne peut pas accéder à l’hôte. Cela est dû à la terminaison du démon de l’hôte, qui nuit à la connectivité du client d’infrastructure virtuelle. Solution : Contactez le support technique de VMware. Collecte des données de débogage Utilisez les commandes du Tableau 14-1 pour collecter les données de débogage. Tableau 14-1. Commandes de collecte des données de débogage Données de débogage Description demesg-T Journaux du noyau ethtool-d Vidage de registre sys_info.sh Informations système ; disponible dans le groupe de pilotes 259 AH0054602-02 F A Voyants de l'adaptateur Le Tableau A-1 répertorie les voyants d'état de liaison et d'activité de port de l'adaptateur. Tableau A-1. Voyants de liaison et d'activité de port de l'adaptateur Voyant de port Voyant de liaison Voyant d'activité État du voyant État du réseau Désactivé Pas de liaison (câble déconnecté) Allumé (sans clignotement) Liaison Désactivé Aucune activité de port Clignotement Activité de port 260 AH0054602-02 F B Câbles et modules optiques Cette annexe fournit les informations suivantes concernant les câbles et les modules optiques pris en charge : Spécifications prises en charge « Câbles et modules optiques testés » à la page 262 « Commutateurs testés » à la page 266 Spécifications prises en charge Les Adaptateurs série 41xxx prennent en charge divers câbles et modules optiques conformes à SFF8024. Voici la conformité en matière de facteur de forme spécifique : SFP : SFF8472 (pour la carte mémoire) SFF8419 ou SFF8431 (signaux à faible vitesse et alimentation) QSFP (Quad small form factor pluggable) : SFF8636 (pour la carte mémoire) SFF8679 ou SFF8436 (signaux à faible vitesse et alimentation) Entrées/sorties électriques des modules optiques, câbles en cuivre actifs (ACC) et câbles optiques actifs (AOC) : 10 G – SFF8431 Interface de limitation 25 G – IEEE802.3by Annexe 109B (25GAUI) 261 AH0054602-02 F B–Câbles et modules optiques Câbles et modules optiques testés Câbles et modules optiques testés QLogic ne garantit pas que tous les câbles ou modules optiques qui satisfont aux exigences de conformité fonctionneront avec les Adaptateurs série 41xxx. Cavium a testé les composants énumérés au Tableau B-1 et présente cette liste pour votre commodité. Table B-1. Câbles et modules optiques testés Vitesse/ Facteur de forme Fabricant Référence Type Longueur de câble a Calibre Câbles Brocade® Cisco DAC 10 G b Dell Amphenol® DAC 25 G Dell 1539W SFP+10G-vers-SFP+10G 1 26 V239T SFP+10G-vers-SFP+10G 3 26 48V40 SFP+10G-vers-SFP+10G 5 26 H606N SFP+10G-vers-SFP+10G 1 26 K591N SFP+10G-vers-SFP+10G 3 26 G849N SFP+10G-vers-SFP+10G 5 26 V250M SFP+10G-vers-SFP+10G 1 26 53HVN SFP+10G-vers-SFP+10G 3 26 358VV SFP+10G-vers-SFP+10G 5 26 407-BBBK SFP+10G-vers-SFP+10G 1 30 407-BBBI SFP+10G-vers-SFP+10G 3 26 407-BBBP SFP+10G-vers-SFP+10G 5 26 NDCCGF0001 SFP28-25G-vers-SFP28-25G 1 30 NDCCGF0003 SFP28-25G-vers-SFP28-25G 3 30 NDCCGJ0003 SFP28-25G-vers-SFP28-25G 3 26 NDCCGJ0005 SFP28-25G-vers-SFP28-25G 5 26 2JVDD SFP28-25G-vers-SFP28-25G 1 26 D0R73 SFP28-25G-vers-SFP28-25G 2 26 OVXFJY SFP28-25G-vers-SFP28-25G 3 26 9X8JP SFP28-25G-vers-SFP28-25G 5 26 262 AH0054602-02 F B–Câbles et modules optiques Câbles et modules optiques testés Table B-1. Câbles et modules optiques testés (Suite) Vitesse/ Facteur de forme QSFP Cuivre 40G Diviseur (4 × 10G) Fabricant Dell RJ45 Cuivre 1G Émetteurrécepteur Dell RJ45 Cuivre 10G Émetteurrécepteur Dell Diviseur DAC 40G (4 × 10G) Dell Amphenol Diviseur DAC 100G (4 × 25G) Dell FCI Référence Type Longueur Calibre de câble a TCPM2 QSFP+40G-vers-4xSFP+10G 1 30 27GG5 QSFP+40G-vers-4xSFP+10G 3 30 P8T4W QSFP+40G-vers-4xSFP+10G 5 26 8T47V SFP+ vers 1G RJ 1G RJ45 S/O XK1M7 SFP+ vers 1G RJ 1G RJ45 S/O XTY28 SFP+ vers 1G RJ 1G RJ45 S/O PGYJT SFP+ vers 10G RJ 10G RJ45 S/O 470-AAVO QSFP+40G-vers-4xSFP+10G 1 26 470-AAXG QSFP+40G-vers-4xSFP+10G 3 26 470-AAXH QSFP+40G-vers-4xSFP+10G 5 26 NDAQGJ-0001 QSFP28-100G-vers4xSFP28-25G 1 26 NDAQGF-0002 QSFP28-100G-vers4xSFP28-25G 2 30 NDAQGF-0003 QSFP28-100G-vers4xSFP28-25G 3 30 NDAQGJ-0005 QSFP28-100G-vers4xSFP28-25G 5 26 026FN3 Rév A00 QSFP28-100G-vers4XSFP28-25G 1 26 0YFNDD Rév A00 QSFP28-100G-vers4XSFP28-25G 2 26 07R9N9 Rév A00 QSFP28-100G-vers4XSFP28-25G 3 26 10130795-4050LF QSFP28-100G-vers4XSFP28-25G 5 26 263 AH0054602-02 F B–Câbles et modules optiques Câbles et modules optiques testés Table B-1. Câbles et modules optiques testés (Suite) Vitesse/ Facteur de forme Fabricant Référence Type Longueur Calibre de câble a Solutions optiques Avago® Émetteurrécepteur optique 10G Dell Finisar® Dell Émetteurrécepteur optique 25G AFBR-703SMZ SFP+ SR S/O S/O AFBR-701SDZ SFP+ LR S/O S/O Y3KJN SFP+ SR 1G/10G S/O WTRD1 SFP+ SR 10G S/O 3G84K SFP+ SR 10G S/O RN84N SFP+ SR 10G-LR S/O FTLX8571D3BCLQL SFP+ SR S/O S/O FTLX1471D3BCLQL SFP+ LR S/O S/O P7D7R Émetteur-récepteur optique SR SFP28 25G SR S/O FTLF8536P4BCL Émetteur-récepteur optique SR SFP28 S/O S/O FTLF8538P4BCL Émetteur-récepteur optique SR SFP28 sans FEC S/O S/O Finisar 264 AH0054602-02 F B–Câbles et modules optiques Câbles et modules optiques testés Table B-1. Câbles et modules optiques testés (Suite) Vitesse/ Facteur de forme 10G AOC c Fabricant Dell Dell 25G AOC InnoLight® Référence Type Longueur Calibre de câble a 470-ABLV SFP+ AOC 2 S/O 470-ABLZ SFP+ AOC 3 S/O 470-ABLT SFP+ AOC 5 S/O 470-ABML SFP+ AOC 7 S/O 470-ABLU SFP+ AOC 10 S/O 470-ABMD SFP+ AOC 15 S/O 470-ABMJ SFP+ AOC 20 S/O YJF03 SFP+ AOC 2 S/O P9GND SFP+ AOC 3 S/O T1KCN SFP+ AOC 5 S/O 1DXKP SFP+ AOC 7 S/O MT7R2 SFP+ AOC 10 S/O K0T7R SFP+ AOC 15 S/O W5G04 SFP+ AOC 20 S/O X5DH4 SFP28 AOC 20 S/O TF-PY003-N00 SFP28 AOC 3 S/O TF-PY020-N00 SFP28 AOC 20 S/O a La longueur de câble est indiquée en mètres. b DAC signifie Direct Attach Cable (câble à jonction directe). c AOC signifie Active Optical Cable (câble optique actif). 265 AH0054602-02 F B–Câbles et modules optiques Commutateurs testés Commutateurs testés Le Tableau B-2 répertorie les commutateurs qui ont été testés pour l'interopérabilité avec les Adaptateurs série 41xxx. Cette liste est basée sur les commutateurs disponibles au moment de la publication du produit et est susceptible de changer avec le temps lorsque de nouveaux commutateurs sont commercialisés ou sont abandonnés. Table B-2. Commutateurs testés pour l'interopérabilité Fabricant Arista Modèle de commutateur Ethernet 7060X 7160 Nexus 3132 Nexus 3232C Cisco Nexus 5548 Nexus 5596T Nexus 6000 Dell EMC HPE Mellanox® S6100 Z9100 FlexFabric 5950 SN2410 SN2700 266 AH0054602-02 F C Configuration du commutateur Dell Z9100 Les Adaptateurs série 41xxx prennent en charge les connexions avec le commutateur Ethernet Dell Z9100. Cependant, tant que le processus de négociation automatique n'est pas standardisé, le commutateur doit être explicitement configuré pour se connecter à l'adaptateur à 25 Gbits/s. Pour configurer un port de commutateur Dell Z9100 pour la connexion à l'Adaptateur série 41xxx à 25 Gb/s : 1. Établissez une connexion de port série entre votre station de travail de gestion et le commutateur. 2. Ouvrez une session de ligne de commande et connectez-vous au commutateur comme suit : Login: admin (Connexion commutateur : admin) Password: admin (Connexion commutateur : admin) 3. Activez la configuration du port du commutateur : Dell> enable Password: xxxxxx Dell# config 4. Identifiez le module et le port à configurer. Dans l'exemple suivant, le module 1, port 5 est utilisé : Dell(conf)#stack-unit portmode Dell(conf)#stack-unit dual quad single Dell(conf)#stack-unit speed Dell(conf)#stack-unit 10G 25G Dell(conf)#stack-unit 1 port 5 ? Set portmode for a module 1 port 5 portmode ? Enable dual mode Enable quad mode Enable single mode 1 port 5 portmode quad ? Each port speed in quad mode 1 port 5 portmode quad speed ? Quad port mode with 10G speed Quad port mode with 25G speed 1 port 5 portmode quad speed 25G 267 AH0054602-02 F C–Configuration du commutateur Dell Z9100 Pour plus d'informations sur le changement de la vitesse de liaison de l'adaptateur, voir « Vérification de la connectivité du réseau » à la page 257. 5. Vérifiez que le port fonctionne à 25 Gb/s : Dell# Dell#show running-config | grep "port 5" stack-unit 1 port 5 portmode quad speed 25G 6. Pour désactiver la négociation automatique sur le port de commutateur 5, procédez comme suit : a. Identifiez l'interface de port de commutateur (module 1, port 5, interface 1) et confirmez l'état de la négociation automatique : Dell(conf)#interface tw 1/5/1 Dell(conf-if-tf-1/5/1)#intf-type cr4 ? autoneg b. Enable autoneg Désactivez la négociation automatique : Dell(conf-if-tf-1/5/1)#no intf-type cr4 autoneg c. Vérifiez que la négociation automatique est désactivée. Dell(conf-if-tf-1/5/1)#do show run interface tw 1/5/1 ! interface twentyFiveGigE 1/5/1 no ip address mtu 9416 switchport flowcontrol rx on tx on no shutdown no intf-type cr4 autoneg Pour plus d'informations sur la configuration du commutateur Dell Z9100, reportez-vous au Guide de configuration du commutateur Dell Z9100 sur le site Web de support Dell : support.dell.com 268 AH0054602-02 F D Contraintes en matière de fonctionnalités Cette annexe fournit des informations sur les contraintes en matière de fonctionnalités mises en œuvre dans la version actuelle. Ces contraintes de coexistence de fonctionnalités peuvent être supprimées dans une version future. À ce moment, vous devriez pouvoir utiliser les combinaisons de fonctionnalités sans aucune étape de configuration supplémentaire outre celles habituellement exigées pour activer les fonctionnalités. La présence simultanée de FCoE et iSCSI sur le même port n'est pas prise en charge en mode NPAR La version actuelle ne prend pas en charge la configuration à la fois de FCoE et d'iSCSI sur des PF appartenant au même port physique en mode NPAR (la présence simultanée de FCoE et iSCSI est uniquement prise en charge sur le même port dans le mode par défaut). Soit FCoE soit iSCSI est autorisé sur un port physique en mode NPAR. Une fois qu'une PF avec la personnalité iSCSI ou FCoE a été configurée sur un port en utilisant les outils de gestion QLogic ou HII, la configuration du protocole de stockage sur une autre PF n'est pas autorisée par ces outils de gestion. Étant donné que la personnalité de stockage est désactivée par défaut, seule la personnalité qui a été configurée à l'aide des outils de gestion QLogic ou HII est écrite dans la configuration NVRAM. Lorsque cette limitation est supprimée, les utilisateurs peuvent configurer des fonctions physiques supplémentaires sur le même port pour le stockage en mode NPAR. La présence simultanée de RoCE et iWARP sur le même port n'est pas prise en charge RoCE et iWARP ne sont pas pris en charge sur le même port Les outils de gestion QLogic et HII n'autorisent pas les utilisateurs à les configurer simultanément. 269 AH0054602-02 F D–Contraintes en matière de fonctionnalités Le démarrage SAN et NIC sur base est pris en charge uniquement sur certaines PF Le démarrage PXE et Ethernet n'est actuellement pris en charge que sur PF0 et PF1. Dans la configuration NPAR, les autres PF ne prennent pas en charge le démarrage PXE et Ethernet. Lorsque le Mode de virtualisation est défini sur NPAR, le démarrage FCoE sans déchargement est pris en charge sur la partition 2 (PF2 et PF3) et le démarrage iSCSI est pris en charge sur la partition 3 (PF4 et PF5). Le démarrage iSCSI et FCoE est limité à une seule cible par session de démarrage. La prise en charge de LUN de cible de démarrage iSCSI est limitée uniquement à ID LUN 0. Lorsque le Mode de virtualisation est défini sur Aucun ou SR-IOV, le démarrage à partir de SAN n'est pas pris en charge. 270 AH0054602-02 F Glossaire bande passante Mesure du volume de données pouvant être transmises à une vitesse de transmission donnée. Un port Fibre Channel 1 Gb/s ou 2 Gb/s peut effectuer des transmissions/réceptions à des vitesses nominales d'1 ou 2 Gb/s en fonction du périphérique auquel il est connecté. Cela correspond à des valeurs de bande passante réelle de 106 Mo et 212 Mo. ACPI La spécification Advanced Configuration and Power Interface (ACPI) fournit une norme ouverte pour la gestion de l'alimentation et la configuration unifiées de périphériques axées sur le système d'exploitation. ACPI définit des interfaces indépendantes de la plateforme pour la détection, la configuration, la gestion de l'alimentation et la surveillance de matériel. La spécification est au cœur de la gestion de l'alimentation et de la configuration dirigées par le système d'exploitation (OSPM), un terme utilisé pour décrire un système mettant en œuvre ACPI, qui enlève ainsi les responsabilités de gestion de périphériques aux interfaces de micrologiciel existantes. BAR Base address register. Sert à conserver les adresses mémoire utilisées par un périphérique ou les décalages des adresses de port. En règle générale, les BAR d'adresses mémoire doivent être situés dans la RAM physique, tandis que les BAR d'espace d'E/S peuvent résider à n'importe quelle adresse mémoire (même au-delà de la mémoire physique). adaptateur Carte d'interface entre le système hôte et les périphériques cibles. Le terme Adaptateur est synonyme de Bus d'adaptateur hôte (HBA), adaptateur hôte et carte. base address register Voir BAR. BIOS Système d'entrées/sorties de base. En règle générale dans la PROM Flash, programme (ou utilitaire) qui sert d'interface entre le matériel et le système d'exploitation, et permet l'amorçage à partir de l'adaptateur au démarrage. Advanced Configuration and Power Interface Voir ACPI. 271 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx DCB Data center bridging. Apporte des améliorations aux spécifications de pont 802.1 afin de satisfaire les exigences des protocoles et applications du centre de données. Comme les centres de données hautes performances actuels comprennent généralement plusieurs réseaux propres à une application exécutés avec différentes technologies de couche de liaison (Fibre Channel pour le stockage, Ethernet pour la gestion réseau et la connectivité LAN), DCB permet d'utiliser des ponts 802.1 pour le déploiement d'un réseau convergent où toutes les applications peuvent être exécutées sur une seule infrastructure physique. carte réseau Voir NIC. cible Point final de périphérique de stockage d'une session SCSI. Les initiateurs demandent des données à partir de cibles. Les cibles sont généralement des lecteurs de disque, des lecteurs de bande ou d'autres périphériques multimédias. En règle générale, un périphérique SCSI est la cible, mais un adaptateur peut, dans certains cas, être une cible. Une cible peut contenir plusieurs LUN. Une cible est un périphérique qui répond à une requête d'un initiateur (le système hôte). Les périphériques sont des cibles, mais pour certaines commandes (par exemple, une commande SCSI COPY), le périphérique peut agir comme initiateur. DCBX Data center bridging exchange. Protocole utilisé par les périphériques DCB pour échanger des informations de configuration avec leurs homologues en connexion directe. Ce protocole peut également être utilisé pour la détection des erreurs de configuration et pour la configuration de l'homologue. Couche 2 Se réfère à la couche de liaison de données du modèle de communication multicouches OSI (Open Systems Interconnection). La fonction de la couche de liaison de données consiste à déplacer des données sur les liaisons physiques d'un réseau, où un commutateur redirige les messages de données au niveau de la couche 2 à l'aide de l'adresse MAC de destination pour déterminer la destination du message. DHCP Dynamic host configuration protocol. Permet aux ordinateurs situés sur un réseau IP d'extraire leur configuration des serveurs qui ont des informations sur l'ordinateur uniquement après leur requête. data center bridging Voir DCB. dynamic host configuration protocol Voir DHCP. data center bridging exchange Voir DCBX. 272 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx Ethernet Technologie LAN la plus utilisée qui transmet des informations entre des ordinateurs, typiquement à des vitesses de 10 et 100 millions de bits par seconde (Mbits/s). eCore Une couche entre le système d'exploitation et le matériel et le micrologiciel. Elle est propre au périphérique et indépendante du SE. Lorsque le code eCore exige des services du SE (par exemple, pour l'allocation de mémoire, l'accès à l'espace de configuration PCI, etc.) il appelle une fonction abstraite du SE qui est mise en œuvre dans des couches spécifiques du SE. Les flux eCore peuvent être pilotés par le matériel (par exemple, par une interruption) ou par la partie spécifique du SE du pilote (par exemple, chargement et déchargement de la charge et de la décharge). Ethernet écoénergétique Voir EEE. ETS Enhanced transmission selection. Norme qui spécifie l'amélioration de la sélection d'émission afin de prendre en charge l'allocation de bande passante parmi les classes de trafic Lorsque la charge offerte d'une classe de trafic n'utilise pas toute la bande passante allouée, la sélection d'émission améliorée (ETS) permet aux autres classes de trafic d'utiliser la bande passante disponible. Les priorités d'allocation de bande passante coexistent avec les priorités strictes. ETS comprend des objets gérés pour prendre en charge l'allocation de bande passante. Pour plus d'informations, reportez-vous à : http://ieee802.org/1/pages/802.1az.html EEE Ethernet écoénergétique. Un ensemble d'améliorations de la gamme Ethernet à paires torsadées et de fond de panier de normes de mise en réseau d'ordinateurs qui permet d'obtenir une consommation électrique moindre pendant les périodes de faible activité de données. L'objectif était de réduire la consommation électrique de 50 pour cent ou plus, tout en conservant la compatibilité totale avec l'équipement existant. L'Institute of Electrical and Electronics Engineers (IEEE), par le biais du groupe de travail IEEE 802.3az, a développé la norme. extensible firmware interface Voir EFI. FCoE Fibre Channel over Ethernet. Une nouvelle technologie définie par l'organisme de normalisation T11, qui permet au trafic réseau de stockage Fibre Channel traditionnel de se déplacer sur une liaison Ethernet en encapsulant les trames Fibre Channel dans des trames Ethernet de couche 2. Pour plus d'informations, rendez-vous sur www.fcoe.com. EFI Extensible firmware interface. Spécification qui définit une interface logicielle entre un système d'exploitation et le micrologiciel de plateforme. EFI remplace l'ancienne interface de micrologiciel BIOS présente sur tous les ordinateurs personnels compatibles IBM PC. enhanced transmission selection Voir ETS. Fibre Channel over Ethernet (FCoE) Voir FCoE. 273 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx IP file transfer protocol Voir FTP. Internet protocol. Méthode par laquelle les données sont envoyées d'un ordinateur à l'autre sur Internet. IP spécifie le format des paquets, également appelés datagrammes et le schéma d'adressage. FTP File transfer protocol. Protocole de réseau standard servant à transférer des fichiers d'un hôte à un autre sur un réseau TCP, tel que Internet. FTP est requis pour les chargements hors bande de micrologiciel qui s'effectueront plus rapidement que des chargements de micrologiciel intrabande. IQN iSCSI qualified name. Nom de nœud iSCSI basé sur le fabricant de l'initiateur et une section de nom de périphérique unique. HII iSCSI Internet small computer system interface. Protocole qui encapsule les données dans des paquets IP à envoyer sur des connexions Ethernet. Human interface infrastructure. Spécification (qui fait partie de la norme UEFI 2.1) utilisée pour la gestion des saisies utilisateur, des chaînes localisées, des polices et des formulaires, qui permet aux OEM de développer des interfaces graphiques pour la configuration de préamorçage. iSCSI qualified name Voir IQN. iWARP Internet wide area RDMA protocol. Protocole réseau qui met en œuvre RDMA pour un transfert de données efficace sur les réseaux IP. iWARP est conçu pour de multiples environnements, y compris les réseaux locaux, les réseaux de stockage, les réseaux de centres de données et les WAN. human interface infrastructure Voir HII. IEEE Institute of Electrical and Electronics Engineers. Organisation internationale à but non lucratif dédiée aux progrès des technologies liées à l'électricité. interface virtuelle Voir VI. large send offload Voir LSO. Internet small computer system interface Voir iSCSI. Link Layer Discovery Protocol (Protocole de découverte de couche liaison) Voir LLDP. Internet wide area RDMA protocol Voir iWARP. 274 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx LLDP Un protocole de Couche 2 neutre quant au fournisseur qui permet à un périphérique réseau de publier son identité et ses capacités sur le réseau local. Ce protocole supplante des protocoles exclusifs comme le Cisco Discovery Protocol, l'Extreme Discovery Protocol et le Nortel Discovery Protocol (également connu sous le nom SONMP). Les informations récoltées avec le protocole LLDP sont stockées dans le périphérique et peuvent être interrogées à l'aide de SNMP. La topologie d'un réseau à capacité LLDP peut être détectée en analysant les hôtes et en interrogeant cette base de données. mémoire non volatile expresse Voir NVMe. message signaled interrupts Voir MSI, MSI-X. MSI, MSI-X Message signaled interrupts. L'une de deux extensions définies par PCI pour prendre en charge les interruptions signalées par des messages (MSI), dans PCI 2.2 et versions ultérieures et PCI Express. Les MSI constituent une autre façon de générer une interruption par l'intermédiaire de messages spéciaux qui permettent l'émulation d'une assertion ou désassertion de pin. MSI-X (définie dans PCI 3.0) permet à un périphérique d'allouer un nombre quelconque d'interruptions entre 1 et 2 048 et donne à chaque interruption des registres d'adresses et de données séparés. Les fonctions facultatives de MSI (adressage 64 bits et masquage d'interruption) sont obligatoires avec MSI-X. LSO Large send offload. Fonction d'adaptateur Ethernet qui permet à la pile de réseau TCP\IP de construire un grand message TCP (jusqu'à 64 Ko) avant de l'envoyer à l'adaptateur. Le matériel de l'adaptateur segmente le message en petits paquets de données (trames) à envoyer sur le câble : jusqu'à 1 500 octets pour les trames Ethernet standard et jusqu'à 9 000 octets pour les trames Ethernet étendues. La procédure de segmentation libère l'UC du serveur d'avoir à segmenter les grands messages TCP en petits paquets adaptés à la taille de trame prise en charge. MTU Maximum transmission unit. Désigne la taille (en octets) du plus grand paquet (datagramme IP) qu'une couche de protocole de communication spécifiée peut transférer. NIC Carte réseau Carte d'ordinateur installée pour permettre une connexion réseau dédiée. machine virtuelle Voir VM. maximum transmission unit Voir MTU. mémoire à accès aléatoire non volatile Voir NVRAM. 275 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx périphérique Une cible, généralement un lecteur de disque. Matériel tel qu'un lecteur de disque, un lecteur de bande, une imprimante ou un clavier installé sur ou connecté à un système. Dans Fibre Channel, un périphérique cible. NPAR partitionnement NIC. Division d'un port NIC en plusieurs partitions ou fonctions physiques, dotées chacune d'une bande passante et d'une personnalité (type d'interface) configurables par l'utilisateur. Les personnalités comprennent NIC, FCoE et iSCSI. PF NVMe Une méthode d'accès au stockage conçue pour les lecteurs SSD. Fonction physique. pilote Logiciel d'interface entre le système de fichiers et un périphérique physique de stockage de données ou un support de réseau. NVRAM mémoire à accès aléatoire non volatile Un type de mémoire qui conserve les données (paramètres de configuration) même en cas de coupure de l'alimentation. Vous pouvez configurer manuellement les paramètres NVRAM ou les restaurer à partir d'un fichier. port d'adaptateur Port sur la carte adaptateur. Protocole Internet Voir IP. OFED™ OpenFabrics Enterprise Distribution. Un logiciel libre pour des applications RDMA et de contournement de noyau. QoS Qualité de service. Fait référence aux méthodes utilisées pour éviter les goulets d'étranglement et pour garantir la continuité des activités lors de la transmission de données sur des ports virtuels, en définissant des priorités et en allouant de la bande passante. partitionnement NIC Voir NPAR. PCI™ Peripheral component interface. Spécification de bus local 32 bits introduite par Intel®. qualité de service Voir QoS. RDMA Remote direct memory access. Capacité d'un nœud à écrire directement dans la mémoire d'un autre (avec sémantique d'adresse et de taille) sur un réseau. Cette capacité est une fonction importante des réseaux VI. PCI Express (PCIe) Norme d'E/S de troisième génération qui permet des performances réseau Ethernet optimisées au-delà de celles des logements d'ordinateurs de bureau et de serveur PCI (peripheral component interconnect) et PCI-X (PCI extended). 276 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx remote direct memory access Voir RDMA. SerDes Serializer/deserializer. Paire de blocs fonctionnels couramment utilisés au cours des communications à haute vitesse pour compenser l'entrée/sortie limitée. Ces blocs convertissent les données entre les données série et les interfaces parallèles dans chaque direction. réseau logique virtuel Voir VLAN. serializer/deserializer Voir SerDes. RISC Reduced instruction set computer. Microprocesseur informatique qui exécute des instructions informatiques de moins de types, fonctionnant ainsi à des vitesses plus élevées. single root input/output virtualization Voir SR-IOV. RDMA over Converged Ethernet Voir RoCE. reduced instruction set computer Voir RISC. small computer system interface Voir SCSI. SR-IOV Single root input/output virtualization. Spécification de PCI-SIG qui permet à un périphérique PCIe d'apparaître sous la forme de plusieurs périphériques PCIe physiques distincts. SR-IOV permet d'isoler les ressources PCIe à des fins de performance, d'interopérabilité et de gestion. RoCE RDMA over Converged Ethernet. Protocole réseau qui permet l'accès mémoire direct à distance (RDMA) sur un réseau Ethernet convergent ou non. RoCE est un protocole de couche de liaison qui permet les communications entre deux hôtes d'un même domaine de diffusion Ethernet. système d'entrées/sorties de base Voir BIOS. SCSI Small computer system interface. Interface haut débit utilisée pour connecter des périphériques, tels que des disques durs, des lecteurs de CD, des imprimantes et des scanners, à un ordinateur. SCSI peut connecter de nombreux périphériques à l'aide d'un seul contrôleur. Chaque périphérique est identifié par un numéro d'identification individuel sur le bus du contrôleur SCSI. TCP Transmission control protocol. Ensemble de règles pour envoyer des données en paquets sur IP. TCP/IP Transmission control protocol/Internet protocol. Langage de communication de base d'Internet. 277 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx TLV Type-length-value. Informations facultatives pouvant être codées en tant qu'élément à l'intérieur du protocole. Les champs de type et de longueur sont de taille fixe (en règle générale, 1-4 octets) et le champ de valeur est de taille variable. Ces champs sont utilisés comme suit : Type : code numérique qui indique le type de champ que représente cette partie du message. Longueur : taille du champ de valeur (généralement en octets). Valeur : ensemble d'octets de taille variable qui contient les données de cette partie du message. UEFI Unified extensible firmware interface. Spécification qui détaille une interface servant à transmettre le contrôle du système pour l'environnement de préamorçage (après l'allumage du système, mais avant le démarrage du système d'exploitation) à un système d'exploitation, comme Windows ou Linux. UEFI fournit une interface « propre » entre les systèmes d'exploitation et le micrologiciel de plateforme lors de l'amorçage, et prend en charge un mécanisme indépendant de l'architecture pour l'initialisation des cartes d'extension. unified extensible firmware interface Voir UEFI. trames étendues Grandes trames IP utilisées dans les réseaux haute performance pour augmenter les performances sur de longues distances. Les trames étendues correspondent généralement à 9 000 octets pour Gigabit Ethernet, mais peuvent se référer à tout ce qui dépasse la MTU IP, qui est égale à 1 500 octets sur un réseau Ethernet. user datagram protocol Voir UDP. VF Fonction virtuelle. VI Interface virtuelle. Système d'accès mémoire direct à distance sur Fibre Channel et autres protocoles de communication. Utilisé pour les clusters et les messages. transmission control protocol Voir TCP. transmission control protocol/Internet protocol Voir TCP/IP. VLAN Réseau logique virtuel. Groupe d'hôtes dotés d'un ensemble commun d'exigences qui communiquent comme s'ils étaient attachés au même câble, quel que soit leur emplacement physique. Bien qu'un VLAN ait les mêmes attributs qu'un LAN physique, il permet de regrouper des stations finales même si celles-ci ne sont pas situées sur le même segment de LAN. Les VLAN permettent de reconfigurer le réseau via un logiciel, au lieu de déplacer physiquement les périphériques. type-length-value Voir TLV. UDP User datagram protocol. Protocole de transport sans connexion qui n'offre aucune garantie de séquence ou livraison des paquets. Il fonctionne directement sur IP. 278 AH0054602-02 F Guide d’utilisation—Adaptateurs réseau convergents série 41xxx VM Machine virtuelle. Mise en œuvre logicielle d'une machine (ordinateur) qui exécute des programmes comme une machine réelle. wake on LAN Voir WoL. WoL Wake on LAN. Norme de réseau informatique Ethernet qui permet à un ordinateur d'être allumé ou réveillé à distance par un message réseau envoyé généralement par un simple programme exécuté sur un autre ordinateur du réseau. 279 AH0054602-02 F Siège social Cavium, Inc. 2315 N. First Street San Jose, CA 95131 408-943-7100 Bureaux internationaux Royaume-Uni | Irlande | Allemagne | France | Inde | Japon | Chine | Hong Kong | Singapour | Taïwan | Israël Copyright © 2017, 2018 Cavium, Inc. Tous droits réservés dans le monde entier. QLogic Corporation est une filiale à part entière de Cavium, Inc. Cavium, FastLinQ, QConvergeConsole, QLogic et SmartAN sont des marques déposées de Cavium, Inc. Tous les autres noms de marque et de produit sont des marques commerciales ou des marques déposées de leurs propriétaires respectifs. Ce document est fourni uniquement à titre informatif et peut contenir des erreurs. Cavium se réserve le droit de modifier ce document ou la conception ou les spécifications du produit sans avis préalable. Cavium rejette toute garantie de quelque sorte que ce soit, expresse ou implicite, et ne garantit pas que vous obtiendrez un quelconque résultat ou performance décrit dans ce document. Toutes les déclarations concernant les futures direction et intention de Cavium sont sujettes à modification ou annulation sans préavis et ne représentent que des buts et objectifs.