▼
Scroll to page 2
of
196
Guide d’utilisation Adaptateur Ethernet intelligent QL45212 BC0154503-02 F Renseignements de tiers fournis gracieusement par Dell EMC. Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Historique de révision du document Révision A, dimanche 11 janvier 2015 Révision B, mardi 19 avril 2016 Révision C, vendredi 27 janvier 2017 Révision D, jeudi 24 août 2017 Révision E, mercredi 31 janvier 2018 Révision F, jeudi 19 avril 2018 Modifications Sections touchées Mise à jour des exemples concernant les conventions de documents. « Conventions de la documentation » à la page xiii Suppression des sections obsolètes QLogic Contrats de licence et Garantie. Préface Dans Tableau 3-5, ajout d'une note de bas de page : « Des pilotes ESXi supplémentaires pourraient être disponibles après la publication de ce guide d’utilisation. Pour plus d'informations, reportez-vous aux « Notes de mise à jour ». « Pilotes et paquets de pilotes VMware » à la page 28 Dans le Tableau 6-1 : « Systèmes d'exploitation pris en charge et OFED » à la page 56 Mise à jour des valeurs d’OED pour Windows Server et VMware ESXi. Ajout d'une ligne pour VMware ESXi 6.7. Suppression de la note de bas de page, « Le pilote RoCE certifié n’est pas inclus dans cette version. Le pilote non certifié est disponible dans le cadre d'un aperçu anticipé. » Ajout d’une nouvelle procédure d’affichage des compteurs Cavium RDMA pour RoCE sous Windows. « Affichage des compteurs RDMA » à la page 63 Ajout d'informations de configuration d’iSER pour VMware ESXi 6.7. « Configuration d’iSER sous ESXi 6.7 » à la page 93 ii BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 « Configuration de SR-IOV sous VMware » à la page 111 Dans la procédure Configuration de SR-IOV sur VMware, réorganisation de certaines étapes : Déplacement de l’étape « Validation des VF par port, émission de la commande esxcli après l’étape « Remplir la boîte de dialogue Modifier les paramètres... ». Déplacement de l’étape « Mise sous tension de la VM... » après l’étape « Installation des pilotes QLogic pour les adaptateurs détectés... » Dans Tableau B-2, ajout d’autres commutateurs testés. « Commutateurs testés » à la page 166 iii BC0154503-02 F Table des matières Préface Produits pris en charge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Public visé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ce que ce guide comprend . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conventions de la documentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Avis légaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sécurité relative au laser – Avis de la FDA . . . . . . . . . . . . . . . . . . . . . Homologation d'organisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exigences EMI et EMC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . KCC : Classe A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VCCI : Classe A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conformité sécurité du produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Présentation du produit Description fonctionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fonctionnalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fonctionnalités spécifiques du Dell QL45212 . . . . . . . . . . . . . . . . . . . Fréquence d'interruption adaptative . . . . . . . . . . . . . . . . . . . . . . ASIC avec processeur RISC intégré . . . . . . . . . . . . . . . . . . . . . Spécifications de l'adaptateur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Caractéristiques physiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Spécifications de normes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1 1 3 3 3 3 3 3 Installation du matériel Configuration système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mesures de sécurité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Liste de vérification de préinstallation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 xii xii xii xiii xvi xvi xvi xvi xvii xviii xviii 5 6 7 7 Installation des pilotes Installation du logiciel pilote pour Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv 9 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Installation des pilotes Linux sans RDMA . . . . . . . . . . . . . . . . . . . . . . Suppression des pilotes Linux . . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes Linux à l'aide du paquet RPM src. . . . . . Installation des pilotes Linux à l'aide du paquet RPM kmp/kmod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes Linux à l'aide du fichier TAR . . . . . . . . . . Installation des pilotes Linux avec RDMA . . . . . . . . . . . . . . . . . . . . . . Paramètres facultatifs des pilotes Linux . . . . . . . . . . . . . . . . . . . . . . . Paramètres de fonctionnement par défaut des pilotes Linux . . . . . . . Messages des pilotes Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation du logiciel pilote pour Windows . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes Windows . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exécution du DUP dans l'IUG. . . . . . . . . . . . . . . . . . . . . . . . . . . Options d'installation de DUP . . . . . . . . . . . . . . . . . . . . . . . . . . . Exemples d'installation de DUP . . . . . . . . . . . . . . . . . . . . . . . . . Suppression des pilotes Windows. . . . . . . . . . . . . . . . . . . . . . . . . . . . Gestion des propriétés de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . Définition des options de gestion de l'alimentation . . . . . . . . . . . . . . . Installation du logiciel pilote pour VMware . . . . . . . . . . . . . . . . . . . . . . . . . . Pilotes et paquets de pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . Installation des pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Paramètres facultatifs des pilotes VMware . . . . . . . . . . . . . . . . . . . . . Paramètres par défaut des pilotes VMware . . . . . . . . . . . . . . . . . . . . Suppression du pilote VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 14 14 15 16 17 17 17 18 18 18 24 25 25 25 27 27 28 29 31 33 33 Mise à niveau du micrologiciel Exécution du DUP en double-cliquant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exécution du DUP depuis une ligne de commande . . . . . . . . . . . . . . . . . . . Exécution du DUP à l'aide du fichier .bin . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 11 11 13 34 38 39 Configuration de prédémarrage de l'adaptateur Mise en route . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Affichage des propriétés d'image du micrologiciel . . . . . . . . . . . . . . . . . . . . Configuration des paramètres au niveau du périphérique . . . . . . . . . . . . . . Configuration des paramètres NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de Data Center Bridging . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des partitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v 42 45 46 47 50 52 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 6 Configuration de RoCE Systèmes d'exploitation pris en charge et OFED . . . . . . . . . . . . . . . . . . . . . Planification pour RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préparation de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préparation du commutateur Ethernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du commutateur Ethernet Cisco Nexus 6000 . . . . . . . . Configuration du commutateur Ethernet Dell Z9100 . . . . . . . . . . . . . . Configuration de RoCE sur l'adaptateur pour Windows Server . . . . . . . . . . Affichage des compteurs RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de RoCE sur l'adaptateur pour Linux . . . . . . . . . . . . . . . . . . . Configuration de RoCE pour RHEL. . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de RoCE pour SLES . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de la configuration RoCE sous Linux . . . . . . . . . . . . . . . . Interfaces VLAN et valeurs d'index GID . . . . . . . . . . . . . . . . . . . . . . . Configuration de RoCE v2 pour Linux . . . . . . . . . . . . . . . . . . . . . . . . . Identification de l'index GID de RoCE v2 ou de l'adresse . . . . . Vérification de l'adresse et de l'index GID de RoCE v1 ou v2 à partir des paramètres sys et class. . . . . . . . . . . . . . . . . . . . . Vérification de la fonctionnalité de RoCE v1 ou v2 par les applications perftest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de RoCE sur l'adaptateur pour VMware ESX . . . . . . . . . . . . Configuration des interfaces RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du MTU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mode RoCE et statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d'un périphérique RDMA paravirtuel (PVRDMA) . . . . . 7 56 57 58 58 59 60 60 63 70 70 71 71 74 74 75 75 76 80 80 82 82 83 Configuration d'iSER Avant de commencer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d'iSER pour RHEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d'iSER pour SLES 12. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Optimisation des performances Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des UC sur le mode Performances maximales. . . . . . . Configuration des paramètres sysctl du noyau . . . . . . . . . . . . . . . . . . Configuration des paramètres d'affinité d'IRQ . . . . . . . . . . . . . . . . . . . Configuration de la préparation de périphériques de traitement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d’iSER sous ESXi 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Avant de commencer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration d’iSER pour ESXi 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . . vi 87 88 91 92 92 92 93 93 93 93 94 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 8 Configuration de SR-IOV Configuration de SR-IOV sous Windows . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de SR-IOV sous Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de SR-IOV sous VMware. . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 97 104 111 Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V . . . . . . . . . . . . . . . . . . . . Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout d'un ID VLAN à une NIC virtuelle hôte . . . . . . . . . . . . . . . . . . . . Vérification de l'activation de RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout de NIC virtuelles hôtes (ports virtuels) . . . . . . . . . . . . . . . . . . . . Mappage du lecteur SMB et exécution du trafic RoCE . . . . . . . . . . . . RoCE sur Switch Embedded Teaming . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation de RDMA sur SET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Attribution d'un ID VLAN sur SET . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exécution du trafic RDMA sur SET . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de QoS pour RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de QoS en désactivant DCBX sur l'adaptateur . . . . . . . Configuration de QoS en activant DCBX sur l'adaptateur . . . . . . . . . . Configuration de VMMQ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation de VMMQ sur l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . Configuration du port virtuel par défaut et non par défaut de paires de files d'attente (QP) max VMMQ . . . . . . . . . . . . . . . . . . . . . . . . . . Création d'un commutateur de machine virtuelle avec ou sans SR-IOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation de VMMQ sur le commutateur de machine virtuelle . . . . . . Obtention de la fonction de commutateur de machine virtuelle. . . . . . Création d'une machine virtuelle et activation de VMMQ sur les VMNetworkadapters dans la VM. . . . . . . . . . . . . . . . . . . . . . . . . . . . NIC virtuelle VMMQ par défaut et maximum . . . . . . . . . . . . . . . . . . . . Activation et désactivation de VMMQ sur une NIC de gestion . . . . . . Surveillance des statistiques de trafic . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de VXLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation du déchargement VXLAN sur l'adaptateur . . . . . . . . . . . . . Déploiement d'un réseau défini par logiciel . . . . . . . . . . . . . . . . . . . . . Configuration des Espaces de stockage direct . . . . . . . . . . . . . . . . . . . . . . Configuration du matériel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii 116 117 118 119 120 120 122 123 123 123 124 124 124 129 132 133 133 134 136 136 137 138 138 139 139 139 140 140 140 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Déploiement d'un système hyper-convergé . . . . . . . . . . . . . . . . . . . . Déploiement du système d'exploitation . . . . . . . . . . . . . . . . . . . Configuration du réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des Espaces de stockage direct. . . . . . . . . . . . . . Déploiement et gestion de Nano Server . . . . . . . . . . . . . . . . . . . . . . . . . . . Rôles et fonctionnalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Déploiement de Nano Server sur un serveur physique. . . . . . . . . . . . Déploiement de Nano Server sur une machine virtuelle . . . . . . . . . . . Gestion à distance de Nano Server. . . . . . . . . . . . . . . . . . . . . . . . . . . Gestion de Nano Server avec l'accès à distance Windows PowerShell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout de Nano Server à une liste d'hôtes de confiance . . . . . . . Démarrer la session Windows PowerShell à distance . . . . . . . . Gestion des adaptateurs QLogic sur Windows Nano Server . . . . . . . Configuration de RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 153 153 154 154 154 Dépannage Liste de vérification pour le dépannage . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification du chargement des pilotes à jour . . . . . . . . . . . . . . . . . . . . . . . Vérification des pilotes dans Windows . . . . . . . . . . . . . . . . . . . . . . . . Vérification des pilotes dans Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification des pilotes dans VMware . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de la connectivité du réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . Test de la connectivité réseau pour Windows . . . . . . . . . . . . . . . . . . . Test de la connectivité réseau pour Linux . . . . . . . . . . . . . . . . . . . . . . Virtualisation Microsoft avec Hyper-V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Problèmes propres à Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Problèmes divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Collecte des données de débogage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A Voyants de l'adaptateur B Câbles et modules optiques Spécifications prises en charge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Câbles et modules optiques testés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commutateurs testés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . C 141 141 141 144 147 147 148 151 153 158 159 159 159 160 160 160 161 161 161 162 162 164 165 166 Configuration du commutateur Dell Z9100 Glossaire viii BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Liste des Figures Figure Page 3-1 Fenêtre Dell Update Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3-2 Assistant QLogic InstallShield : Fenêtre de bienvenue . . . . . . . . . . . . . . . . . . . . . . 19 3-3 Assistant QLogic InstallShield : Fenêtre de contrat de licence . . . . . . . . . . . . . . . . 20 3-4 Assistant InstallShield : Fenêtre de type d'installation . . . . . . . . . . . . . . . . . . . . . . . 21 3-5 Assistant InstallShield : Fenêtre d'installation personnalisée. . . . . . . . . . . . . . . . . . 22 3-6 Assistant InstallShield : Fenêtre Prêt à installer le programme . . . . . . . . . . . . . . . . 22 3-7 Assistant InstallShield : Fenêtre Terminé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3-8 Fenêtre Dell Update Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3-9 Configuration des propriétés d'adaptateur avancées. . . . . . . . . . . . . . . . . . . . . . . . 26 3-10 Options de gestion de l'alimentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 4-1 Progiciel de mise à jour Dell : Écran de démarrage. . . . . . . . . . . . . . . . . . . . . . . . . 35 4-2 Progiciel de mise à jour Dell : Continuer la mise à jour . . . . . . . . . . . . . . . . . . . . . . 36 4-3 Progiciel de mise à jour Dell : Chargement du nouveau micrologiciel . . . . . . . . . . . 37 4-4 Progiciel de mise à jour Dell : Résultats de l'installation . . . . . . . . . . . . . . . . . . . . . 37 4-5 Progiciel de mise à jour Dell : Terminer l'installation . . . . . . . . . . . . . . . . . . . . . . . . 38 4-6 Options de ligne de commande du DUP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 5-1 Configuration du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 5-2 Configuration du système : Paramètres des périphériques . . . . . . . . . . . . . . . . . . . 42 5-3 Page de configuration principale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5-4 Page Configuration principale, configuration du mode de partitionnement en NPAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5-5 Page Configuration principale, configuration du mode de partitionnement NPAR . . . 44 5-6 Propriétés de l'image du micrologiciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 5-7 Configuration du système : Page Configuration au niveau du périphérique . . . . . . 46 5-8 Configuration NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 5-9 Configuration du système : Paramètres Data Center Bridging (DCB) . . . . . . . . . . . 51 5-10 Configuration des partitions NIC, allocation de bande passante globale . . . . . . . . . 52 5-11 Allocation de bande passante globale, configuration de la partition 1 . . . . . . . . . . . 53 5-12 Page Allocation de bande passante globale : Mode NPAReP activé . . . . . . . . . . . 53 5-13 Configuration de la partition 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5-14 Configuration de la partition 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 6-1 Configuration des propriétés RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6-2 Boîte de dialogue Ajouter des compteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 6-3 Performance Monitor : Compteurs FastLinQ Cavium . . . . . . . . . . . . . . . . . . . . . . . 65 6-4 Paramètres de commutateur, serveur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 6-5 Paramètres de commutateur, client . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 6-6 Configuration des applications RDMA_CM : Serveur . . . . . . . . . . . . . . . . . . . . . . . 79 6-7 Configuration des applications RDMA_CM : Client . . . . . . . . . . . . . . . . . . . . . . . . . 80 6-8 Configuration d'un nouveau commutateur distribué. . . . . . . . . . . . . . . . . . . . . . . . . 84 6-9 Assignation d'un vmknic pour un PVRDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 6-10 Définition de la règle de pare-feu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 7-1 Ping RDMA réussi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 7-2 Instances de portail iSER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 ix BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 7-3 7-4 8-1 8-2 8-3 8-4 8-5 8-6 8-7 8-8 8-9 8-10 8-11 8-12 8-13 8-14 8-15 9-1 9-2 9-3 9-4 9-5 9-6 9-7 9-8 9-9 9-10 9-11 9-12 9-13 9-14 9-15 9-16 9-17 9-18 9-19 9-20 9-21 9-22 Vérification de Iface Transport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de nouveau périphérique iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration système pour SR-IOV : Périphériques intégrés . . . . . . . . . . . . . . . . . Configuration système pour SR-IOV : Configuration au niveau du périphérique . . . Propriétés de l'adaptateur, Avancé : Activation de SR-IOV . . . . . . . . . . . . . . . . . . . Gestionnaire de commutateur virtuel : Activation de SR-IOV . . . . . . . . . . . . . . . . . Paramètres de la VM : Activation de SR-IOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gestion de périphériques : VM avec adaptateur QLogic . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetadapterSriovVf . . . . . . . . . . . . . . . . . . Configuration du système : Paramètres du processeur pour SR-IOV . . . . . . . . . . . Configuration système pour SR-IOV : Périphériques intégrés . . . . . . . . . . . . . . . . . Modification du fichier grub.conf pour SR-IOV. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sortie de commande pour sriov_numvfs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sortie de la commande ip link show. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Machine virtuelle RHEL 68. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajouter un nouveau matériel virtuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Paramètres de modification de l'hôte VMware. . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation de RDMA dans la NIC virtuelle hôte . . . . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés de la carte Ethernet virtuelle Hyper-V. . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-VMNetworkAdapter. . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . Boîte de dialogue Ajouter des compteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Performance Monitor affiche le trafic RoCE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : New-VMSwitch . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapter . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Activer QoS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Configuration d'ID VLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Activation de QoS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Configuration d'ID VLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Activation de RSS de commutateur virtuel. . . . . . . . . . . . . . Gestionnaire de commutateur virtuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-VMSwitch . . . . . . . . . . . . . . . . . . . . . . . . . Propriétés avancées : Activation de VXLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exemple de configuration matérielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapter . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : New-Item . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : New-SMBShare . . . . . . . . . . . . . . . . . . . . . . . . Commande Windows PowerShell : Get-NetAdapterStatistics . . . . . . . . . . . . . . . . . x 90 91 98 98 99 100 102 103 103 105 106 107 108 109 110 111 114 117 118 119 119 121 122 123 123 125 126 130 131 133 135 136 139 140 155 155 156 156 157 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Liste des Tableaux Tableau Page 2-1 Exigences matérielles de l'hôte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2-2 Configuration minimale requise du système d'exploitation hôte . . . . . . . . . . . . . . . 6 3-1 Pilotes Linux des adaptateurs QLogic QL45212 . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 3-2 Paramètres facultatifs du pilote qede. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 3-3 Paramètres de fonctionnement par défaut des pilotes Linux . . . . . . . . . . . . . . . . . . 17 3-4 Pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 3-5 Paquets de pilotes ESXi par version . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3-6 Paramètres facultatifs des pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3-7 Paramètres par défaut des pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 5-1 Propriétés de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 6-1 Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED . . . . . . . . . . . . 56 6-2 Propriétés avancées pour RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 6-3 Compteurs d’erreurs FastLinQ RDMA Cavium . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 9-1 Rôles et fonctionnalités de Nano Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 10-1 Commandes de collecte des données de débogage . . . . . . . . . . . . . . . . . . . . . . . . 162 A-1 Voyants de liaison et d'activité de port de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . 163 B-1 Câbles et modules optiques testés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 B-2 Commutateurs testés pour l'interopérabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 xi BC0154503-02 F Préface Cette préface énumère les produits pris en charge, spécifie le public visé, explique les conventions typographiques utilisées dans ce guide et décrit les avis légaux. Produits pris en charge Ce guide d'utilisation décrit l'installation, la configuration et la gestion de l'adaptateur Ethernet intelligent Cavium™ QL45212 25 Gb (QL45212HLCU-DE, support hauteur standard). Public visé Ce guide est destiné aux administrateurs système et autres membres du personnel technique responsables de la configuration et de la gestion des adaptateurs installés sur des serveurs Dell® PowerEdge® dans des environnements Windows®, Linux® ou VMware®. Ce que ce guide comprend Après cette préface, le reste de ce guide comprend les chapitres et annexes suivants : Le Chapitre 1 Présentation du produit présente une description fonctionnelle du produit, la liste des fonctionnalités, et les spécifications de l'adaptateur. Le Chapitre 2 Installation du matériel décrit l'installation de l'adaptateur et inclut notamment la liste des exigences système et une liste de vérification de préinstallation. Le Chapitre 3 Installation des pilotes décrit l'installation des pilotes de l'adaptateur sur Windows, Linux et VMware. Le Chapitre 4 Mise à niveau du micrologiciel décrit comment utiliser le progiciel de mise à jour Dell (DUP) pour mettre à niveau le micrologiciel de l'adaptateur. Le Chapitre 5 Configuration de prédémarrage de l'adaptateur décrit les tâches de configuration de l'adaptateur de préamorçage à l'aide de l'application Human Infrastructure Interface (HII). xii BC0154503-02 F Préface Conventions de la documentation Le Chapitre 6 Configuration de RoCE explique comment configurer l'adaptateur, le commutateur Ethernet et l'hôte afin d'utiliser RDMA over converged Ethernet (RoCE). Le Chapitre 7 Configuration d'iSER explique comment configurer les extensions iSCSI pour RDMA (iSER) pour Linux RHEL et SLES. Le Chapitre 8 Configuration de SR-IOV fournit les procédures pour configurer single root input/output virtualization (SR-IOV) sur les systèmes Windows, Linux et VMware. Le Chapitre 9 Windows Server 2016 décrit les fonctionnalités de Windows Server 2016. Le Chapitre 10 Dépannage décrit diverses procédures et ressources de dépannage. L'Annexe A Voyants de l'adaptateur énumère les voyants de l'adaptateur et leur signification. L'Annexe B Câbles et modules optiques énumère les câbles et les modules optiques pris en charge par les adaptateurs QL45212. L'Annexe C Configuration du commutateur Dell Z9100 décrit la configuration du port de commutateur Dell Z9100 pour 25 Gbits/s. À la fin de ce guide, vous trouverez un glossaire. Conventions de la documentation Ce guide utilise les conventions de documentation suivantes : REMARQUE fournit des informations supplémentaires. PRÉCAUTION sans symbole d'alerte indique la présence d'un risque d'endommagement de l'équipement ou de perte de données. ! PRÉCAUTION avec symbole d'alerte indique la présence d'un danger pouvant provoquer des blessures légères ou modérées. ! AVERTISSEMENT indique la présence d'un danger pouvant entraîner des blessures graves, voire la mort. Le texte en bleu indique un lien hypertexte vers une figure, un tableau ou une section de ce guide ; les liens vers les sites Web apparaissent soulignés en bleu. Par exemple : Tableau 9-2 répertorie les problèmes relatifs à l'interface utilisateur et à l'agent distant. Voir « Liste de vérification de l'installation » à la page 6. xiii BC0154503-02 F Préface Conventions de la documentation Pour plus d'informations, rendez vous sur www.cavium.com. Le texte en gras indique les éléments de l'interface utilisateur comme les options de menu, les boutons, les cases à cocher ou les en-têtes de colonne. Par exemple : Cliquez sur le bouton Démarrer, pointez sur Programmes, pointez sur Accessoires, puis cliquez sur Invite de commande. Sous Options de notification, cochez la case Alarmes d'avertissement. Le texte en police Courier indique un nom de fichier, un chemin d'accès à un répertoire, ou un texte de ligne de commande. Par exemple : Pour revenir vers le répertoire racine à partir de n'importe où dans la structure de fichiers : Entrez cd /root, puis appuyez sur ENTRÉE. Utilisez la commande suivante : sh ./install.bin. Les noms et les séquences de touches sont indiqués en MAJUSCULES : Appuyez sur CTRL+P. Appuyez sur la touche FLÈCHE HAUT. Le texte en italique indique des termes, des emphases, des variables ou des titres de document. Par exemple : Que sont les touches de raccourci ? Pour saisir le type de date mm/jj/aaaa (où mm est le mois, jj est le jour et aaaa est l'année). Les titres des rubriques entre guillemets identifient les rubriques connexes qui figurent dans ce manuel ou dans l'aide en ligne, également appelée le système d'aide dans ce document. Voici les conventions de syntaxe de commande de l'interface de ligne de commande (CLI) : Le texte brut indique les éléments que vous devez taper comme indiqué. Par exemple : qaucli -pr nic -ei < > (Crochets angulaires) indiquent une variable dont vous devez spécifier la valeur. Par exemple : <serial_number> xiv BC0154503-02 F Préface Conventions de la documentation REMARQUE Pour les commandes de l'interface CLI uniquement, les noms des variables sont toujours indiqués en utilisant des crochets angulaires au lieu de l'italique. [ ] (Crochets) indiquent un paramètre facultatif. Par exemple : [<file_name>] signifie spécifier un nom de fichier, ou l'omettre pour sélectionner le nom de fichier par défaut. | (Barre verticale) indique les options mutuellement exclusives ; sélectionnez une seule option. Par exemple : on|off 1|2|3|4 ... (Points de suspension) indiquent que l'élément précédent peut être répété. Par exemple : x... signifie une ou plusieurs instances de x. [x...] signifie zéro ou plusieurs instances de x. Des points de suspension verticaux, dans le cadre d'un exemple de sortie de commande, indiquent où des parties de données de sortie répétées ont été volontairement omises. ( ) (Parenthèses) et { } (Accolades) sont utilisés pour éviter toute ambiguïté logique. Par exemple : a|b c est ambigu {(a|b) c} signifie a ou b, suivi de c {a|(b c)} signifie a, ou b c xv BC0154503-02 F Préface Avis légaux Avis légaux Les avis légaux inclus dans cette section comprennent la sécurité relative au laser (avis de la FDA), l'homologation d'organisme et la conformité en matière de sécurité du produit. Sécurité relative au laser – Avis de la FDA Ce produit est conforme aux règles DHHS 21CFR Chapitre I, Sous-chapitre J. Ce produit a été conçu et fabriqué selon la norme IEC60825-1 indiquée sur l'étiquette de sécurité du produit laser. PRODUIT LASER DE CLASSE I Class 1 Laser Product Caution—Class 1 laser radiation when open Do not view directly with optical instruments Appareil laser de classe 1 Attention—radiation laser de classe 1 Ne pas regarder directement avec des instruments optiques Produkt der Laser Klasse 1 Vorsicht—Laserstrahlung der Klasse 1 bei geöffneter Abdeckung Direktes Ansehen mit optischen Instrumenten vermeiden Luokan 1 Laserlaite Varoitus—Luokan 1 lasersäteilyä, kun laite on auki Älä katso suoraan laitteeseen käyttämällä optisia instrumenttej Homologation d'organisme Les sections suivantes contiennent un récapitulatif des spécifications des tests EMI/EMC réalisés sur les adaptateurs QL45212 garantissant une conformité aux normes d'émission, d'immunité et de sécurité du produit : Exigences EMI et EMC Conformité à l'alinéa 15 de la FCC : Classe A Déclaration de conformité FCC : Cet appareil est conforme à la section 15 des règlements FCC. Son fonctionnement est soumis aux deux conditions suivantes : (1) ce périphérique ne doit pas provoquer d'interférences nuisibles et (2) ce périphérique doit accepter toute interférence reçue, y compris les interférences pouvant altérer son fonctionnement. Conformité ICES-003 : Classe A This Class A digital apparatus complies with Canadian ICES-003. Cet appareil numérique de la classe A est conforme à la norme NMB-003 du Canada. Conformité à la directive EMC 2014/30/UE, 2014/35/UE, marque CE : EN55032:2012/ CISPR 32:2015 Classe A xvi BC0154503-02 F Préface Avis légaux EN55024:2010 EN61000-3-2: Émission de courant harmonique EN61000-3-3 : Fluctuations et inégalités de tension Normes d'immunité EN61000-4-2 : Décharges électrostatiques EN61000-4-3 : Rayonnements électromagnétiques EN61000-4-4 : Transitoires rapides en salves EN61000-4-5 : Onde de choc EN61000-4-6 : Injection de courant HF EN61000-4-8 : Champ magnétique de fréquence industrielle EN61000-4-11 : Creux et variations de tension VCCI : 2015-04 ; Classe A AS/NZS ; CISPR 32 : 2015 Classe A CNS 13438 : 2006 Classe A KCC : Classe A Korea RRA Certifié classe A Nom/Modèle du produit : Adaptateurs réseau convergents et Adaptateurs Ethernet intelligents Titulaire : QLogic Corporation Date de fabrication : Voir le code de date indiqué sur le produit Fabricant/Pays d'origine : QLogic Corporation / États-Unis Équipement de classe A (Équipement de télécommunication/ informatique à usage professionnel) Cet équipement ayant subi un enregistrement EMC pour un usage professionnel, le vendeur et/ou l'acheteur sont priés de veiller à ce point. En cas de vente ou d'achat illicite, il conviendra de passer à un usage domestique. Format de langue coréenne - Classe A xvii BC0154503-02 F Préface Avis légaux VCCI : Classe A Ceci est un produit de Classe A sur la base de la norme du Conseil de contrôle volontaire des interférences (Voluntary Control Council for Interference - VCCI). Si cet équipement est utilisé dans un environnement local, des interférences radio peuvent se produire, auquel cas l'utilisateur peut être amené à prendre des mesures correctives. Conformité sécurité du produit Sécurité du produit UL, cUL : UL 60950-1 (2ème édition) A1 + A2 2014-10-14 CSA C22.2 No.60950-1-07 (2ème édition) A1 +A2 2014-10 Utiliser uniquement avec équipement informatique ou équivalent. Conforme à 21 CFR 1040.10 et 1040.11, 2014/30/UE, 2014/35/UE. Directive basse tension 2006/95/EC : TUV EN60950-1:2006+A11+A1+A12+A2 2ème édition TUV IEC 60950-1 : 2005 2ème édition Am1 : 2009 + Am2 : 2013 CB Certifié CB selon IEC 60950-1 2e édition xviii BC0154503-02 F 1 Présentation du produit Ce chapitre fournit les informations suivantes concernant les adaptateurs QL45212 : Description fonctionnelle Fonctionnalités « Spécifications de l'adaptateur » à la page 3 Description fonctionnelle L'adaptateur Cavium QL45212 est un adaptateur Ethernet intelligent 25 Gb conçu pour la mise en réseau accélérée des données des systèmes Dell PowerEdge. L'adaptateur QL45212 comprend un MAC Ethernet 25 Gb doté de fonctionnalité duplex intégral. Fonctionnalités L'adaptateur QL45212 fournit les fonctions suivantes : Partitionnement de carte réseau (NPAR) Solution monopuce : MAC 25 Gb Interface SerDes pour connexion d'émetteur-récepteur DAC (direct attach copper) PCIe® 3.0 x8 Matériel à capacité zéro copie Fonctionnalités liées aux performances : Déchargements de somme de contrôle TCP, IP, UDP Déchargement de segmentation TCP (TSO) Déchargement de grands segments (Large Segment offload - LSO) Déchargement de segments génériques (Generic segment offload - GSO) Grand déchargement de réception (Large Receive Offload – LRO) 1 BC0154503-02 F 1–Présentation du produit Fonctionnalités Regroupement de segments de réception (Receive segment coalescing - RSC) File d'attente de machine virtuelle (VMQ) dynamique, files d'attente multiples de machine virtuelle (VMMQ) Microsoft®, et files d'attente multiples Linux Interruptions adaptives : Extensibilité en émission/réception (TSS/RSS) Déchargements sans état pour la virtualisation réseau utilisant l'encapsulation de routage générique (NVGRE) et le trafic de tunnels GRE L2/L3 de LAN virtuel (VXLAN)1 Gérabilité : Contrôleur de bus de gestion système (SMB) Conforme à Advanced Configuration and Power Interface (ACPI) 1.1a (plusieurs modes d'alimentation) Prise en charge de l'interface de bande latérale de contrôleur réseau (NC-SI) Fonctions réseau avancées : Trames étendues (jusqu'à 9 600 octets). Le système d'exploitation et le partenaire de liaison doivent prendre en charge les trames étendues. Réseaux locaux virtuels (VLAN) Contrôle du flux (IEEE Std 802.3X) Commande de liaison logique (norme 802.2 de l'IEEE) Processeur RISC (Ordinateur à jeu d'instructions réduit) sur puce haute vitesse Mémoire tampon à trame de 96 Ko intégrée (ne s'applique pas à tous les modèles) 1 024 filtres de classification (ne s'applique pas à tous les modèles) Prise en charge d'adresses multi-diffusion via une fonction matérielle d'adressage calculé à 128 bits Mémoire NVRAM flash série Interface de gestion de l'alimentation PCI (v1.1) Prise en charge de BAR (base address register) 64 bits Prise en charge du processeur EM64T Prise en charge du démarrage iSCSI et FCoE2 1 Cette fonctionnalité exige la prise en charge du système d'exploitation ou de l'hyperviseur, afin d'utiliser les déchargements. 2 La limite de prise en charge matérielle de VF dans SR-IOV varie. La limite peut être inférieure dans certains environnements de SE ; reportez-vous à la section correspondante à votre système d'exploitation. 2 BC0154503-02 F 1–Présentation du produit Spécifications de l'adaptateur Fonctionnalités spécifiques du Dell QL45212 Les fonctionnalités propres à l'adaptateur Ethernet intelligent Dell QL45212 comprennent la fréquence d'interruption adaptative et l'ASIC avec processeur RISC intégré. Fréquence d'interruption adaptative Le pilote de l'adaptateur règle intelligemment la fréquence d'interruption de l'hôte en fonction des conditions d'écoulement du trafic, de façon à augmenter le débit global de l'application. Lorsque le trafic est faible, le pilote de l'adaptateur interrompt le serveur pour chaque paquet reçu, afin de réduire la latence. Lorsque le trafic est important, la carte émet une interruption du serveur pour plusieurs paquets entrants consécutifs, afin de préserver les cycles de l'unité centrale hôte. ASIC avec processeur RISC intégré La fonction principale de l'adaptateur QL45212 réside dans un ASIC hautes performances étroitement intégré. ASIC inclut un processeur RISC, ce qui offre la possibilité d'ajouter de nouvelles fonctionnalités à l'adaptateur et de l'adapter aux exigences ultérieures du réseau via des téléchargements logiciels. Le processeur RISC permet également aux pilotes de l'adaptateur d'exploiter les fonctions de déchargement d'hôte intégrées à l'adaptateur, étant donné que les systèmes d'exploitation hôtes sont optimisés pour tirer parti de ces fonctions. Spécifications de l'adaptateur Les spécifications de l'adaptateur QL45212 comprennent les caractéristiques physiques de l'adaptateur et les références de conformité aux normes. Caractéristiques physiques Les adaptateurs QL45212 sont des cartes PCIe standard et sont livrés avec un support pleine hauteur ou compact à utiliser dans un logement PCIe standard. Spécifications de normes Les spécifications des normes prises en charge comprennent : Spécification de base PCI Express, rév. 3.1 Spécification électromécanique de carte PCI Express, rév. 3.0 Spécification d'interface de gestion de l'alimentation du bus PCI, rév. 1.2 Spécifications des normes IEEE : 802.3-2015 Norme de l'IEEE pour Ethernet (contrôle de flux) 802.1q (VLAN) 802.1AX (Agrégation de liaisons) 3 BC0154503-02 F 1–Présentation du produit Spécifications de l'adaptateur 802.1ad (QinQ) 802.1p (Codage basé sur les priorités) 1588-2002 PTPv1 (Precision Time Protocol) 1588-2008 PTPv2 IEEE 802.3az Energy Efficient Ethernet (EEE) IPv4 (RFQ 791) IPv6 (RFC 2460) 4 BC0154503-02 F 2 Installation du matériel Ce chapitre fournit les informations suivantes concernant l'installation du matériel : Configuration système « Mesures de sécurité » à la page 6 « Liste de vérification de préinstallation » à la page 7 « Installation de l'adaptateur » à la page 7 Configuration système Avant d'installer un adaptateur QL45212 Cavium, vérifiez que votre système répond aux exigences en matière de matériel et de système d'exploitation affichées dans le Tableau 2-1 et le Tableau 2-2. Pour obtenir une liste complète des systèmes d’exploitation pris en charge, consultez le site Web de Cavium. Tableau 2-1. Exigences matérielles de l'hôte Matériel Exigence Architecture IA-32 ou EMT64 qui satisfait aux exigences de système d'exploitation Mémoire 8 GO de RAM (minimum) Câbles d'attache directe (DAC) Amphenol® NDDCCGF-0001 Amphenol NDAQGF-0003 Amphenol NDCCGF-0005 Leoni® ParaLink® LA0SF064-SD-R 5 BC0154503-02 F 2–Installation du matériel Mesures de sécurité Tableau 2-2. Configuration minimale requise du système d'exploitation hôte Système d'exploitation Exigence Windows Server 2012, 2012 R2, 2016 (y compris Nano) Linux RHEL® 6.8, 6.9, 7.2, 7.3, 7.4 SLES® 11 SP4, SLES 12 SP2, SLES 12 SP3 VMware ESXi 6.0 u3 et versions ultérieures pour adaptateurs 25 G REMARQUE Le Tableau 2-2 indique la configuration minimale requise du système d'exploitation hôte. Pour obtenir une liste complète des systèmes d’exploitation pris en charge, consultez le site Web de Cavium. Mesures de sécurité ! AVERTISSEMENT L'adaptateur est installé dans un système fonctionnant à une tension qui peut s'avérer mortelle. Avant d'ouvrir le capot de votre système, prenez les mesures suivantes afin de vous protéger et d'éviter tout risque de destruction des composants du système. Enlevez les objets métalliques ou les bijoux que vous portez aux mains et aux poignets. Veillez à utiliser uniquement des outils isolés ou non conducteurs. Vérifiez que le système est hors tension et que la prise est débranchée avant de toucher tout composant interne. Installez ou enlevez les adaptateurs dans un environnement exempt d'électricité statique. Le port d'un bracelet antistatique correctement relié à la terre ou de tout autre dispositif antistatique ainsi que l'utilisation d'un tapis antistatique sont vivement conseillés. 6 BC0154503-02 F 2–Installation du matériel Liste de vérification de préinstallation Liste de vérification de préinstallation Avant d'installer l'adaptateur, procédez ainsi : 1. Assurez-vous que votre système répond bien à la configuration matérielle et logicielle requise décrite dans la section « Configuration système » à la page 5. 2. Vérifiez si votre système utilise le BIOS le plus récent. REMARQUE Si vous vous êtes procuré le logiciel de l'adaptateur sur le site Web Cavium, vérifiez les chemins d'accès aux fichiers de pilote de l'adaptateur. 3. Si votre système est actif, fermez-le. 4. Une fois le système arrêté, coupez l'alimentation secteur et débranchez la prise de l'ordinateur. 5. Sortez l'adaptateur de son emballage et placez-le sur une surface exempte d'électricité statique. 6. Vérifiez que la carte ne présente aucun signe de détérioration, en particulier sur le connecteur de bord. N'essayez jamais d'installer un adaptateur endommagé. Installation de l'adaptateur Les instructions suivantes s'appliquent à l'installation des adaptateurs Cavium adaptateurs QL45212 dans la plupart des systèmes. Pour obtenir des détails sur l'exécution de ces tâches, reportez-vous aux manuels fournis avec votre système. Pour installer l'adaptateur : 1. Consultez les « Mesures de sécurité » à la page 6 et la « Liste de vérification de préinstallation » à la page 7. Avant d'installer l'adaptateur, assurez-vous que le système est hors tension, que la prise est débranchée et que vous respectez les procédures correctes de mise à la terre. 2. Ouvrez le boîtier du système et sélectionnez le logement correspondant à la taille de l'adaptateur, à savoir PCIe Gen 2 x8 ou PCIe Gen 3 x8. Un adaptateur de taille inférieure peut être placé dans un logement plus grand (x8 dans un x16), mais un adaptateur de taille supérieure ne peut pas être placé dans un logement plus petit (x8 dans un x4). Si vous ne savez pas comment identifier un logement PCIe, consultez la documentation de votre système. 3. Enlevez la platine avant nue (lame d'obturation) du logement sélectionné. 7 BC0154503-02 F 2–Installation du matériel Installation de l'adaptateur 4. Alignez le bord du connecteur de l'adaptateur sur le logement du connecteur PCIe dans le système. 5. En exerçant une pression égale sur les deux coins de l'adaptateur, enfoncez-le dans le logement jusqu'à ce qu'il soit bien positionné. Une fois l'adaptateur correctement positionné, le connecteur du port de l'adaptateur est aligné sur l'ouverture du logement et sa platine avant se trouve dans l'alignement du châssis du système. PRÉCAUTION N'exercez pas de pression excessive lorsque vous calez l'adaptateur, car vous pourriez endommager le système ou l'adaptateur. Si vous avez du mal à enfoncer l'adaptateur, retirez-le, réalignez-le et recommencez. 6. Fixez l'adaptateur avec son clip ou sa vis. 7. Refermez le boîtier du système et détachez tous les dispositifs antistatiques personnels. 8 BC0154503-02 F 3 Installation des pilotes Ce chapitre fournit les informations suivantes concernant l'installation des pilotes : Installation du logiciel pilote pour Linux « Installation du logiciel pilote pour Windows » à la page 18 « Installation du logiciel pilote pour VMware » à la page 27 Installation du logiciel pilote pour Linux Cette section décrit la manière d'installer des pilotes Linux avec ou sans accès direct à la mémoire à distance (RDMA). Elle présente également les paramètres facultatifs des pilotes Linux, leurs valeurs par défaut, leurs messages et leurs statistiques. Installation des pilotes Linux sans RDMA Installation des pilotes Linux avec RDMA Paramètres facultatifs des pilotes Linux Paramètres de fonctionnement par défaut des pilotes Linux Messages des pilotes Linux Statistiques Les pilotes Linux de l'adaptateur QL45212 et la documentation complémentaire sont disponibles sur la page de support Dell : dell.support.com Le Tableau 3-1 décrit les pilotes Linux de l'adaptateur QL45212 : Tableau 3-1. Pilotes Linux des adaptateurs QLogic QL45212 Pilote Linux qed Description Le module pilote core qed contrôle directement le micrologiciel, gère les interruptions et fournit l'API de bas niveau pour le jeu de pilotes spécifique au protocole. Le pilote qed s'interface avec les pilotes qede, qedr, qedi et qedf. Le module core Linux gère toutes les ressources de périphérique PCI (registres, files d'attente d'interface hôte, etc.). Le module core qed exige la version 2.6.32 ou ultérieure du noyau Linux. Les tests se concentrent sur l'architecture x86_64. 9 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux Tableau 3-1. Pilotes Linux des adaptateurs QLogic QL45212 (Suite) Pilote Linux Description qede Pilote Ethernet Linux pour l'adaptateur QL45212. Ce pilote contrôle directement le matériel et est responsable de l'envoi et de la réception des paquets Ethernet au nom de la pile réseau hôte Linux. Ce pilote reçoit et traite également les interruptions de périphérique, pour son propre compte (pour les réseaux L2). Le pilote qed exige la version 2.6.32 ou ultérieure du noyau Linux. Les tests se concentrent sur l'architecture x86_64. qedr Pilote RDMA over converged Ethernet (RoCE) Linux. Ce pilote fonctionne dans l'environnement OpenFabrics Enterprise Distribution (OFED™) en conjonction avec le module de base qed et le pilote Ethernet qede. Les applications d'espace utilisateur RDMA exigent également que la bibliothèque utilisateur libqedr soit installée sur le serveur. qedi Pilote de déchargement iSCSI Linux pour les adaptateurs 45xxx. Ce pilote fonctionne avec la bibliothèque Open iSCSI. qedf Pilote de déchargement FCoE Linux pour les adaptateurs 45xxx. Ce pilote fonctionne avec la bibliothèque Open FCoE. Vous pouvez installer les pilotes Linux avec un paquet RPM (Red Hat® Package Manager) source ou un paquet RPM kmod. Voici les paquets RPM RHEL : qlgc-fastlinq-<version>.<OS>.src.rpm qlgc-fastlinq-kmp-default-<version>.<arch>.rpm Voici les paquets RPM source et kmp SLES : qlgc-fastlinq-<version>.<OS>.src.rpm qlgc-fastlinq-kmp-default-<version>.<OS>.<arch>.rpm Le paquet RPM kmod (kernel module) suivant installe les pilotes Linux sur des hôtes SLES exécutant l'hyperviseur Xen : qlgc-fastlinq-kmp-xen-<version>.<OS>.<arch>.rpm Le paquet RPM source suivant installe le code de la bibliothèque RDMA sur les hôtes RHEL et SLES : qlgc-libqedr-<version>.<OS>.<arch>.src.rpm Le fichier compressé TAR BZip2 (BZ2) du code source suivant installe les pilotes Linux sur les hôtes RHEL et SLES : fastlinq-<version>.tar.bz2 10 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux REMARQUE Pour les installations réseau via NFS, FTP ou HTTP (à l'aide d'une disquette de démarrage de réseau), vous devrez peut-être utiliser un disque de pilote contenant le pilote qede. Les pilotes de démarrage Linux peuvent être compilés en modifiant l'environnement makefile et make. Installation des pilotes Linux sans RDMA Pour installer les pilotes Linux sans RDMA : 1. Téléchargez les pilotes Linux de l'adaptateur QL45212 à partir du site Dell : dell.support.com 2. Supprimez les pilotes Linux existants en suivant les instructions de la section « Suppression des pilotes Linux » à la page 11. 3. Installez les nouveaux pilotes Linux en utilisant l'une des méthodes suivantes : Installation des pilotes Linux à l'aide du paquet RPM src Installation des pilotes Linux à l'aide du paquet RPM kmp/kmod Installation des pilotes Linux à l'aide du fichier TAR Suppression des pilotes Linux Il existe deux procédures permettant de supprimer les pilotes Linux : l'une pour un environnement non RDMA et l'autre pour un environnement RDMA. Choisissez la procédure qui correspond à votre environnement. Pour supprimer les pilotes Linux dans un environnement non RDMA, déchargez et supprimez les pilotes : Suivez la procédure relative à la méthode d'installation d'origine et au système d'exploitation. Si vous avez installé les pilotes Linux à l'aide d'un paquet RPM, saisissez les commandes suivantes : rmmod qede rmmod qed depmod -a rpm -e qlgc-fastlinq-kmp-default-<version>.<arch> 11 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux Si vous avez installé les pilotes Linux à l'aide d'un fichier TAR, saisissez les commandes suivantes : rmmod qede rmmod qed depmod -a Pour RHEL : cd /lib/modules/<version>/extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour SLES : cd /lib/modules/<version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour supprimer les pilotes Linux dans un environnement non RDMA : 1. Pour obtenir le chemin vers les pilotes actuellement installés, entrez la commande suivante : modinfo <driver name> 2. Déchargez et supprimez les pilotes Linux. Si vous avez installé les pilotes Linux à l'aide d'un paquet RPM, saisissez les commandes suivantes : modprobe -r qede depmod -a rpm -e qlgc-fastlinq-kmp-default-<version>.<arch> Si vous avez installé les pilotes Linux à l'aide d'un fichier TAR, saisissez les commandes suivantes : modprobe -r qede depmod -a REMARQUE Si le pilote qedr est présent, entrez à la place la commande modprobe -r qedr. 3. Supprimez les fichiers qed.ko, qede.ko et qedr.ko du répertoire où ils résident. Par exemple, sous SLES, entrez les commandes suivantes : cd /lib/modules/<version>/updates/qlgc-fastlinq rm -rf qed.ko rm -rf qede.ko 12 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux rm -rf qedr.ko depmod -a Pour supprimer les pilotes Linux dans un environnement RDMA : 1. Pour obtenir le chemin vers les pilotes installés, entrez la commande suivante : modinfo <driver name> 2. Déchargez et supprimez les pilotes Linux. modprobe -r qedr modprobe -r qede modprobe -r qed depmod -a 3. Supprimez les fichiers de modules de pilote : Si vous avez installé les pilotes à l'aide d'un paquet RPM, entrez la commande suivante : rpm -e qlgc-fastlinq-kmp-default-<version>.<arch> Si vous avez installé les pilotes à l'aide d'un fichier TAR, saisissez les commandes suivantes, en fonction de votre système d'exploitation : Pour RHEL : cd /lib/modules/<version>/extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Pour SLES : cd /lib/modules/<version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko Installation des pilotes Linux à l'aide du paquet RPM src Pour installer des pilotes Linux à l'aide du package RPM src 1. Saisissez la commande suivante en réponse à une invite de commande : rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.src.rpm 2. Faites passer le répertoire au chemin d'accès au RPM et créez le RPM binaire pour le noyau : Pour RHEL : cd /root/rpmbuild rpmbuild -bb SPECS/fastlinq-<version>.spec 13 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux Pour SLES : cd /usr/src/packages rpmbuild -bb SPECS/fastlinq-<version>.spec 3. Installez le RPM qui vient d'être compilé : rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.<arch>.rpm REMARQUE L'option --force peut être requise sur certaines distributions Linux en cas de conflit. Les pilotes seront installés dans les chemins d'accès suivants. Pour SLES : /lib/modules/<version>/updates/qlgc-fastlinq Pour RHEL : /lib/modules/<version>/extra/qlgc-fastlinq 4. Activez toutes les interfaces ethX comme suit : ifconfig <ethX> up 5. Pour SLES, utilisez YaST pour configurer les interfaces Ethernet afin qu'elles soient lancées automatiquement au moment du démarrage en définissant une adresse IP statique ou en activant DHCP sur l'interface. Installation des pilotes Linux à l'aide du paquet RPM kmp/kmod Pour installer le package RPM kmod : 1. Saisissez la commande suivante en réponse à une invite de commande : rpm -ivh qlgc-fastlinq-<version>.<arch>.rpm 2. Rechargez le pilote : modprobe -r qede modprobe qede Installation des pilotes Linux à l'aide du fichier TAR Pour installer des pilotes Linux à l'aide du fichier TAR : 1. Créez un répertoire et extrayez les fichiers TAR dans ce répertoire : tar xjvf fastlinq-<version>.tar.bz2 14 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux 2. Allez au répertoire récemment créé, puis installez les pilotes : cd fastlinq-<version> make clean; make install Les pilotes qed et qede seront installés dans les chemins d'accès suivants : Pour SLES : /lib/modules/<version>/updates/qlgc-fastlinq Pour RHEL : /lib/modules/<version>/extra/qlgc-fastlinq 3. Testez les pilotes en les chargeant (au besoin, déchargez d'abord les pilotes existants) : rmmod qede rmmod qed modprobe qed modprobe qede Installation des pilotes Linux avec RDMA Pour installer les pilotes Linux dans un environnement avec OFED préinstallé : 1. Téléchargez les pilotes Linux de l'adaptateur QL45212 à partir du site Dell : dell.support.com 2. Configurez RoCE sur l'adaptateur comme indiqué à la section « Configuration de RoCE sur l'adaptateur pour Linux » à la page 70. 3. Supprimez les pilotes Linux existants en suivant les instructions de la section « Suppression des pilotes Linux » à la page 11. 4. Installez les nouveaux pilotes Linux en utilisant l'une des méthodes suivantes : 5. Installation des pilotes Linux à l'aide du paquet RPM kmp/kmod Installation des pilotes Linux à l'aide du fichier TAR Installez les bibliothèques libqedr pour travailler avec les applications de l'espace utilisateur RDMA. Le RPM libqedr est disponible uniquement pour OFED préinstallé. Entrez la commande suivante : rpm –ivh qlgc-libqedr-<version>.<arch>.rpm 15 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux 6. Pour construire et installer la bibliothèque d'espace utilisateur libqedr, entrez la commande suivante : 'make libqedr_install' 7. Testez les pilotes en les chargeant ainsi : modprobe qedr make install_libeqdr Paramètres facultatifs des pilotes Linux Le Tableau 3-2 décrit les paramètres facultatifs du pilote qede. Tableau 3-2. Paramètres facultatifs du pilote qede Paramètre Description debug Contrôle le niveau de verbosité du pilote de manière similaire à ethtool -s <dev> msglvl. int_mode Contrôle le mode d'interruption autre que MSI-X. gro_enable Active ou désactive la fonctionnalité de déchargement de réception générique (GRO) du matériel. Cette fonctionnalité est similaire à la fonction GRO logicielle du noyau, mais elle est réalisée par le matériel du périphérique. err_flags_override Un bitmap pour désactiver ou forcer les actions effectuées en cas d'erreur matérielle : bit 31 - bit d'activation de ce masque de bits bit 0 - empêcher le rétablissement des attentions matérielles bit 1 - recueillir les données de débogage bit 2 - déclencher un processus de récupération bit 3 - appeler WARN pour obtenir une trace d'appel du flux qui a conduit à l'erreur 16 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Linux Paramètres de fonctionnement par défaut des pilotes Linux Le Tableau 3-3 répertorie les paramètres de fonctionnement par défaut des pilotes Linux qed et qede. Tableau 3-3. Paramètres de fonctionnement par défaut des pilotes Linux Paramètre par défaut du pilote qed Paramètre par défaut du pilote qede Speed Négociation automatique avec annonce de la vitesse Négociation automatique avec annonce de la vitesse MSI/MSI-X Activé Activé Fonctionnement Flow Control — Autonégociation avec RX et TX annoncés MTU — 1500 (gamme de 46 à 9 600) Rx Ring Size — 1000 Tx Ring Size — 4078 (plage : 128 à 8191) Coalesce Rx Microseconds — 24 (gamme de 0 à 255) Coalesce Tx Microseconds — 48 TSO — Activé Messages des pilotes Linux Saisissez les commandes suivantes pour définir le niveau de détail des messages de pilote Linux : ethtool -s <interface> msglvl <value> modprobe qede debug=<value> où <valeur> représente les bits 0 à 15, qui sont des valeurs réseau Linux standard, alors que les bits 16 et supérieurs sont spécifiques aux pilotes. Statistiques Pour afficher les statistiques détaillées et les informations de configuration, utilisez l'utilitaire ethtool. Reportez-vous à la page principale de ethtool pour de plus amples informations. 17 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows Installation du logiciel pilote pour Windows Installation des pilotes Windows Suppression des pilotes Windows Gestion des propriétés de l'adaptateur Définition des options de gestion de l'alimentation Installation des pilotes Windows Installez le logiciel pilote Windows à l'aide du progiciel de mise à jour Dell (Dell Update Package – DUP) : Exécution du DUP dans l'IUG Options d'installation de DUP Exemples d'installation de DUP Exécution du DUP dans l'IUG Pour exécuter le DUP dans l'interface graphique : 1. Double-cliquez sur l'icône représentant le fichier du DUP. REMARQUE Le nom de fichier réel du DUP varie. 2. Dans la fenêtre Dell Update Package (Figure 3-1), cliquez sur Installer Figure 3-1. Fenêtre Dell Update Package 18 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows 3. Dans la fenêtre de bienvenue de l'Assistant QLogic Super Installer—InstallShield® (Figure 3-2), cliquez sur Next (Suivant). Figure 3-2. Assistant QLogic InstallShield : Fenêtre de bienvenue 4. Procédez ainsi dans la fenêtre de contrat de licence de l'Assistant (Figure 3-3) : a. Lisez le contrat de licence du logiciel de l'utilisateur final QLogic. b. Pour continuer, sélectionnez I accept the terms in the license agreement (J'accepte les conditions du contrat de licence). 19 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows c. Cliquez sur Next. Figure 3-3. Assistant QLogic InstallShield : Fenêtre de contrat de licence 5. Remplissez la fenêtre de type d'installation de l'Assistant (Figure 3-4) comme suit : a. b. Sélectionnez l'un des types d'installation suivants : Cliquez sur Complete pour installer toutes les fonctions du programme. Cliquez sur Custom (Personnalisée) pour sélectionner les fonctions à installer. Pour continuer, cliquez sur Next. 20 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows Si vous avez choisi Complete, passez directement à l'étape 6b. Figure 3-4. Assistant InstallShield : Fenêtre de type d'installation 6. Si vous avez sélectionné Custom à l'étape 5, remplissez la fenêtre d'installation personnalisée (Figure 3-5) comme suit : a. Sélectionnez les fonctions à installer. Par défaut, toutes les fonctions sont sélectionnées. Pour modifier le paramètre d'installation d'une fonction, cliquez sur l'icône en regard de cette fonction et sélectionnez l'une des options suivantes : This feature will be installed on the local hard drive (Cette fonctionnalité sera installée sur le disque dur local) : marque la fonction pour installation, sans affecter ses sous-fonctions. This feature, and all subfeatures, will be installed on the local hard drive (Cette fonctionnalité et toutes ses sous-fonctionnalités seront installées sur le disque dur local) : marque la fonction et toutes ses sous-fonctions pour installation This feature will not be available (Cette fonctionnalité ne sera pas disponible) : empêche l'installation de la fonction. 21 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows b. Cliquez sur Next pour continuer. Figure 3-5. Assistant InstallShield : Fenêtre d'installation personnalisée 7. Dans la fenêtre Prêt à installer de l'Assistant InstallShield (Figure 3-6), cliquez sur Install (Installer). L'Assistant InstallShield installe les pilotes et le programme d'installation du logiciel de gestion de l'adaptateur QLogic. Figure 3-6. Assistant InstallShield : Fenêtre Prêt à installer le programme 22 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows 8. Une fois l'installation terminée, la fenêtre Assistant InstallShield terminé apparaît (Figure 3-7). Cliquez sur Finish (Terminer) pour fermer le programme d'installation. Figure 3-7. Assistant InstallShield : Fenêtre Terminé 9. Dans la fenêtre DUP (Figure 3-8), le message « Update installer operation was successful » (« L'opération d'installation de la mise à jour a réussi ») indique que l'installation est terminée. (Facultatif) Pour ouvrir le fichier journal, cliquez sur Afficher le journal d'installation. Le fichier journal affiche la progression de l'installation du DUP, les versions précédentes installées, les messages d'erreur et d'autres informations au sujet de l'installation. Pour fermer la fenêtre Dell Update Package, cliquez sur CLOSE. 23 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows Figure 3-8. Fenêtre Dell Update Package Options d'installation de DUP Pour personnaliser le comportement d'installation de DUP, utilisez les options de ligne de commande suivantes. Pour extraire uniquement les composants du pilote sur un répertoire : /drivers=<chemin> REMARQUE Cette commande exige l'option /s. Pour installer ou mettre à jour uniquement les composants du pilote : /driveronly REMARQUE Cette commande exige l'option /s. (Avancé) Utilisez l'option /passthrough pour envoyer tout le texte suivant /passthrough directement au logiciel d'installation QLogic du DUP. Ce mode supprime toutes les interfaces GUI fournies, mais pas nécessairement celles du logiciel QLogic. /passthrough (Avancé) Pour retourner une description codée des fonctionnalités prises en charge par ce DUP : /capabilities 24 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows REMARQUE Cette commande exige l'option /s. Exemples d'installation de DUP Les exemples suivants montrent comment utiliser les options d'installation. Pour mettre à jour le système automatiquement : <DUP_file_name>.exe /s Pour extraire le contenu de la mise à jour dans le répertoire C:\mydir\ : <DUP_file_name>.exe /s /e=C:\mydir Pour extraire les composants de pilote dans le répertoire C:\mydir\ : <DUP_file_name>.exe /s /drivers=C:\mydir Pour installer uniquement les composants du pilote : <DUP_file_name>.exe /s /driveronly Pour modifier l'emplacement du journal par défaut à C:\mon chemin d'accès avec espaces\log.txt: <DUP_file_name>.exe /l="C:\my path with spaces\log.txt" Suppression des pilotes Windows Pour supprimer les pilotes Windows : 1. Dans le panneau de configuration, cliquez sur Programmes, puis sur Programmes et fonctionnalités. 2. Dans la liste des programmes, sélectionnez QLogic FastLinQ Driver Installer, puis cliquez sur Désinstaller. 3. Suivez les instructions pour supprimer les pilotes. Gestion des propriétés de l'adaptateur Pour afficher ou modifier les propriétés de l'adaptateur QL45212 : 1. Dans le panneau de configuration, cliquez sur le Gestionnaire de périphériques. 2. Sur les propriétés de l'adaptateur sélectionné, cliquez sur l'onglet Avancé. 3. Sur la page Avancé (Figure 3-9), sélectionnez un élément sous Propriété, puis modifiez sa valeur au besoin. 25 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour Windows Figure 3-9. Configuration des propriétés d'adaptateur avancées 26 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Définition des options de gestion de l'alimentation Vous pouvez définir les options de gestion de l'alimentation de façon à ce que le système d'exploitation désactive le contrôleur pour économiser de l'énergie ou de façon à permettre au contrôleur de « réveiller » le système. Si le périphérique est occupé (à gérer un appel par exemple), le système d'exploitation ne l'arrête pas. Le système d'exploitation tente de désactiver tous les périphériques uniquement lorsque l'ordinateur se met en veille. Pour que le contrôleur reste constamment actif, ne cochez pas la case Allow the computer to turn off the device to save power (Autoriser l'ordinateur à éteindre ce périphérique pour économiser l'énergie) (Figure 3-10). Figure 3-10. Options de gestion de l'alimentation REMARQUE La page de Gestion de l'alimentation ne s'applique qu'aux serveurs prenant en charge la gestion de l'alimentation. Ne cochez pas la case Allow the computer to turn off the device to save power (Autoriser l'ordinateur à éteindre ce périphérique pour économiser l'énergie) s'il s'agit d'un adaptateur faisant partie d'une association. Installation du logiciel pilote pour VMware Cette section décrit le pilote VMware ESXi qedentv pour les adaptateurs QL45212. Pilotes et paquets de pilotes VMware 27 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Installation des pilotes VMware Paramètres facultatifs des pilotes VMware Paramètres par défaut des pilotes VMware Suppression du pilote VMware Pilotes et paquets de pilotes VMware Le Tableau 3-4 énumère les pilotes VMware ESXi pour les protocoles. Tableau 3-4. Pilotes VMware Pilotes VMware a Description qedentv Pilote de réseau natif qedrntv Pilote de déchargement RDMA (RoCE et RoCEv2) natif a qedf Pilote de déchargement FCoE natif qedil Pilote de déchargement iSCSI hérité Le pilote RoCE certifié n'est pas inclus dans cette version. Le pilote non certifié peut être disponible dans le cadre d'un aperçu anticipé. Les pilotes ESXi sont inclus sous forme de jeux de pilotes individuels et ne sont pas regroupés, sauf indication particulière. Le Tableau 3-5 énumère les versions ESXi et les versions de pilote applicables. 28 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-5. Paquets de pilotes ESXi par version Version ESXi a ESXi 6.5 b ESXi 6.0u3 Protocole Nom du pilote Version du pilote NIC qedentv 3.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 RoCE qedrntv 3.0.7.5.1 NIC qedentv 2.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 a Des pilotes ESXi supplémentaires pourraient être disponibles après la publication de ce guide d’utilisation. Pour plus d'informations, reportez-vous aux Notes de mise à jour. b Pour ESXi 6.5, les pilotes NIC et RoCE ont été réunis et peuvent être installés sous forme de lot unique hors ligne en utilisant les commandes d'installation standard ESXi. Le nom de paquet est qedentv_3.0.7.5_qedrntv_3.0.7.5.1_signed_drivers.zip. La séquence d'installation recommandée commence par les pilotes NIC et RoCE, suivis pas les pilotes FCoE et iSCSI. Installez les pilotes individuels par l'une des méthodes suivantes : Commandes d'installation de paquet ESXi standard (voir Installation des pilotes VMware) Procédures incluses dans les fichiers Lisez-moi de pilotes individuels Procédures incluses dans l'article suivant de la base de connaissances VMware : https://kb.vmware.com/selfservice/microsites/search.do?language=en_US& cmd=displayKC&externalId=2137853 Vous devez d'abord installer le pilote de carte réseau, puis les pilotes de stockage. Installation des pilotes VMware Vous pouvez utiliser le fichier ZIP de pilotes pour installer un nouveau pilote ou mettre à jour un pilote existant. Veillez à installer l'ensemble des pilotes à partir du même fichier ZIP de pilotes. Le mélange de pilotes issus de plusieurs fichiers ZIP peut générer des problèmes. 29 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Pour installer le pilote VMware : 1. Téléchargez le pilote VMware l'adaptateur QL45212 à partir de la page de support VMware : www.vmware.com/support.html 2. Allumez l'hôte ESX et connectez-vous à un compte doté du rôle Administrateur. 3. Décompressez le fichier ZIP de pilotes, puis extrayez le fichier .vib. 4. Utilisez l'utilitaire Linux scp pour copier un fichier .vib du système local vers le répertoire /tmp du serveur ESX portant l'adresse IP 10.10.10.10. Par exemple, entrez la commande suivante : #scp qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib [email protected]:/tmp Vous pouvez placer le fichier dans n'importe quel dossier accessible par le shell de console ESX. REMARQUE Si vous n'avez pas de machine Linux, vous pouvez utiliser l'explorateur de fichiers du datastore vSphere pour télécharger les fichiers sur le serveur. 5. Mettez l'hôte en mode de maintenance en saisissant la commande suivante : #esxcli --maintenance-mode 6. Sélectionnez l'une des options d'installation suivantes : Option 1 : Installez le fichier .vib directement sur un serveur ESX à l'aide de l'interface CLI ou duGestionnaire de mises à jour VMware (VUM, VMware Update Manager). Pour installer le fichier .vib avec l'interface CLI, entrez la commande suivante. Veillez à indiquer le chemin complet du fichier .vib. # esxcli software vib install -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib Pour installer le fichier .vib à l'aide du VUM, consultez l'article de la base de connaissances suivant : Mise à jour d'un hôte ESXi/ESX à l'aide de VMware vCenter Update Manager 4.x et 5.x (1019545) 30 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Option 2 : Installez tous les fichiers VIB individuels en même temps en saisissant la commande suivante : # esxcli software vib install –d /tmp/qedentv-bundle-2.0.3.zip Pour mettre à niveau un pilote existant : Suivez les étapes correspondant à une nouvelle installation, en remplaçant la commande de l'option 1 précédente par celle-ci : #esxcli software vib update -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib Paramètres facultatifs des pilotes VMware Le Tableau 3-6 décrit les paramètres facultatifs que vous pouvez utiliser comme arguments de ligne de commande pour la commande esxcfg-module. Tableau 3-6. Paramètres facultatifs des pilotes VMware Paramètre Description hw_vlan Permet d'activer (1) ou de désactiver (0) globalement l'insertion et la suppression de VLAN matériel. Désactivez ce paramètre lorsque la couche supérieure a besoin d'envoyer ou de recevoir des paquets entièrement formés. hw_vlan=1 est la valeur par défaut. num_queues Spécifie le nombre de paires de files d'attente d'émission/réception (TX/RX). num_queues peut être égal à 1–11 ou à l'une des valeurs suivantes : -1 autorise le pilote à déterminer le nombre optimal de paires de files d'attente (valeur par défaut). 0 utilise la file d'attente par défaut. Vous pouvez spécifier plusieurs valeurs séparées par une virgule pour les configurations multiports ou multifonctions. multi_rx_filters Spécifie le nombre de filtres RX par file d'attente RX, à l'exclusion de la file d'attente par défaut. multi_rx_filters peut être égal à 1-4 ou à l'une des valeurs suivantes : –1 utilise le nombre par défaut de filtres RX par file d'attente. 0 désactive les filtres RX. disable_tpa Active (0) ou désactive (1) la fonction TPA (LRO). disable_tpa=0 est la valeur par défaut. max_vfs Spécifie le nombre de fonctions virtuelles (VF) par fonction physique (PF). max_vfs peut être égal à 0 (désactivé) ou à 64 VF sur un seul port (activé). La prise en charge maximale de 64 VF pour ESXi est une contrainte d'allocation de ressources du SE. 31 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Tableau 3-6. Paramètres facultatifs des pilotes VMware (Suite) Paramètre RSS Description Spécifie le nombre de files d'attente de mise à l'échelle en réception utilisées par l'hôte ou par le trafic en tunnel de LAN virtuel extensible (VXLAN) pour une fonction physique (PF). RSS peut être égal à 2, 3 ou 4, ou à l'une des valeurs suivantes : –1 utilise le nombre de files d'attente par défaut. 0 ou 1 désactive les files d'attente RSS. Vous pouvez spécifier plusieurs valeurs séparées par une virgule pour les configurations multiports ou multifonctions. debug Spécifie le niveau de données que le pilote doit enregistrer dans le fichier journal vmkernel. debug peut avoir les valeurs suivantes, par ordre croissant de quantité de données : 0x80000000 indique le niveau Avis. 0x40000000 indique le niveau Information (inclut le niveau Avis) 0x3FFFFFFF indique le niveau Détaillé pour tous les sous-modules de pilote (inclut les niveaux Information et Avis) auto_fw_reset Active (1) ou désactive (0) la fonction de récupération automatique du micrologiciel du pilote. Lorsque ce paramètre est activé, le pilote tente de récupérer son fonctionnement normal après des événements tels que l'écoulement du délai d'émission, les assertions de micrologiciel et les erreurs de parité de l'adaptateur. La valeur par défaut est auto_fw_reset=1. vxlan_filter_en Active (1) ou désactive (0) le filtrage VXLAN sur la base de l'adresse MAC externe, de l'adresse MAC interne et du réseau VXLAN (VNI), pour faire correspondre directement le trafic à une file d'attente spécifique. La valeur par défaut est vxlan_filter_en=1. Vous pouvez spécifier plusieurs valeurs séparées par une virgule pour les configurations multiports ou multifonctions. enable_vxlan_offld Active (1) ou désactive (0) la fonction de déchargement de la somme de contrôle de trafic en tunnel VXLAN et de déchargement de la segmentation TCP (TSO). La valeur par défaut est enable_vxlan_offld=1. Vous pouvez spécifier plusieurs valeurs séparées par une virgule pour les configurations multiports ou multifonctions. 32 BC0154503-02 F 3–Installation des pilotes Installation du logiciel pilote pour VMware Paramètres par défaut des pilotes VMware Le Tableau 3-7 énumère les valeurs par défaut des paramètres des pilotes VMware. Tableau 3-7. Paramètres par défaut des pilotes VMware Paramètre Par défaut Speed Négociation automatique avec annonce de toutes les vitesses. Le paramètre de vitesse doit être identique sur tous les ports. Si la négociation automatique est activée sur le périphérique, tous les ports du périphérique l'utiliseront. Flow Control Négociation automatique avec annonce RX et TX MTU 1,500 (plage : 46–9,600) Rx Ring Size 8,192 (plage 128–8,192) Tx Ring Size 8,192 (plage 128–8,192) MSI-X Enabled Transmit Send Offload (TSO) Enabled Large Receive Offload (LRO) Enabled RSS Enabled (4 files d'attente RX) HW VLAN Enabled Number of Queues Enabled (8 paires de files d'attente RX/TX) Wake on LAN (WoL) Disabled Suppression du pilote VMware Pour supprimer le fichier .vib (qedentv), entrez la commande suivante : # esxcli software vib remove --vibname qedentv Pour supprimer le pilote, entrez la commande suivante : # vmkload_mod -u qedentv 33 BC0154503-02 F 4 Mise à niveau du micrologiciel Ce chapitre fournit des informations sur la mise à niveau du micrologiciel à l'aide du progiciel de mise à jour Dell (DUP). Le DUP du micrologiciel est un utilitaire de mise à jour Flash uniquement. Il ne sert pas à la configuration de l'adaptateur. Pour exécuter le DUP du micrologiciel, double-cliquez sur le fichier exécutable. Ou alors, vous pouvez exécuter le DUP du micrologiciel à partir de la ligne de commande, avec plusieurs options de ligne de commande prises en charge. Exécution du DUP en double-cliquant « Exécution du DUP depuis une ligne de commande » à la page 38 « Exécution du DUP à l'aide du fichier .bin » à la page 39 (Linux uniquement) Exécution du DUP en double-cliquant Pour exécuter le DUP du micrologiciel en double-cliquant sur le fichier exécutable : 1. Double-cliquez sur l'icône représentant le fichier du progiciel de mise à jour Dell du micrologiciel. 34 BC0154503-02 F 4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant L'écran de démarrage du progiciel de mise à jour Dell apparaît, comme illustré à la Figure 4-1. Cliquez sur Install (Installer) pour continuer. Figure 4-1. Progiciel de mise à jour Dell : Écran de démarrage 35 BC0154503-02 F 4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant 2. Suivez les instructions à l'écran. Dans la boîte de dialogue d'avertissement, cliquez sur Yes (Oui) pour continuer l'installation, comme l'illustre la Figure 4-2. Figure 4-2. Progiciel de mise à jour Dell : Continuer la mise à jour 36 BC0154503-02 F 4–Mise à niveau du micrologiciel Exécution du DUP en double-cliquant Le programme d'installation indique qu'il est en train de charger le nouveau micrologiciel, tel qu'illustré à la Figure 4-3. Figure 4-3. Progiciel de mise à jour Dell : Chargement du nouveau micrologiciel Une fois le chargement terminé, le programme d'installation affiche le résultat de l'installation, tel qu'illustré à la Figure 4-4. Figure 4-4. Progiciel de mise à jour Dell : Résultats de l'installation 37 BC0154503-02 F 4–Mise à niveau du micrologiciel Exécution du DUP depuis une ligne de commande 3. Cliquez sur Yes (Oui) pour redémarrer le système. 4. Cliquez sur Finish (Terminer) pour terminer l'installation, tel qu'illustré à la Figure 4-5. Figure 4-5. Progiciel de mise à jour Dell : Terminer l'installation Exécution du DUP depuis une ligne de commande L'exécution du DUP du micrologiciel à partir de la ligne de commande, sans spécifier d'options, produit le même résultat qu'un double clic sur l'icône du DUP. Notez que le nom de fichier actuel du DUP varie. Pour exécuter le DUP du micrologiciel depuis une ligne de commande : Entrez la commande suivante : C:\> Network_Firmware_2T12N_WN32_<version>_X16.EXE 38 BC0154503-02 F 4–Mise à niveau du micrologiciel Exécution du DUP à l'aide du fichier .bin La Figure 4-6 indique les options qui peuvent être utilisées pour personnaliser l'installation du progiciel de mise à jour Dell. Figure 4-6. Options de ligne de commande du DUP Exécution du DUP à l'aide du fichier .bin La procédure suivante est prise en charge uniquement sur le système d'exploitation Linux. Pour exécuter le DUP à l'aide du fichier .bin : 1. Copiez le fichier Network_Firmware_NJCX1_LN_X.Y.Z.BIN sur le système à tester (System Under Test – SUT). 2. Modifiez le type de fichier en fichier exécutable, comme suit : chmod 777 Network_Firmware_NJCX1_LN_X.Y.Z.BIN 3. Pour démarrer le processus de mise à jour, entrez la commande suivante : ./Network_Firmware_NJCX1_LN_X.Y.Z.BIN 4. Une fois le micrologiciel mis à jour, redémarrez le système. 39 BC0154503-02 F 4–Mise à niveau du micrologiciel Exécution du DUP à l'aide du fichier .bin Exemple de sortie du SUT pendant la mise à jour du DUP : ./Network_Firmware_NJCX1_LN_08.07.26.BIN Collecting inventory... Running validation... BCM57810 10 Gigabit Ethernet rev 10 (p2p1) The version of this Update Package is the same as the currently installed version. Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p1) Package version: 08.07.26 Installed version: 08.07.26 BCM57810 10 Gigabit Ethernet rev 10 (p2p2) The version of this Update Package is the same as the currently installed version. Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Package version: 08.07.26 Installed version: 08.07.26 Continue? Y/N:Y Y entered; update was forced by user Executing update... WARNING: DO NOT STOP THIS PROCESS OR INSTALL OTHER DELL PRODUCTS WHILE UPDATE IS IN PROGRESS. THESE ACTIONS MAY CAUSE YOUR SYSTEM TO BECOME UNSTABLE! ........................................................................... Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p1) Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p1) Update success. Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Update success. Would you like to reboot your system now? Continue? Y/N:Y 40 BC0154503-02 F 5 Configuration de prédémarrage de l'adaptateur Au cours du processus d'amorçage hôte, vous pouvez choisir de cliquer sur Pause et d'effectuer des tâches de gestion de l'adaptateur à l'aide de l'application Human Infrastructure Interface (HII). Il s'agit des tâches suivantes : « Mise en route » à la page 42 « Affichage des propriétés d'image du micrologiciel » à la page 45 « Configuration des paramètres au niveau du périphérique » à la page 46 « Configuration des paramètres NIC » à la page 47 « Configuration de Data Center Bridging » à la page 50 « Configuration des partitions » à la page 52 REMARQUE Les captures d'écran HII de ce chapitre sont seulement des exemples et ne sont pas forcément identiques aux écrans affichés sur votre système. 41 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Mise en route Mise en route Pour démarrer l'application HII : 1. Ouvrez la fenêtre de configuration du système (System Setup) de votre plateforme. Pour plus d'informations sur le lancement de la configuration du système, consultez le manuel d'utilisation de votre système. 2. Dans la fenêtre de configuration du système (Figure 5-1), sélectionnez Device Settings (Paramètres de périphérique), puis appuyez sur ENTRÉE. Figure 5-1. Configuration du système 3. Dans la fenêtre Paramètres de périphérique (Figure 5-2), sélectionnez le port de l'adaptateur QL45212 que vous souhaitez configurer, puis appuyez sur ENTRÉE. Figure 5-2. Configuration du système : Paramètres des périphériques 42 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Mise en route La page de configuration principale (Figure 5-3) présente les options de gestion de l'adaptateur où vous pouvez définir le mode de partitionnement. Figure 5-3. Page de configuration principale 4. Sous Device Level Configuration (Configuration au niveau du périphérique), définissez le Partitioning Mode (Mode de partitionnement) en NPAR pour ajouter l'option NIC Partitioning Configuration (Configuration des partitions NIC) à la page Configuration principale, comme indiqué à la Figure 5-4. REMARQUE NPAR n'est pas disponible sur des ports avec une vitesse maximale de 1G. Figure 5-4. Page Configuration principale, configuration du mode de partitionnement en NPAR 43 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Mise en route Figure 5-5. Page Configuration principale, configuration du mode de partitionnement NPAR Dans la Figure 5-3 et la Figure 5-4, la page Configuration principale affiche les paramètres suivants : Firmware Image Properties (Propriétés d'image du micrologiciel) (voir « Affichage des propriétés d'image du micrologiciel » à la page 45) Device Level Configuration (Configuration au niveau du périphérique) (voir « Configuration des paramètres au niveau du périphérique » à la page 46) NIC Configuration (Configuration NIC) (voir « Configuration des paramètres NIC » à la page 47) Paramètres Data Center Bridging (DCB) (voir « Configuration de Data Center Bridging » à la page 50) NIC Partitioning Configuration (Configuration des partitions NIC) (si NPAR est sélectionné sur la page Configuration au niveau du périphérique) (voir « Configuration des partitions » à la page 52) En outre, la page Configuration principale présente les propriétés d'adaptateur détaillées dans le Tableau 5-1. Tableau 5-1. Propriétés de l'adaptateur Propriété d'adaptateur Description Nom de périphérique Nom attribué en usine au périphérique Type de puce Version ASIC ID de périphérique PCI ID de périphérique PCI unique, propre au fournisseur 44 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Affichage des propriétés d'image du micrologiciel Tableau 5-1. Propriétés de l'adaptateur (Suite) Propriété d'adaptateur Description Adresse PCI Adresse de périphérique PCI au format « bus-fonction de périphérique » Clignotement des LED Nombre de clignotements définis par l'utilisateur pour le voyant LED du port État de la liaison État de la liaison externe Adresse MAC Adresse MAC permanente du périphérique, attribuée par le fabricant Adresse MAC virtuelle Adresse MAC du périphérique attribuée par l'utilisateur Affichage des propriétés d'image du micrologiciel Pour afficher les propriétés de l'image du micrologiciel, sélectionnez Firmware Image Properties (Propriétés de l'image du micrologiciel) sur la page de configuration principale, puis appuyez sur ENTRÉE. La page Propriétés de l'image du micrologiciel (Figure 5-6) spécifie les données en lecture seule suivantes : Family Firmware Version (Version de famille de micrologiciel) est la version d'image de démarrage multiple, qui contient plusieurs images de composants de micrologiciel. MBI Version (Version MBI) est la version de l'image du groupe Cavium QLogic active sur l'appareil. Controller BIOS Version (Version de BIOS du contrôleur) est la version du micrologiciel de gestion. EFI Driver Version (Version de pilote EFI) est la version du pilote de l'interface EFI. 45 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres au niveau du périphérique L2B Firmware Version (Version de micrologiciel L2B) est la version du micrologiciel de déchargement NIC pour le démarrage. Figure 5-6. Propriétés de l'image du micrologiciel Configuration des paramètres au niveau du périphérique La configuration au niveau périphérique comprend l'activation de Single Root-I/O Virtualization (SR-IOV) et du partitionnement NIC, et l'activation ou la désactivation de NPAReP. Pour exécuter la configuration au niveau périphérique, sélectionnez Configuration au niveau du périphérique sur la page de configuration principale, puis cliquez sur Terminer. La Figure 5-7 affiche la page Configuration au niveau du périphérique : Figure 5-7. Configuration du système : Page Configuration au niveau du périphérique 46 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC Pour activer le partitionnement de carte réseau (NPAR), la virtualisation des entrées/sorties en racine unique (SR-IOV) ou les deux : 1. Sur la page de configuration principale (Figure 5-3 à la page 43), sélectionnez Device Level Configuration (Configuration au niveau du périphérique), puis cliquez sur Finish (Terminer). 2. Sur la page Configuration au niveau du périphérique (Figure 5-7), cliquez sur la liste déroulante Virtualization Mode (Mode de virtualisation), puis sélectionnez l'une des options suivantes : 3. NPAR active NPAR. SRIOV active SR-IOV (virtualisation non partitionnée). NPAR+SRIOV active NPAR avec SR-IOV. None (Aucune) désactive toutes les virtualisations. Si vous activez NPAR (avec ou sans SRIOV) et si le système est compatible ARI (ARI, Alternate Routing ID Interpretation), choisissez d'activer ou de désactiver le NPAReP mode (mode NPAReP) : Cliquez sur Disabled (Désactivé) pour spécifier quatre partitions par port (soit 8 PF au total par adaptateur), où chaque PF prend en charge 16 VF SR-IOV par PF. Cliquez sur Enabled (Activé) pour spécifier huit partitions par port (soit 16 PF au total par adaptateur), où : 16 VF SR-IOV sont sur les 8 premiers PF (PF 0 à 7, qui sont les 4 premiers PF de chaque port). 8 VF SR-IOV sont sur les 8 seconds PF (PF 8 à -15, qui sont les 4 derniers PF de chaque port). Les VF SR-IOV sont actuellement affectées à leurs PF respectifs. 4. Cliquez sur Back (Précédent). 5. À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces modifications prennent effet après réinitialisation du système. Configuration des paramètres NIC La configuration NIC inclut la définition des paramètres suivants : Link Speed (Vitesse de liaison) NIC + RDMA Mode (Mode NIC + RDMA) Boot Mode (Mode d'amorçage) FEC Mode (Mode FEC) PXE Virtual LAN Mode (Mode LAN virtuel PXE) Virtual LAN ID (ID de LAN virtuel) 47 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC Pour configurer les paramètres NIC : 1. Sur la page de configuration principale, sélectionnez NIC Configuration (Configuration NIC) (Figure 5-3 à la page 43), puis cliquez sur Finish (Terminer). La Figure 5-8 affiche la page Configuration NIC. Figure 5-8. Configuration NIC 2. Sélectionnez l'une des options Link Speed (Vitesse de liaison) suivantes : l'option de vitesse de liaison que vous choisissez s'applique aux deux ports de l'adaptateur. La vitesse de liaison et la correction d'erreur de transfert (FEC) doivent correspondre à celles du commutateur ou port de périphérique connecté. Auto Negotiated (Négocié automatiquement) permet la négociation automatique des paramètres de liaison avec le commutateur ou périphérique connecté (valeur par défaut). FEC est automatiquement activé. Les deux extrémités doivent être en mode de négociation automatique. 10 Gbps (10 Gbits/s) spécifie que la liaison de port doit avoir une vitesse de 10 Gbits/s. FEC n'est pas pris en charge. 25 Gbps (25 Gbits/s) spécifie que la liaison de port doit avoir une vitesse de 25 Gbits/s. 3. Pour NIC + RDMA Mode (Mode NIC + RDMA), sélectionnez soit Enabled (Activé) ou Disabled (Désactivé) pour RDMA sur le port. Ce paramètre s'applique à toutes les partitions du port, en mode NPAR. 4. FEC Mode (Mode FEC) est visible lorsque le mode de vitesse 25 Gbps (25 Gbits/s) fixe est sélectionné comme la Link Speed (Vitesse de liaison) à l'étape 2. Pour FEC Mode (Mode FEC), sélectionnez l'une des options suivantes : Toutes les modes FEC ne sont pas disponibles sur toutes les cartes. Disabled (Désactivé) indique que FEC n'est pas activé. 48 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des paramètres NIC 5. 6. Fire Code indique que le lien est configuré pour utiliser Fire Code FEC ; la sous-couche FEC fonctionne de manière similaire à la clause FEC 74. Pour Boot Mode (Mode d'amorçage), sélectionnez l'une des options suivantes : PXE active le démarrage PXE. Disabled (Désactivé) empêche ce port d'être utilisé en tant que source de démarrage à distance. Le paramètre Virtual LAN Mode (Mode LAN virtuel) s'applique à l'ensemble du port en mode d'installation à distance PXE. Il n'est pas persistant après la fin d'une installation à distance PXE. Choisissez parmi les options VLAN suivantes : Enabled (Activé) active le mode VLAN sur ce port pour le mode d'installation à distance PXE. Disabled (Désactivé) désactive le mode VLAN sur ce port. 7. Le paramètre Virtual LAN ID (ID de LAN virtuel) spécifie l'ID de balise VLAN à utiliser sur ce port pour le mode d'installation à distance PXE. Ce paramètre s'applique uniquement lorsque Virtual LAN Mode (Mode LAN virtuel) est activé à l'étape précédente. 8. Cliquez sur Back (Précédent). 9. À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer le port afin d'utiliser RDMA : REMARQUE Suivez ces étapes pour activer RDMA sur toutes les partitions d'un port en mode NPAR. 1. Définissez NIC + RDMA Mode (Mode NIC + RDMA) sur Enabled (Activé). 2. Cliquez sur Back (Précédent). 3. À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer le mode de démarrage du port : 1. Pour une installation à distance UEFI PXE, sélectionnez PXE comme Boot Mode (Mode de démarrage). 2. Cliquez sur Back (Précédent). 49 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging 3. À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer l'installation à distance PXE du port pour utiliser un VLAN : REMARQUE Ce VLAN n'est pas persistant après la fin d'une installation à distance PXE. 1. Définissez Virtual LAN Mode (Mode LAN virtuel) sur Enabled (Activé). 2. Dans la zone Virtual LAN ID (ID de LAN virtuel), entrez le numéro à utiliser. 3. Cliquez sur Back (Précédent). 4. À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Configuration de Data Center Bridging Les réglages de Data Center Bridging (DCB) comprennent le protocole DCBX et la priorité RoCE. Pour configurer les paramètres DCB : 1. Sur la page Configuration principale (Figure 5-3 à la page 43), sélectionnez Data Center Bridging (DCB) Settings (Paramètres Data Center Bridging (DCB)), puis cliquez sur Finish (Terminer). 2. Dans la fenêtre Paramètres Data Center Bridging (DCB) (Figure 5-9), sélectionnez l'option DCBX Protocol (Protocole DCBX). 3. Disabled (Désactivé) désactive DCBX sur ce port. CEE active le mode DCBX du protocole CEE (Converged Enhanced Ethernet) sur ce port. IEEE active le protocole IEEE DCBX sur ce port. Dynamic (Dynamique) permet l'application dynamique du protocole CEE ou IEEE pour correspondre au partenaire de liaison attaché. Dans la page Paramètres Data Center Bridging (DCB), attribuez à la RoCE v1 Priority (Priorité RoCE v1) une valeur de 0 à 7. Ce paramètre indique le numéro de priorité de classe de trafic DCB utilisé pour le trafic RoCE et doit correspondre au numéro utilisé par le réseau de commutation DCB pour le trafic RoCE. 0 spécifie le numéro de priorité habituel utilisé par le paramètre par défaut avec perte ou la classe de trafic commune. 3 spécifie le numéro de priorité utilisé par le trafic FCoE sans perte. 50 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration de Data Center Bridging 4 spécifie le numéro de priorité utilisé par le trafic iSCSI-TLV over DCB sans perte. 1, 2, 5, 6 et 7 spécifie les numéros de priorité de classe de trafic DCB disponibles pour l'utilisation de RoCE. Suivez les instructions de configuration RoCE respectives pour utiliser cette commande RoCE. Figure 5-9. Configuration du système : Paramètres Data Center Bridging (DCB) 4. Cliquez sur Back (Précédent). 5. À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. REMARQUE Lorsque DCBX est activé, l'adaptateur envoie périodiquement des paquets de protocole de découverte de couche de liaison (Link Layer Discovery Protocol - LLDP) avec une adresse de monodiffusion dédiée qui sert d'adresse MAC source. Cette adresse MAC LLDP est différente de l'adresse MAC Ethernet de l'adaptateur, attribuée en usine. Si vous examinez le tableau d'adresses MAC pour le port de commutateur qui est connecté à l'adaptateur, vous pouvez voir deux adresses MAC : une pour les paquets LLDP et une pour l'interface Ethernet de l'adaptateur. 51 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Configuration des partitions Vous pouvez configurer des plages de bande passante pour chaque partition sur l'adaptateur. Pour configurer l'allocation de bande passante maximale et minimale : 1. Sur la page Configuration principale, sélectionnez NIC Partitioning Configuration (Configuration des partitions NIC), et appuyez sur ENTRÉE. 2. Sur la page Configuration des partitions (Figure 5-10), sélectionnez Global Bandwidth Allocation (Allocation de la bande passante globale). Figure 5-10. Configuration des partitions NIC, allocation de bande passante globale 52 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Figure 5-11 Présente l’allocation globale de bande passant pour la partition 1. Figure 5-11. Allocation de bande passante globale, configuration de la partition 1 3. Sur la page Allocation de la bande passante globale (Figure 5-12), cliquez sur le champ de bande passante d'émission (TX) maximale et minimale pour chaque partition, afin d'allouer de la bande passante. Il y a quatre partitions par port si le mode NPAReP est désactivé et huit partitions par port si le mode NPAReP est activé. Le mode NPAReP exige l'activation d'ARI dans le BIOS pour ce logement PCI de l'adaptateur. Figure 5-12. Page Allocation de bande passante globale : Mode NPAReP activé 53 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Partition n Minimum TX Bandwidth (Bande passante TX minimale de la partition n) indique la bande passante minimale d'émission (TX) de la partition sélectionnée, exprimée en pourcentage de la vitesse de liaison maximale du port physique. Plage admise : de 0 à 100. Lorsque vous activez le mode ETS DCBX, la valeur de bande passante minimale par classe de trafic ETS DCBX est utilisée simultanément avec la valeur de bande passante TX minimale par partition. Le total des valeurs de bande passante TX minimale de toutes les partitions d'un seul port doit être égal à 100 ou à zéro. Le réglage de la bande passante TX sur tous les zéros est similaire à la répartition homogène de la bande passante disponible sur chaque partition active ; cependant, la bande passante est allouée dynamiquement sur toutes les partitions émettant activement. Une valeur zéro (lorsqu'une ou plusieurs des autres valeurs sont définies sur une valeur différente de zéro) attribue au moins 1 % à cette partition lorsque l'encombrement (à partir de toutes les partitions) restreint la bande passante TX. Partition n Maximum TX Bandwidth (Bande passante TX minimale de la partition n) indique la bande passante maximale d'émission (TX) de la partition sélectionnée, exprimée en pourcentage de la vitesse de liaison maximale du port physique. Plage de valeurs admise : de 1 à 100. La valeur de bande passante TX maximale par partition s'applique quelle que soit la configuration du mode ETS DCBX. Entrez une valeur dans chaque champ sélectionné, puis cliquez sur Back (Précédent). 4. À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour configurer les partitions : 1. Pour examiner une configuration de partition spécifique, sur la page Configuration des partitions NIC (Figure 5-10 à la page 52), sélectionnez Partition n Configuration (Configuration de la partition n). Si NParEP n'est pas activé, il n'y a que quatre partitions par port. 2. Pour configurer la première partition, sélectionnez Partition 1 Configuration (Configuration de la partition 1) pour ouvrir la page Configuration de la partition 1 (Figure 5-13), qui montre les paramètres de la partition suivants : NIC Mode (Mode NIC) (toujours activé) PCI Device ID (ID de périphérique PCI) PCI (bus) Address (Adresse (bus) PCI) MAC Address (Adresse MAC) Virtual MAC Address (Adresse MAC virtuelle) 54 BC0154503-02 F 5–Configuration de prédémarrage de l'adaptateur Configuration des partitions Figure 5-13. Configuration de la partition 1 3. Pour configurer la deuxième partition, sélectionnez Partition 2 Configuration (Configuration de la partition 2) pour ouvrir la page Configuration de la partition 2. Si Déchargement FCoE est présent, la page Configuration de la partition 2 (Figure 5-14) montre les paramètres suivants : NIC Mode (Mode NIC) active ou désactive la personnalité de la carte réseau Ethernet L2 sur les partitions 2 et supérieures. Pour désactiver l'une des partitions restantes, définissez Mode NIC sur Désactivé. Pour désactiver les partitions chargeables, désactivez le Mode NIC et le mode de déchargement respectif. PCI Device ID (ID de périphérique PCI) PCI (bus) Address (Adresse (bus) PCI) MAC Address (Adresse MAC) Virtual MAC Address (Adresse MAC virtuelle) Figure 5-14. Configuration de la partition 2 55 BC0154503-02 F 6 Configuration de RoCE Ce chapitre décrit la configuration de RDMA over converged Ethernet (RoCE v1 et v2) sur l'adaptateur QL45212, le commutateur Ethernet, et l'hôte Windows ou Linux, y compris : Systèmes d'exploitation pris en charge et OFED « Planification pour RoCE » à la page 57 « Préparation de l'adaptateur » à la page 58 « Préparation du commutateur Ethernet » à la page 58 « Configuration de RoCE sur l'adaptateur pour Windows Server » à la page 60 « Configuration de RoCE sur l'adaptateur pour Linux » à la page 70 « Configuration de RoCE sur l'adaptateur pour VMware ESX » à la page 80 REMARQUE Certaines fonctionnalités RoCE peuvent ne pas être entièrement activées dans la version actuelle. Systèmes d'exploitation pris en charge et OFED Le Tableau 6-1 affiche la prise en charge de RoCE v1, RoCE v2 et OFED par les systèmes d'exploitation : Tableau 6-1. Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED Système d'exploitation Préinstallé OFED 3.18-3 GA OFED-4.8-1 GA Windows Server 2012 R2 Non S/O S/O Windows Server 2016 Non S/O S/O RoCE v1 RoCE v1 Non RHEL 6.8 56 BC0154503-02 F 6–Configuration de RoCE Planification pour RoCE Tableau 6-1. Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED (Suite) Système d'exploitation Préinstallé OFED 3.18-3 GA OFED-4.8-1 GA RHEL 6.9 RoCE v1 Non Non RHEL 7.3 RoCE v1, RoCE v2, iSER Non RoCE v1, RoCE v2 RHEL 7.4 RoCE v1, RoCE v2, iSER Non Non SLES 12 SP3 RoCE v1, RoCE v2, iSER Non Non CentOS 7.3 RoCE v1, RoCE v2, iSER Non RoCE v1, RoCE v2 CentOS 7.4 RoCE v1, RoCE v2, iSER Non Non Non S/O S/O VMware ESXi 6.5, 6.5U1 RoCE v1, RoCE v2 S/O S/O VMware ESXi 6.7 RoCE v1, RoCE v2 S/O S/O VMware ESXi 6.0 u3 Planification pour RoCE Lorsque vous vous préparez à implémenter RoCE, tenez compte des limitations suivantes : Si vous utilisez OFED préinstallé, le système d'exploitation doit être identique sur les systèmes serveur et client. Certaines applications peuvent fonctionner avec des systèmes d'exploitation différents, mais ce n'est pas garanti. Il s'agit d'une limitation d'OFED. Pour les applications OFED (généralement des applications de test des performances (perftest)), les applications serveur et client doivent utiliser les mêmes options et valeurs. Des problèmes peuvent surgir si le système d'exploitation et l'application perftest utilisent des versions différentes. Pour vérifier la version perftest, entrez la commande suivante : # ib_send_bw --version La construction de libqedr dans OFED préinstallé nécessite l'installation de libibverbs-devel. L'exécution des applications de l'espace utilisateur dans OFED préinstallé nécessite l'installation du groupe de support InfiniBand®, par yum groupinstall "InfiniBand Support", qui contient libibcm, libibverbs, etc. Les applications OFED et RDMA qui dépendent de libibverbs nécessitent également la bibliothèque d'espace utilisateur RDMA QLogic, libqedr. Installez libqedr en utilisant les paquets libqedr RPM ou source. 57 BC0154503-02 F 6–Configuration de RoCE Préparation de l'adaptateur RoCE prend uniquement en charge le format Little Endian. RoCE ne fonctionne pas sur une VF dans un environnement SR-IOV. Préparation de l'adaptateur Suivez les étapes suivantes pour activer DCBX et définir la priorité RoCE à l'aide de l'application de gestion HII. Pour plus d'informations sur l'application HII, voir Chapitre 5 Configuration de prédémarrage de l'adaptateur. Pour préparer l'adaptateur : 1. Sur la page de configuration principale, sélectionnez Data Center Bridging (DCB) Settings (Paramètres Data Center Bridging (DCB)), puis cliquez sur Finish (Terminer). 2. Dans la fenêtre Paramètres Data Center Bridging (DCB), cliquez sur l'option Protocole DCBX. L'adaptateur QL45212 prend en charge les protocoles CEE et IEEE. Cette valeur doit être identique à la valeur correspondante sur le commutateur DCB. Dans cet exemple, sélectionnez CEE ou Dynamique. 3. Dans la zone RoCE Priority (Priorité RoCE v1), entrez une valeur de priorité. Cette valeur doit être identique à la valeur correspondante sur le commutateur DCB. Dans cet exemple, saisissez 5. En règle générale, 0 est utilisé pour la classe de trafic avec perte par défaut, 3 est utilisé pour la classe de trafic FCoE et 4 est utilisé pour la classe de trafic iSCSI-TLV sur DCB sans perte. 4. Cliquez sur Back (Précédent). 5. À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces modifications prennent effet après la réinitialisation du système. Pour Windows, vous pouvez configurer DCBX à l'aide de la méthode HII ou QoS. La configuration illustrée dans cette section est effectuée à l'aide de HII. Pour QoS, reportez-vous à la section « Configuration de QoS pour RoCE » à la page 124. Préparation du commutateur Ethernet Cette section explique comment configurer un commutateur Ethernet Cisco® Nexus® 6000 et un commutateur Ethernet Dell® Z9100 pour RoCE. Configuration du commutateur Ethernet Cisco Nexus 6000 Configuration du commutateur Ethernet Dell Z9100 58 BC0154503-02 F 6–Configuration de RoCE Préparation du commutateur Ethernet Configuration du commutateur Ethernet Cisco Nexus 6000 Les étapes de configuration du commutateur Ethernet Cisco Nexus 6000 pour RoCE comprennent la configuration des adressages de classes, la configuration des adressages de stratégies, l'application de la stratégie et l'affectation d'un ID VLAN au port de commutateur. Pour configurer le commutateur Cisco : 1. Ouvrez une session de terminal de configuration de la façon suivante : Switch# config terminal switch(config)# 2. Configurez l'adressage de classes de qualité de service (QoS) et définissez la même priorité RoCE que celle de l'adaptateur (5) de la façon suivante : switch(config)# class-map type qos class-roce switch(config)# match cos 5 3. Configurez les adressages de classes de mise en file d'attente de la façon suivante : switch(config)# class-map type queuing class-roce switch(config)# match qos-group 3 4. Configurez les adressages de classes de QoS réseau de la façon suivante : switch(config)# class-map type network-qos class-roce switch(config)# match qos-group 3 5. Configurez les adressages de stratégies de QoS de la façon suivante : switch(config)# policy-map type qos roce switch(config)# class type qos class-roce switch(config)# set qos-group 3 6. Configurez les adressages de stratégies de mise en file d'attente pour l'affectation de la bande passante réseau. Dans cet exemple, utilisez la valeur 50 % : switch(config)# policy-map type queuing roce switch(config)# class type queuing class-roce switch(config)# bandwidth percent 50 7. Configurez les adressages de stratégies de QoS réseau pour définir le contrôle de flux basé sur la priorité pour la classe de trafic « aucune perte » (no drop) de la façon suivante : switch(config)# policy-map type network-qos roce switch(config)# class type network-qos class-roce switch(config)# pause no-drop 59 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server 8. Appliquez la nouvelle stratégie au niveau du système de la façon suivante : switch(config)# switch(config)# switch(config)# switch(config)# switch(config)# 9. system qos service-policy service-policy service-policy service-policy type type type type qos input roce queuing output roce queuing input roce network-qos roce Attribuez un ID VLAN au port de commutateur, en choisissant un ID VLAN identique à celui affecté à l'adaptateur (5). switch(config)# interface ethernet x/x switch(config)# switchport mode trunk switch(config)# switchport trunk allowed vlan 1,5 Configuration du commutateur Ethernet Dell Z9100 Pour configurer le commutateur Ethernet Dell Z9100 pour RoCE, voir la procédure à l'Annexe C Configuration du commutateur Dell Z9100. Configuration de RoCE sur l'adaptateur pour Windows Server La configuration de RoCE sur l'adaptateur pour Windows Server consiste à activer RoCE sur l'adaptateur et à vérifier la taille de MTU Network Direct. Pour configurer RoCE sur un hôte Windows Server : 1. Activez RoCE sur l'adaptateur. a. Ouvrez le gestionnaire de périphériques Windows, puis ouvrez la fenêtre de propriétés adaptateurs QL45212 NDIS Miniport. b. Dans Propriétés de l'adaptateur QLogic FastLinQ, cliquez sur l'onglet Avancé. c. Sur la page Avancé, configurez les propriétés énumérées au Tableau 6-2 en sélectionnant chaque élément sous Propriété et en choisissant une Valeur appropriée pour cet élément. Cliquez sur OK. Tableau 6-2. Propriétés avancées pour RoCE Propriétés Valeur ou description Fonctionnalité Network Direct Activé Taille MTU Network Direct La taille de MTU Network Direct doit être inférieure à la taille de paquet étendu. 60 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-2. Propriétés avancées pour RoCE (Suite) Propriétés Valeur ou description Mode RDMA RoCE v1 ou RoCE v2. ID VLAN Attribuez un ID de VLAN à l'interface. La valeur doit être identique à celle attribuée sur le commutateur. La Figure 6-1 montre un exemple de configuration d'une valeur de propriété. Figure 6-1. Configuration des propriétés RoCE 2. En utilisant Windows PowerShell, vérifiez que RDMA est activé sur l'adaptateur. La commande Get-NetAdapterRdma répertorie les adaptateurs qui prennent en charge RDMA (les deux ports sont activés). REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID de VLAN à l'interface physique. 61 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server PS C:\Users\Administrator> Get-NetAdapterRdma 3. Name InterfaceDescription Enabled ----- -------------------- ------- SLOT 4 3 Port 1 QLogic FastLinQ QL45212... True SLOT 4 3 Port 2 QLogic FastLinQ QL45212... True En utilisant Windows PowerShell, vérifiez que NetworkDirect est activé sur le système d'exploitation hôte. La commande Get-NetOffloadGlobalSetting indique que NetworkDirect est activé. PS C:\Users\Administrators> Get-NetOffloadGlobalSetting 4. ReceiveSideScaling : Enabled ReceiveSegmentCoalescing : Enabled Chimney : Disabled TaskOffload : Enabled NetworkDirect : Enabled NetworkDirectAcrossIPSubnets : Blocked PacketCoalescingFilter : Disabled Connectez un lecteur SMB (Server Message Block, bloc de message serveur), exécutez un trafic RoCE et vérifiez les résultats. Pour configurer et se connecter à un lecteur SMB, consultez les informations disponibles en ligne auprès de Microsoft: https://technet.microsoft.com/en-us/library/hh831795(v=ws.11).aspx 5. Par défaut, Microsoft SMB Direct établit deux connexions RDMA par port, ce qui assure de bonnes performances, y compris pour le débit de ligne avec une taille de blocs plus élevée (par exemple, 64 Ko). Pour optimiser les performances, vous pouvez changer le nombre de connexions RDMA par interface à quatre (ou plus). Pour passer à 4 connexions RDMA (ou plus), saisissez la commande suivante dans Windows PowerShell : PS C:\Users\Administrator> Set-ItemProperty -Path "HKLM:\SYSTEM\CurrentControlSet\Services\LanmanWorkstation\ Parameters" ConnectionCountPerRdmaNetworkInterface -Type DWORD -Value 4 –Force 62 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Affichage des compteurs RDMA Pour afficher les compteurs RDMA pour RoCE : 1. Lancez Performance Monitor. 2. Ouvrez la boîte de dialogue Ajouter des compteurs. La Figure 6-2 montre un exemple. Figure 6-2. Boîte de dialogue Ajouter des compteurs 63 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server 3. Sélectionnez l'un des types de compteur suivants : 4. Contrôle de la congestion FastLinQ Cavium : Ajout d’un incrément en cas de surcharge du réseau et lorsque ECN est activé sur le commutateur. Description des Paquets marqués ECN RoCE V2 et les Paquets de notification de surcharge (CNP) envoyés et reçus avec succès. S’applique uniquement à RoCE v2. Compteurs des ports FastLinQ Cavium : Ajout d’un incrément en cas de surcharge du réseau. Pause dans les incréments du compteur lorsque le contrôle de débit ou la pause globale est configuré et qu’une surcharge se produit dans le réseau. Ajout d’un incrément aux compteurs PFC lorsque le contrôle de débit prioritaire est configuré et qu’une surcharge se produit dans le réseau. Compteurs d’erreurs FastLinQ RDMA Cavium : Ajout d'un incrément en cas d’erreur dans les opérations de transport. Pour plus d'informations, voir Tableau 6-3. Sous Instances de l’objet sélectionné, sélectionnez Total, puis cliquez sur Ajouter. 64 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server La Figure 6-3 présente des exemples de sorties de la surveillance du compteur. Figure 6-3. Performance Monitor : Compteurs FastLinQ Cavium Le Tableau 6-3 fournit des détails à propos des compteurs d’erreurs. Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium Compteur d’erreurs RDMA Débordement du CQ Description Une file d’attente d’achèvement dans laquelle une demande de travail RDMA est publiée. Ce compteur spécifie la quantité des instances dans lesquelles l’achèvement d’une demande de travail était dans la file d’envoi ou de réception, mais sans espace libre dans la file d’attente d’achèvement associée. 65 S’applique à RoCE ? Oui Dépannage Indique un problème de conception logicielle provoquant une taille de file d’attente d’achèvement insuffisante. BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique à RoCE ? Dépannage Mauvaise réponse du demandeur L’interlocuteur a retourné une réponse mal formulée. Oui — CQE du demandeur purgé avec erreur Des demandes de travail publiées peuvent être purgées par l’envoi d’un état Achevé avec purge au CQ (sans terminer l’exécution réelle de la demande de travail) au cas où le QP passerait à l’état d’erreur pour quelque raison que ce soit et où des demandes de travail sont en attente. Si une demande de travail est terminée avec un statut d’erreur, toutes les autres demandes d’erreur en attente pour ce QP seront purgées. Oui Se produit en cas de panne des connexions RDMA. Longueur locale du demandeur Les message de réponse RDMA READ contenait trop ou trop peu de données de charge utile. Oui Indique généralement un problème au niveau des composants du logiciel hôte. Protection locale du demandeur Le Segment de données de la demande de travail publiée localement ne fait pas référence à une Région de la mémoire valide pour l’opération demandée. Oui Indique généralement un problème au niveau des composants du logiciel hôte. Opération de QP local du demandeur Une erreur de cohérence de QP interne a été détectée pendant le traitement de cette demande de travail. Oui — Accès distant au demandeur Une erreur de protection s’est produite sur un tampon de données distant devant être lu par une opération RDMA Read, écrit par une opération RDMA Write ou consultée par une opération atomique. Oui — 66 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique à RoCE ? Dépannage Demande distante du demandeur non valide Le côté distant a reçu un message non valide sur le canal. La demande non valide peut porter sur un message d’envoi ou une demande RDMA. Oui Les causes possibles comprennent les situations dans lesquelles l’opération n’est pas prise en charge par cette file d’attente de réception, où le tampon est insuffisant pour recevoir une nouvelle demande RDMA ou d’opération atomique, ou dans lesquelles la longueur spécifiée dans une demande RDMA est supérieure à 231 octets. Opération distante du demandeur Le côté distant n’a pas pu terminer l’opération demandée en raison de son problème local. Oui Un problème logiciel du côté distant (par exemple, un problème qui a provoqué une erreur QP ou un WQE mal formé sur le RQ) qui a empêché l’achèvement de l’opération. Nombre de tentatives du demandeur dépassé. Limite maximale du nombre de tentatives de transport dépassée. Oui Le pair à distance a peut-être cessé de répondre, ou un problème réseau empêche l’accusé de réception des messages. Nombre de tentatives RNR du demandeur dépassé. Le nombre maximum de nouvelles tentatives dues au RNR RAK reçu a été atteint sans succès Oui Le pair à distance a peut-être cessé de répondre, ou un problème réseau empêche l’accusé de réception des messages. 67 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Description S’applique à RoCE ? Dépannage CQE de l’interlocuteur purgé Les demandes de travail publiées (tampons reçus sur RQ) peuvent être purgées par l’envoi d’état Achevé avec purge au CQ au cas où le QP passe à l’état d’erreur pour quelque raison que ce soit et où des tampons de réception soient en attente sur le RQ. Si une demande de travail est terminée avec un statut d’erreur, toutes les autres demandes d’erreur en attente pour ce QP seront purgées. Oui — Longueur locale de l’interlocuteur Longueur non valide des messages entrants. Oui Mauvais comportement du pair distant. Par exemple, la longueur des messages entrants est supérieure à la taille du tampon de réception. Protection locale de l’interlocuteur Le Segment de données de la demande de travail publiée localement ne fait pas référence à une Région de la mémoire valide pour l’opération demandée. Oui Indique un problème logiciel au niveau de la gestion de la mémoire. Erreur d’opération QP locale de l'interlocuteur. Une erreur de cohérence de QP interne a été détectée pendant le traitement de cette demande de travail. Oui Indique un problème logiciel. 68 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Windows Server Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite) Compteur d’erreurs RDMA Demande distante de l'interlocuteur non valide Description L’interlocuteur a détecté un message entrant non valide sur le canal. 69 S’applique à RoCE ? Oui Dépannage Indique un mauvais comportement possible de la part du pair distant. Les causes possibles comprennent les situations dans lesquelles l’opération n’est pas prise en charge par cette file d’attente de réception, où le tampon est insuffisant pour recevoir une nouvelle demande RDMA, ou dans lesquelles la longueur spécifiée dans une demande RDMA est supérieure à 231 octets. BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration de RoCE sur l'adaptateur pour Linux Cette section présente la procédure de configuration de RoCE pour RHEL et SLES. Elle décrit également la vérification de la configuration de RoCE et fournit des indications sur l'utilisation d'ID de groupe (GID) avec les interfaces VLAN. Configuration de RoCE pour RHEL Configuration de RoCE pour SLES Vérification de la configuration RoCE sous Linux Interfaces VLAN et valeurs d'index GID Configuration de RoCE v2 pour Linux Configuration de RoCE pour RHEL Pour que vous puissiez configurer RoCE sur l'adaptateur, vous devez avoir installé et configuré OFED (Open Fabrics Enterprise Distribution) sur l'hôte RHEL. Pour préparer OFED préinstallé pour RHEL : 1. Pendant l'installation ou la mise à niveau du système d'exploitation, sélectionnez les paquets de support InfiniBand® et OFED. 2. Installez les RPM suivants à partir de l'image ISO RHEL : libibverbs-devel-x.x.x.x86_64.rpm (requis pour la bibliothèque libqedr) perftest-x.x.x.x86_64.rpm (requis pour les applications de bande passante et de latence InfiniBand) Ou bien, avec Yum, installez OFED préinstallé : yum groupinstall "Infiniband Support" yum install perftest yum install tcl tcl-devel tk zlib-devel libibverbs libibverbs-devel REMARQUE Pendant l'installation, si vous avez déjà sélectionné les paquets mentionnés ci-dessus, vous n'avez pas à les réinstaller. Les paquets OFED préinstallé et de support peuvent varier en fonction de la version du système d'exploitation. 3. Installez les nouveaux pilotes Linux, comme décrit à la section « Installation des pilotes Linux avec RDMA » à la page 15. 70 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Configuration de RoCE pour SLES Pour que vous puissiez configurer RoCE sur l'adaptateur pour un hôte SLES, vous devez avoir installé et configuré OFED sur l'hôte SLES. Pour installer OFED préinstallé pour SLES Linux : 1. Pendant l'installation ou la mise à niveau du système d'exploitation, sélectionnez les paquets de support InfiniBand. 2. Installez les RPM suivants à partir de l'image de kit SDK SLES correspondante : libibverbs-devel-x.x.x.x86_64.rpm (requis pour l'installation de libqedr) perftest-x.x.x.x86_64.rpm (requis pour les applications de bande passante et de latence) 3. Installez les pilotes Linux, comme décrit à la section « Installation des pilotes Linux avec RDMA » à la page 15. Vérification de la configuration RoCE sous Linux Après avoir installé OFED et le pilote Linux, et après avoir chargé les pilotes RoCE, vérifiez que les périphériques RoCE ont été détectés sur tous les systèmes d'exploitation Linux. Pour vérifier la configuration RoCE sous Linux : 1. Arrêtez les tables de pare-feu à l'aide des commandes service/systemctl. 2. Pour RHEL uniquement : Si le service RDMA est installé (yum install rdma), vérifiez que le service RDMA est démarré. REMARQUE Pour RHEL 6.x et SLES 11 SP4, vous devez démarrer le service RDMA après le redémarrage. Pour RHEL 7.x et SLES 12 SPX et version ultérieure, le service RDMA démarre automatiquement après le redémarrage. Sur RHEL ou CentOS : Utilisez la commande d'état service rdma pour démarrer le service : Si RDMA n'a pas démarré, entrez la commande suivante : # service rdma start 71 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Si RDMA ne démarre pas, entrez l'une des commandes de substitution suivantes : # /etc/init.d/rdma start ou # systemctl start rdma.service 3. Vérifiez que les périphériques RoCE ont été détectés, en examinant les journaux dmesg : # dmesg|grep qedr [87910.988411] qedr: discovered and registered 2 RoCE funcs 4. Vérifiez que tous les modules ont été chargés. Par exemple : # lsmod|grep qedr 5. qedr 89871 0 qede 96670 1 qedr qed 2075255 ib_core 88311 16 qedr, rdma_cm, ib_cm, ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp, ib_ucm,ib_iser,ib_srpt,ib_umad, ib_uverbs,rdma_ucm,ib_ipoib,ib_isert 2 qede,qedr Configurez l'adresse IP et activez le port à l'aide d'une méthode de configuration, comme ifconfig : # ifconfig ethX 192.168.10.10/24 up 6. Entrez la commande ibv_devinfo. Pour chaque fonction PCI, vous devriez voir une entrée hca_id distincte, comme dans l'exemple suivant : root@captain:~# ibv_devinfo hca_id: qedr0 transport: InfiniBand (0) fw_ver: 8.3.9.0 node_guid: 020e:1eff:fe50:c7c0 sys_image_guid: 020e:1eff:fe50:c7c0 vendor_id: 0x1077 vendor_part_id: 5684 hw_ver: 0x0 phys_port_cnt: 1 port: 1 state: 72 PORT_ACTIVE (1) max_mtu: 4096 (5) active_mtu: 1024 (3) BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux 7. sm_lid: 0 port_lid: 0 port_lmc: 0x00 link_layer: Ethernet Vérifiez la connectivité L2 et RoCE entre tous les serveurs : l'un des serveurs joue le rôle de serveur et l'autre de client. Vérifiez la connexion L2 avec une simple commande ping. Vérifiez la connexion RoCE en exécutant un ping RDMA sur le serveur ou le client : Sur le serveur, entrez la commande suivante : ibv_rc_pingpong -d <ib-dev> -g 0 Sur le client, entrez la commande suivante : ibv_rc_pingpong -d <ib-dev> -g 0 <server L2 IP address> Voici des exemples de tests ping pong réussis sur le serveur et le client : Ping sur le serveur : root@captain:~# ibv_rc_pingpong -d qedr0 -g 0 local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570 8192000 bytes in 0.05 seconds = 1436.97 Mbit/sec 1000 iters in 0.05 seconds = 45.61 usec/iter Ping sur le client : root@lambodar:~# ibv_rc_pingpong -d qedr0 -g 0 192.168.10.165 local address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570 remote address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 8192000 bytes in 0.02 seconds = 4211.28 Mbit/sec 1000 iters in 0.02 seconds = 15.56 usec/iter Pour afficher les statistiques RoCE, entrez les commandes suivantes, où X est le numéro de périphérique : > mount -t debugfs nodev /sys/kernel/debug > cat /sys/kernel/debug/qedr/qedrX/stats 73 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Interfaces VLAN et valeurs d'index GID Si vous utilisez des interfaces VLAN à la fois sur le serveur et sur le client, vous devez également configurer le même ID VLAN sur le commutateur. Si vous exécutez du trafic via un commutateur, les applications InfiniBand doivent utiliser la valeur GID correcte, qui dépend de l'ID VLAN et de l'adresse IP VLAN. Sur la base des résultats suivants, la valeur GID (-x 4 / -x 5) doit être utilisée pour toutes les applications perftest. # ibv_devinfo -d qedr0 -v|grep GID GID[ 0]: fe80:0000:0000:0000:020e:1eff:fe50:c5b0 GID[ 1]: 0000:0000:0000:0000:0000:ffff:c0a8:0103 GID[ 2]: 2001:0db1:0000:0000:020e:1eff:fe50:c5b0 GID[ 3]: 2001:0db2:0000:0000:020e:1eff:fe50:c5b0 GID[ 4]: 0000:0000:0000:0000:0000:ffff:c0a8:0b03 Adresse IP de l'interface VLAN GID[ 5]: fe80:0000:0000:0000:020e:1e00:0350:c5b0 ID VLAN 3 REMARQUE La valeur GID par défaut est zéro (0) pour les paramètres dos à dos ou Pause. Pour les configurations de serveur/commutateur, vous devez identifier la valeur GID correcte. Si vous utilisez un commutateur, consultez la documentation de configuration correspondante pour connaître les paramètres appropriés. Configuration de RoCE v2 pour Linux Pour vérifier la fonctionnalité de RoCE v2, vous devez utiliser des noyaux pris en charge par RoCE v2. Pour configurer RoCE v2 pour Linux : 1. Assurez-vous que vous utilisez l'un des noyaux pris en charge suivants : 2. SLES 12 SP2 GA RHEL 7.3 GA Configurer RoCE v2 comme suit : a. Identifiez l'index GID de RoCE v2. b. Configurez l'adresse de routage du serveur et du client. c. Activez le routage L3 sur le commutateur. 74 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux REMARQUE Vous pouvez configurer RoCE v1 et RoCE v2 en utilisant des noyaux pris en charge par RoCE v2. Ces noyaux vous permettent d'exécuter le trafic RoCE sur le même sous-réseau, ainsi que sur des sous-réseaux différents tels que RoCE v2 et tout environnement routable. Seuls quelques paramètres sont requis pour RoCE v2, et tous les autres paramètres de commutateur et d'adaptateur sont communs pour RoCE v1 et RoCE v2. Identification de l'index GID de RoCE v2 ou de l'adresse Pour trouver les GID spécifiques de RoCE v1 et RoCE v2, utilisez les paramètres sys ou class, ou exécutez les scripts RoCE du paquet source QL45212 FastLinQ. Pour vérifier l'adresse et l'index GID de RoCE par défaut, exécutez la commande ibv_devinfo et comparez-les aux paramètres sys ou class. Par exemple : #ibv_devinfo -d qedr0 -v|grep GID GID[ 0]: fe80:0000:0000:0000:020e:1eff:fec4:1b20 GID[ 1]: fe80:0000:0000:0000:020e:1eff:fec4:1b20 GID[ 2]: 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 3]: 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 4]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 5]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 6]: 0000:0000:0000:0000:0000:ffff:c0a8:6403 GID[ 7]: 0000:0000:0000:0000:0000:ffff:c0a8:6403 Vérification de l'adresse et de l'index GID de RoCE v1 ou v2 à partir des paramètres sys et class Utilisez l'une des options suivantes pour vérifier l'adresse et l'index GID de RoCE v1 ou RoCE v2 à partir des paramètres sys et class : Option 1 # cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/0 IB/RoCE v1 # cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/1 RoCE v2 # cat /sys/class/infiniband/qedr0/ports/1/gids/0 fe80:0000:0000:0000:020e:1eff:fec4:1b20 # cat /sys/class/infiniband/qedr0/ports/1/gids/1 fe80:0000:0000:0000:020e:1eff:fec4:1b20 75 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Option 2 Utilisez les scripts du paquet source FastLinQ. #/../fastlinq-8.x.x.x/add-ons/roce/show_gids.sh DEV PORT INDEX GID IPv4 VER DEV --- ---- ------------ ----- --- --- --- qedr0 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v1 p4p1 qedr0 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v2 p4p1 qedr0 1 2 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.10 v1 p4p1 qedr0 1 3 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.10 v2 p4p1 qedr0 1 4 3ffe:ffff:0000:0f21:0000:0000:0000:0004 v1 p4p1 qedr0 1 5 3ffe:ffff:0000:0f21:0000:0000:0000:0004 v2 p4p1 qedr0 1 6 0000:0000:0000:0000:0000:ffff:c0a8:6403 192.168.100.3 v1 p4p1.100 qedr0 1 7 0000:0000:0000:0000:0000:ffff:c0a8:6403 192.168.100.3 v2 p4p1.100 qedr1 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b21 v1 p4p2 qedr1 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b21 v2 p4p2 REMARQUE Vous devez spécifier les valeurs de l'index GID de RoCE v1 ou RoCE v2 en fonction de la configuration de serveur ou de commutateur (Pause/PFC). Utilisez l'index GID pour l'adresse IPv6, l'adresse IPv4 ou l'adresse IPv6 locale du lien. Pour utiliser des trames de VLAN marquées pour le trafic RoCE, vous devez spécifier des valeurs d'index GID dérivées de l'adresse IPv4 ou IPv6 de VLAN. Vérification de la fonctionnalité de RoCE v1 ou v2 par les applications perftest Cette section décrit la vérification de la fonctionnalité de RoCE v1 ou RoCE v2 par les applications perftest. Dans cet exemple, l'adresse IP de serveur et l'adresse IP de client suivantes sont utilisées : Adresse IP de serveur : 192.168.100.3 Adresse IP de client : 192.168.100.4 Vérification de RoCE v1 Exécutez sur le même sous-réseau, et utilisez l'index GID de RoCE v1. Server# ib_send_bw -d qedr0 -F -x 0 Client# ib_send_bw -d qedr0 -F -x 0 76 192.168.100.3 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Vérification de RoCE v2 Exécutez sur le même sous-réseau et utilisez l'index GID de RoCE v2. Server# ib_send_bw -d qedr0 -F -x 1 Client# ib_send_bw -d qedr0 -F -x 1 192.168.100.3 REMARQUE Si vous exécutez via une configuration PFC de commutateur, utilisez les GID de VLAN de RoCE v1 ou v2 via le même sous-réseau. Vérification de RoCE v2 via des sous-réseaux différents REMARQUE Vous devez d'abord configurer les paramètres de routage du commutateur et des serveurs. Sur l'adaptateur, définissez la priorité de RoCE, et le mode DCBX en utilisant l'interface utilisateur HII ou UEFI. Pour vérifier RoCE v2 via des sous-réseaux différents 1. Définissez la configuration de routage du serveur et du client en utilisant la configuration DCBX-PFC. Paramètres système : Adresse IP de VLAN du serveur : 192.168.100.3 et Passerelle : 192.168.100.1 Adresse IP de VLAN du client : 192.168.101.3 et Passerelle : 192.168.101.1 Configuration du serveur : #/sbin/ip link add link p4p1 name p4p1.100 type vlan id 100 #ifconfig p4p1.100 192.168.100.3/24 up #ip route add 192.168.101.0/24 via 192.168.100.1 dev p4p1.100 Configuration du client : #/sbin/ip link add link p4p1 name p4p1.101 type vlan id 101 #ifconfig p4p1.101 192.168.101.3/24 up #ip route add 192.168.100.0/24 via 192.168.101.1 dev p4p1.101 77 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux 2. Configurez les paramètres de commutateur à l'aide de la procédure suivante. Utilisez une méthode quelconque de contrôle de flux (Pause, DCBX-CEE ou DCBX-IEEE), et activez le routage IP pour RoCE v2. Reportez-vous à « Préparation du commutateur Ethernet » à la page 58 pour la configuration de RoCE v2, ou consultez les documents relatifs au commutateur fournis par le fournisseur. Si vous utilisez la configuration PFC et le routage L3, exécutez le trafic RoCE v2 sur le VLAN en utilisant un sous-réseau différent, et utilisez l'index GID de VLAN de RoCE v2. Server# ib_send_bw -d qedr0 -F -x 5 Client# ib_send_bw -d qedr0 -F -x 5 192.168.100.3 Paramètres de commutateur du serveur : Figure 6-4. Paramètres de commutateur, serveur 78 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour Linux Paramètres de commutateur du client : Figure 6-5. Paramètres de commutateur, client Configuration des paramètres de RoCE v1 ou RoCE v2 pour les applications RDMA_CM Pour configurer RoCE, utilisez les scripts du paquet source FastLinQ suivants : # ./show_rdma_cm_roce_ver.sh qedr0 is configured to IB/RoCE v1 qedr1 is configured to IB/RoCE v1 # ./config_rdma_cm_roce_ver.sh v2 configured rdma_cm for qedr0 to RoCE v2 configured rdma_cm for qedr1 to RoCE v2 Paramètres du serveur : Figure 6-6. Configuration des applications RDMA_CM : Serveur 79 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Paramètres du client : Figure 6-7. Configuration des applications RDMA_CM : Client Configuration de RoCE sur l'adaptateur pour VMware ESX Cette section fournit les procédures et les informations suivantes pour la configuration de RoCE : Configuration des interfaces RDMA Configuration du MTU Mode RoCE et statistiques Configuration d'un périphérique RDMA paravirtuel (PVRDMA) Configuration des interfaces RDMA Pour configurer les interfaces RDMA : 1. Installez les pilotes NIC et RoCE de QLogic. 2. A l'aide du paramètre module, activez la fonction RoCE à partir du pilote NIC en exécutant la commande suivante : esxcfg-module -s 'enable_roce=1' qedentv Pour appliquer la modification, rechargez le pilote de carte réseau (NIC) ou redémarrez le système. 3. Pour afficher une liste des interfaces NIC, entrez la commande esxcfg-nics -l. Par exemple : esxcfg-nics -l Name PCI Vmnic0 0000:01:00.2 qedentv Driver Link Speed Duplex MAC Address Up Full 25000Mbps MTU Description a4:5d:36:2b:6c:92 1500 QLogic Corp. a4:5d:36:2b:6c:93 1500 QLogic Corp. QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter Vmnic1 0000:01:00.3 qedentv Up 25000Mbps Full QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter 80 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX 4. Pour afficher une liste des périphériques RDMA, entrez la commande esxcli rdma device list . Par exemple : esxcli rdma device list Name Driver State Speed Paired Uplink Description ------- ------- ------ ---- ------- ------------- ------------------------------- vmrdma0 qedrntv Active 1024 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface 5. MTU Pour ajouter un nouveau commutateur virtuel, entrez la commande suivante : esxcli network vswitch standard add -v <new vswitch name> Par exemple : # esxcli network vswitch standard add -v roce_vs Cela crée un nouveau commutateur virtuel nommé roce_vs. 6. Pour associer le port NIC QLogic au vSwitch, entrez la commande suivante : # esxcli network vswitch standard uplink add -u <uplink device> -v <roce vswitch> Par exemple : # esxcli network vswitch standard uplink add -u vmnic0 -v roce_vs 7. Pour ajouter un nouveau groupe de ports au vSwitch, entrez la commande suivante : # esxcli network vswitch standard portgroup add -p roce_pg -v roce_vs Par exemple : # esxcli network vswitch standard portgroup add -p roce_pg -v roce_vs 8. Pour créer une interface vmknic sur ce groupe de ports et configurer l'adresse IP, entrez la commande suivante : # esxcfg-vmknic -a -i <IP address> -n <subnet mask> <roce port group name> Par exemple : # esxcfg-vmknic -a -i 192.168.10.20 -n 255.255.255.0 roce_pg 9. Pour configurer l'ID VLAN, entrez la commande suivante : # esxcfg-vswitch -v <VLAN ID> -p roce_pg 81 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Pour exécuter le trafic RoCE avec l'ID VLAN, configurez l'ID VLAN sur le groupe de ports VMkernel correspondant. Configuration du MTU Pour modifier l'interface MTU pour RoCE, modifiez le MTU du vSwitch correspondant. Définissez la taille MTU de l'interface RDMA basée sur le MTU du vSwitch en exécutant la commande suivante : # esxcfg-vswitch -m <new MTU> <RoCE vswitch name> Par exemple : # esxcfg-vswitch -m 4000 roce_vs # esxcli rdma device list Name Driver State MTU ------- ------- ------ vmrdma0 qedrntv Active 2048 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface ---- Speed Paired Uplink Description ------- ------------- ------------------------------- Mode RoCE et statistiques Pour le mode RoCE, ESXi nécessite la prise en charge simultanée de RoCE v1 et v2. La décision concernant le choix du mode RoCE à utiliser est prise lors de la création de la paire de files d'attente. Le pilote ESXi annonce les deux modes lors de l'enregistrement et de l'initialisation. Pour afficher les statistiques d'interface, entrez la commande suivante : # esxcli rdma device stats get -d vmrdma0 Packets received: 0 Packets sent: 0 Bytes received: 0 Bytes sent: 0 Error packets received: 0 Error packets sent: 0 Error length packets received: 0 Error packets received: 0 Multicast packets received: 0 Unicast bytes received: 0 Multicast bytes received: 0 Unicast packets sent: 0 Multicast packets sent: 0 Unicast bytes sent: 0 Multicast bytes sent: 0 Queue pairs allocated: 0 82 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX Queue pairs in RESET state: 0 Queue pairs in INIT state: 0 Queue pairs in RTR state: 0 Queue pairs in RTS state: 0 Queue pairs in SQD state: 0 Queue pairs in SQE state: 0 Queue pairs in ERR state: 0 Queue pair events: 0 Completion queues allocated: 1 Completion queue events: 0 Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0 Memory windows allocated: 0 Configuration d'un périphérique RDMA paravirtuel (PVRDMA) Pour configurer un PVRDMA à l'aide d’une interface vCenter : 1. Créez et configurez un nouveau commutateur virtuel distribué comme suit : a. Dans le client Web vSphere VMware, cliquez avec le bouton droit de la souris sur le noeud RoCE dans le volet gauche de la fenêtre du Navigateur. b. Dans le menu Actions, placez le pointeur de la souris sur Distributed Switch (Commutateur distribué), puis cliquez sur New Distributed Switch (Nouveau commutateur distribué). c. Sélectionnez la version 6.5.0. d. Sous New Distributed Switch (Nouveau commutateur distribué), cliquez sur Edit settings (Modifier les paramètres), puis effectuez la configurations suivante : Number of uplinks (Nombre de liaisons montantes). Sélectionnez la valeur appropriée. Network I/O Control (Contrôle des E/S réseau). Sélectionnez Disabled (Désactivé). Groupe de ports par défaut. Sélectionnez cette case à cocher. Port group name (Nom du groupe de ports). Saisissez un nom pour le groupe de ports. 83 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX La Figure 6-8 montre un exemple. Figure 6-8. Configuration d'un nouveau commutateur distribué 2. 3. Configurez un commutateur virtuel distribué comme suit : a. Dans le client Web vSphere VMware, développez le noeud RoCE dans le volet gauche de la fenêtre du Navigateur. b. Cliquez avec le bouton droit de la souris sur RoCE-VDS (VDS RoCE), puis cliquez sur Add and Manage Hosts (Ajouter et gérer les hôtes). c. Sous Add and Manage Hosts (Ajouter et gérer les hôtes), effectuez la configuration suivante : Assign uplinks (Assigner des liaisons montantes). Effectuez votre sélection dans la liste des liaisons montantes disponibles. Manage VMkernel network adapters (Gérer les cartes réseau VMkernel). Acceptez les valeurs par défaut, puis cliquez sur Next (Suivant). Migrate VM networking (Migration de réseau de VM). Assignez le groupe de ports créé à l'étape 1. Assignez un vmknic pour le PVRDMA pour une utilisation sur les hôtes ESX : a. Cliquez avec le bouton droit de la souris sur un hôte, puis cliquez sur Settings (Paramètres). b. Dans la page Paramètres, développez le noeud System (Système), puis cliquez sur Advanced System Settings (Paramètres système avancés). c. La page Paramètres système avancés affiche la valeur de la paire de clés et son récapitulatif. Cliquez sur Edit (Modifier). d. Dans la page Modifier les paramètres système avancés, filtrez sur PVRDMA pour afficher uniquement Net.PVRDMAVmknic. e. Définissez la valeur de Net.PVRDMAVmknic sur vmknic ; par exemple, vmk1. 84 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX La Figure 6-9 montre un exemple. Figure 6-9. Assignation d'un vmknic pour un PVRDMA 4. Définissez la règle de pare-feu pour le PVRDMA : a. Cliquez avec le bouton droit de la souris sur un hôte, puis cliquez sur Settings (Paramètres). b. Dans la page Paramètres, développez le noeud System (Système), puis cliquez sur Security Profile (Profil de sécurité). c. Sur la page Récapitulatif du pare-feu, cliquez sur Edit (Modifier). d. Dans la boîte de dialogue Modifier le profil de sécurité sous Name (Nom), faites défiler vers le bas, activez la case à cocher pvrdma, puis activez la case à cocher Set Firewall (Définir le pare-feu). La Figure 6-10 montre un exemple. Figure 6-10. Définition de la règle de pare-feu 85 BC0154503-02 F 6–Configuration de RoCE Configuration de RoCE sur l'adaptateur pour VMware ESX 5. Configurez la VM pour le PVRDMA comme suit : a. Installez l'un des systèmes d'exploitation invités pris en charge suivants : RHEL 7.2 Ubuntu 14.04 (kernel version 4.0) b. Installez OFED-3.18. c. Compilez et installez le pilote invité et la bibliothèque PVRDMA. d. Ajoutez une nouvelle carte réseau PVRDMA à la VM comme suit : e. Modifiez les paramètres de la VM. Ajoutez une nouvelle carte réseau. Sélectionnez le groupe de ports DVS récemment ajouté en tant que Network (Réseau). Sélectionnez PVRDMA comme type d'adaptateur. Après le démarrage de la VM, assurez-vous que le pilote invité PVRDMA est chargé. 86 BC0154503-02 F 7 Configuration d'iSER Ce chapitre fournit des procédures pour configurer les Extensions iSCSI pour RDMA (iSER) pour Linux (RHEL et SLES) et ESXi 6.7, notamment : Avant de commencer Configuration d'iSER pour RHEL « Configuration d'iSER pour SLES 12 » à la page 91 « Optimisation des performances Linux » à la page 92 « Configuration d’iSER sous ESXi 6.7 » à la page 93 Avant de commencer Lorsque vous vous préparez à configurer iSER, tenez compte des points suivants : iSER est pris en charge uniquement avec OFED préinstallé pour les systèmes d'exploitation suivants : RHEL 7.1 et 7.2 SLES 12 et 12 SP1 CentOS 7.2 OFED non préinstallé ne prend pas en charge la configuration de cibles iSER et aucun module ib_isert n'est disponible pour les versions d'OFED non préinstallées. Après la connexion aux cibles ou pendant l'exécution du trafic d'E/S, le déchargement du pilote RoCE pour Linux qedr peut faire planter le système. Pendant l'exécution d'E/S, la réalisation de tests d'activité/inactivité de l'interface et de tests de traction des câbles peuvent provoquer des erreurs des pilotes ou des modules iSER, susceptibles de faire planter le système. Si cela se produit, redémarrez le système. 87 BC0154503-02 F 7–Configuration d'iSER Configuration d'iSER pour RHEL Configuration d'iSER pour RHEL Pour configurer iSER pour RHEL : 1. Installez OFED préinstallé, comme indiqué à la section « Configuration de RoCE pour RHEL » à la page 70. Les versions d'OFED non préinstallées ne sont pas prises en charge pour iSER parce que le module ib_isert n'est pas disponible dans les versions d'OFED non préinstallées 3.18-2 GA/3.18-3 GA. Le module ib_isert de boîte de réception ne fonctionne avec aucune version d'OFED non préinstallée. 2. Déchargez tous les pilotes FastLinQ existants, comme indiqué à la section « Suppression des pilotes Linux » à la page 11. 3. Installez la dernière version des paquets libqedr et des pilotes FastLinQ, comme il est décrit à la section « Installation des pilotes Linux avec RDMA » à la page 15. 4. Chargez les services RDMA comme suit : systemctl start rdma modprobe qedr modprobe ib_iser modprobe ib_isert 5. Vérifiez que tous les modules RDMA et iSER sont chargés sur les périphériques d'origine et cible, à l'aide des commandes lsmod | grep qed et lsmod | grep iser. 6. Vérifiez qu'il existe des instances hca_id séparées, en entrant la commande ibv_devinfo comme indiqué à l'étape 6, page 72. 7. Vérifiez la connexion RDMA sur le périphérique d'origine et le périphérique cible. a. Sur le périphérique de l'initiateur, entrez la commande suivante : rping -s -C 10 -v b. Sur le périphérique cible, entrez la commande suivante : rping -c -a 192.168.100.99 -C 10 -v 88 BC0154503-02 F 7–Configuration d'iSER Configuration d'iSER pour RHEL La Figure 7-1 montre un exemple de ping RDMA réussi. Figure 7-1. Ping RDMA réussi 8. Vous pouvez utiliser une cible TCM-LIO Linux pour tester iSER. La configuration est identique pour les cibles iSCSI, mais vous entrez la commande enable_iser Boolean=true sur les portails concernés. Les instances de portail sont identifiées comme iser à la Figure 7-2. Figure 7-2. Instances de portail iSER 9. Installez les utilitaires d'initiateur iSCSI Linux à l'aide des commandes yum install iscsi-initiator-utils. a. Pour détecter la cible iSER, entrez la commande iscsiadm : Par exemple : iscsiadm -m discovery -t st -p 192.168.100.99:3260 89 BC0154503-02 F 7–Configuration d'iSER Configuration d'iSER pour RHEL b. Pour changer le mode de transport à iSER, entrez la commande iscsiadm. Par exemple : iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser c. Pour vous connecter à la cible iSER, entrez la commande iscsiadm. Par exemple : iscsiadm -m node -l -p 192.168.100.99:3260 -T iqn.2015-06.test.target1 d. Vérifiez que la valeur de Iface Transport est iser dans la connexion cible, comme le montre la Figure 7-3. Entrez la commande iscsiadm. Par exemple : iscsiadm -m session -P2 Figure 7-3. Vérification de Iface Transport 90 BC0154503-02 F 7–Configuration d'iSER Configuration d'iSER pour SLES 12 e. Pour vérifier un nouveau périphérique iSCSI, comme le montre la Figure 7-4, entrez la commande lsscsi. Figure 7-4. Vérification de nouveau périphérique iSCSI Configuration d'iSER pour SLES 12 Étant donné que targetcli n'est pas préinstallé sur SLES 12.x, vous devez effectuer la procédure suivante. Pour configurer iSER pour SLES 12 : 1. Pour installer targetcli, copiez et installez les RPM suivants depuis l'image ISO (emplacement x86_64 et noarch) : lio-utils-4.1-14.6.x86_64.rpm python-configobj-4.7.2-18.10.noarch.rpm python-PrettyTable-0.7.2-8.5.noarch.rpm python-configshell-1.5-1.44.noarch.rpm python-pyparsing-2.0.1-4.10.noarch.rpm python-netifaces-0.8-6.55.x86_64.rpm python-rtslib-2.2-6.6.noarch.rpm python-urwid-1.1.1-6.144.x86_64.rpm targetcli-2.1-3.8.x86_64.rpm 2. Avant de démarrer targetcli, chargez tous les pilotes de périphérique RoCE et modules iSER, comme suit : # modprobe qed # modprobe qede # modprobe qedr # modprobe ib_iser (Initiateur) # modprobe ib_isert (Cible) 3. Avant de configurer les cibles iSER, configurez les interfaces NIC et exécutez le trafic L2 et RoCE, comme décrit à l'étape 7 à la page 73. 91 BC0154503-02 F 7–Configuration d'iSER Optimisation des performances Linux 4. Démarrez l'utilitaire targetcli, puis configurez vos cibles sur le système cible iSER. NOTE Les versions de targetcli ne sont pas les mêmes sous RHEL et SLES. Veillez à utiliser les backstores correctes pour configurer vos cibles. RHEL utilise ramdisk. SLES utilise rd_mcp. Optimisation des performances Linux Considérez les améliorations de configuration des performances Linux suivantes décrites dans cette section. Configuration des UC sur le mode Performances maximales Configuration des paramètres sysctl du noyau Configuration des paramètres d'affinité d'IRQ Configuration de la préparation de périphériques de traitement par blocs Configuration des UC sur le mode Performances maximales Configurez les performances du gestionnaire de mise à l'échelle des UC en utilisant le script suivant pour configurer toutes les UC sur le mode Performances maximales : for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f $CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done Vérifiez que les cœurs d'UC sont configurés sur le mode Performances maximales, en entrant la commande suivante : cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor Configuration des paramètres sysctl du noyau Définissez les paramètres sysctl du noyau comme suit : sysctl -w net.ipv4.tcp_mem="4194304 4194304 4194304" sysctl -w net.ipv4.tcp_wmem="4096 65536 4194304" sysctl -w net.ipv4.tcp_rmem="4096 87380 4194304" sysctl -w net.core.wmem_max=4194304 sysctl -w net.core.rmem_max=4194304 sysctl -w net.core.wmem_default=4194304 sysctl -w net.core.rmem_default=4194304 92 BC0154503-02 F 7–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 sysctl -w net.core.netdev_max_backlog=250000 sysctl -w net.ipv4.tcp_timestamps=0 sysctl -w net.ipv4.tcp_sack=1 sysctl -w net.ipv4.tcp_low_latency=1 sysctl -w net.ipv4.tcp_adv_win_scale=1 echo 0 > /proc/sys/vm/nr_hugepages Configuration des paramètres d'affinité d'IRQ L'exemple suivant configure respectivement les cœurs d'UC 0, 1, 2 et 3 pour interrompre les demandes (IRQ) XX, YY, ZZ et XYZ, respectivement. Effectuez ces étapes pour chaque IRQ attribuée à un port (par défaut, huit files d'attente par port). systemctl disable irqbalance systemctl stop irqbalance cat /proc/interrupts | grep qedr Affiche les IRQ attribuées à chaque file d'attente de port. echo 1 > /proc/irq/XX/smp_affinity_list echo 2 > /proc/irq/YY/smp_affinity_list echo 4 > /proc/irq/ZZ/smp_affinity_list echo 8 > /proc/irq/XYZ/smp_affinity_list Configuration de la préparation de périphériques de traitement par blocs Définissez les paramètres de préparation de périphériques de traitement par blocs pour chaque périphérique ou cible iSCSI comme suit : echo noop > /sys/block/sdd/queue/scheduler echo 2 > /sys/block/sdd/queue/nomerges echo 0 > /sys/block/sdd/queue/add_random echo 1 > /sys/block/sdd/queue/rq_affinity Configuration d’iSER sous ESXi 6.7 Cette section fournit des informations sur la configuration d’iSER pour VMware ESXi 6.7. Avant de commencer Avant de configurer iSER pour ESXi 6.7, assurez-vous que les éléments suivants sont complets : 93 BC0154503-02 F 7–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 Le jeu CNA avec les pilotes NIC et RoCE est installé sur le système ESXi 6.7 et les appareils sont répertoriés. Pour afficher les appareils RDMA, émettez la commande suivante : esxcli rdma device list Name Driver State Speed Paired Uplink Description ------- ------- ------ ---- MTU ------- ------------- -------------------------------------- vmrdma0 qedrntv Active 1024 40 Gbps vmnic4 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 40 Gbps vmnic5 QLogic FastLinQ QL45xxx RDMA Interface [root@localhost:~] esxcfg-vmknic -l Interface Port Group/DVPort/Opaque Network Netmask Broadcast IP Family IP Address MAC Address MTU TSO MSS Enabled Type NetStack vmk0 Management Network 255.255.240.0 172.28.15.255 IPv4 172.28.12.94 e0:db:55:0c:5f:94 1500 65535 true DHCP defaultTcpipStack vmk0 Management Network 64 IPv6 fe80::e2db:55ff:fe0c:5f94 e0:db:55:0c:5f:94 1500 65535 true STATIC, PREFERRED defaultTcpipStack La cible iSER est configurée pour communiquer avec l’initiateur iSER. Configuration d’iSER pour ESXi 6.7 Pour configurer iSER pour ESXi 6.7 : 1. Ajoutez les appareils iSER en émettant les commandes suivantes : esxcli rdma iser add esxcli iscsi adapter list Adapter Driver State UID Description ------- ------ ------- ------------- ------------------------------------- vmhba64 iser unbound iscsi.vmhba64 VMware iSCSI over RDMA (iSER) Adapter vmhba65 iser unbound iscsi.vmhba65 VMware iSCSI over RDMA (iSER) Adapter 2. Désactivez le pare-feu comme suit : esxcli network firewall set --enabled=false esxcli network firewall unload vsish -e set /system/modules/iscsi_trans/loglevels/iscsitrans 0 vsish -e set /system/modules/iser/loglevels/debug 4 3. Créez un groupe de ports vSwitch VMkernel standard et attribuez l’adresse IP : esxcli network vswitch standard add -v vSwitch_iser1 esxcfg-nics -l Name PCI Driver vmnic0 0000:01:00.0 ntg3 Link Speed Duplex MAC Address Up Full 1000Mbps MTU e0:db:55:0c:5f:94 1500 Description Broadcom Corporation NetXtreme BCM5720 Gigabit Ethernet 94 BC0154503-02 F 7–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 vmnic1 0000:01:00.1 ntg3 Down 0Mbps Half e0:db:55:0c:5f:95 1500 Broadcom Half e0:db:55:0c:5f:96 1500 Broadcom Half e0:db:55:0c:5f:97 1500 Broadcom Full 00:0e:1e:d5:f6:a2 1500 QLogic Corp. Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic2 0000:02:00.0 ntg3 Down 0Mbps Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic3 0000:02:00.1 ntg3 Down 0Mbps Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic4 0000:42:00.0 qedentv Up 40000Mbps QLogic FastLinQ QL45xxx 10/25/40/50/100 GbE Ethernet Adapter vmnic5 0000:42:00.1 qedentv Up 40000Mbps Full 00:0e:1e:d5:f6:a3 1500 QLogic Corp. QLogic FastLinQ QL45xxx 10/25/40/50/100 GbE Ethernet Adapter esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1 esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1 esxcli network ip interface add -i vmk1 -p "rdma_group1" esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.0 -t static esxcfg-vswitch -p "rdma_group1" -v 4095 vSwitch_iser1 esxcli iscsi networkportal add -n vmk1 -A vmhba65 esxcli iscsi networkportal list esxcli iscsi adapter get -A vmhba65 vmhba65 Name: iqn.1998-01.com.vmware:localhost.punelab.qlogic.com qlogic.org qlogic.com mv.qlogic.com:1846573170:65 Alias: iser-vmnic5 Vendor: VMware Model: VMware iSCSI over RDMA (iSER) Adapter Description: VMware iSCSI over RDMA (iSER) Adapter Serial Number: vmnic5 Hardware Version: Asic Version: Firmware Version: Option Rom Version: Driver Name: iser-vmnic5 Driver Version: TCP Protocol Supported: false Bidirectional Transfers Supported: false Maximum Cdb Length: 64 Can Be NIC: true Is NIC: true Is Initiator: true Is Target: false Using TCP Offload Engine: true Using ISCSI Offload Engine: true 95 BC0154503-02 F 7–Configuration d'iSER Configuration d’iSER sous ESXi 6.7 4. Ajoutez la cible à l’initiateur iSER comme suit : esxcli iscsi adapter target list esxcli iscsi adapter discovery sendtarget add -A vmhba65 -a 192.168.10.11 esxcli iscsi adapter target list Adapter Target Alias Discovery Method Last Error ------- ------------------------ ----- ---------------- ---------- vmhba65 iqn.2015-06.test.target1 SENDTARGETS No Error esxcli storage core adapter rescan --adapter vmhba65 5. Répertoriez la cible jointe comme suit : esxcfg-scsidevs -l mpx.vmhba0:C0:T4:L0 Type de périphérique : CD-ROM Taille : 0 Mo Nom d’affichage : Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0) Plug-in multichemin : NMP Périphérique de console : /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Chemin Devfs : /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0 Fournisseur : TSSTcorp Niveau SCSI : 5 Modèle : DVD-ROM SN-108BB Révision : D150 Is Pseudo: false Status: on Is RDM Capable: false Is Removable: true Is Local: true Is SSD: false Autres noms : vml.0005000000766d686261303a343a30 Statut VAAI : unsupported naa.6001405e81ae36b771c418b89c85dae0 Type de périphérique : Direct-Access Taille : 512 Mo Nom d’affichage : LIO-ORG iSCSI Disk (naa.6001405e81ae36b771c418b89c85dae0) Plug-in multichemin : NMP Périphérique de console : /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0 Chemin Devfs : /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0 Fournisseur : LIO-ORG Niveau SCSI : 5 Model: ram1 Révision : 4,0 Is Pseudo: false Status: degraded Is RDM Capable: true Is Removable: false Is Local: false Is SSD: false Autres noms : vml.02000000006001405e81ae36b771c418b89c85dae072616d312020 Statut VAAI : supported naa.690b11c0159d050018255e2d1d59b612 96 BC0154503-02 F 8 Configuration de SR-IOV Single Root Input/Output Virtualization (SR-IOV) est une spécification de PCI-SIG qui permet à un seul périphérique PCI Express (PCIe) d'apparaître sous la forme de plusieurs périphériques PCIe physiques distincts. SR-IOV permet d'isoler les ressources PCIe à des fins de performance, d'interopérabilité et de gestion. REMARQUE Certaines fonctionnalités SR-IOV peuvent ne pas être entièrement activées dans la version actuelle. Ce chapitre fournit des instructions concernant : Configuration de SR-IOV sous Windows « Configuration de SR-IOV sous Linux » à la page 104 « Configuration de SR-IOV sous VMware » à la page 111 Configuration de SR-IOV sous Windows Pour configurer SR-IOV sous Windows : 1. Accédez à la configuration système du BIOS du serveur, puis cliquez sur Paramètres BIOS système. 2. Sur la page Paramètres BIOS système, cliquez sur Périphériques intégrés. 3. Sur la page Périphériques intégrés (Figure 8-1) : a. Définissez l'option Activation globale SR-IOV sur Activé. b. Cliquez sur Précédent. 97 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Windows Figure 8-1. Configuration système pour SR-IOV : Périphériques intégrés 4. Sur la page de configuration principale de l'adaptateur sélectionné, cliquez sur Device Level Configuration (Configuration au niveau du périphérique). 5. Sur la page de configuration principale – Configuration au niveau du périphérique (Figure 8-2) : a. Définissez le Virtualization Mode (Mode de virtualisation) sur SR-IOV. b. Cliquez sur Back (Précédent). Figure 8-2. Configuration système pour SR-IOV : Configuration au niveau du périphérique 6. Sur la page de configuration principale, cliquez sur Finish (Terminer). 7. Dans la boîte de dialogue Avertissement – Enregistrement des modifications, cliquez sur Yes (Oui) pour enregistrer la configuration. 8. Dans la boîte de dialogue Succès – Enregistrement des modifications, cliquez sur OK. 98 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Windows 9. Pour activer SR-IOV sur l'adaptateur miniport : a. Accédez au Gestionnaire de périphériques. b. Ouvrez les propriétés de l'adaptateur miniport, puis cliquez sur l'onglet Avancé. c. Sur la page Propriétés avancées (Figure 8-3) sous Propriété, sélectionnez SR-IOV, puis définissez la valeur sur Activé. d. Cliquez sur OK. Figure 8-3. Propriétés de l'adaptateur, Avancé : Activation de SR-IOV 10. Pour créer un commutateur de machine virtuelle avec SR-IOV (Figure 8-4 à la page 100) : a. Lancez le Gestionnaire Hyper-V. b. Sélectionnez Virtual Switch Manager (Gestionnaire de commutateur virtuel). c. Dans la zone Name (Nom), entrez un nom pour le commutateur virtuel. d. Sous Connection type (Type de connexion), sélectionnez External network (Réseau externe). e. Cochez la case Enable single-root I/O virtualization (SR-IOV) (Activer single-root I/O virtualization (SR-IOV)), puis cliquez sur Apply (Appliquer). 99 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Windows REMARQUE Veillez à activer SR-IOV lorsque vous créez le vSwitch. Cette option n'est pas disponible une fois que le vSwitch a été créé. Figure 8-4. Gestionnaire de commutateur virtuel : Activation de SR-IOV f. La boîte de dialogue Appliquer les modifications réseau vous indique que les Pending changes may disrupt network connectivity (Modifications en attente peuvent perturber la connectivité réseau). Pour enregistrer vos modifications et continuer, cliquez sur Yes (Oui). 100 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Windows 11. Pour obtenir les capacités de commutateur de machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl La sortie de la commande Get-VMSwitch comprend les capacités SR-IOV suivantes : 12. IovVirtualFunctionCount : 96 IovVirtualFunctionsInUse : 1 Pour créer une machine virtuelle (VM) et exporter la fonction virtuelle (VF) dans la VM : a. Créez une machine virtuelle. b. Ajoutez le VMNetworkadapter à la machine virtuelle. c. Affectez un commutateur virtuel au VMNetworkadapter. d. Dans la boîte de dialogue Paramètres de la VM <VM_Name> (Figure 8-5), page Accélération matérielle, sous Single-root I/O virtualization (Virtualisation d'E/S d'une racine unique), cochez la case Enable SR-IOV (Activer SR-IOV), puis cliquez sur OK. REMARQUE Une fois la connexion de l'adaptateur virtuel créée, le paramètre SR-IOV peut être activé ou désactivé à tout moment (même durant l'exécution du trafic). 101 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Windows Figure 8-5. Paramètres de la VM : Activation de SR-IOV 13. Installez les pilotes QLogic pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés). REMARQUE Veillez à utiliser le même jeu de pilotes sur la machine virtuelle et le système hôte. Par exemple, utilisez la même version de pilote qeVBD et qeND sur la machine virtuelle Windows et sur l'hôte Windows Hyper-V. 102 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Windows Après l'installation des pilotes, l'adaptateur QLogic est répertorié dans la VM. La Figure 8-6 montre un exemple. Figure 8-6. Gestion de périphériques : VM avec adaptateur QLogic 14. Pour afficher les détails de VF pour SR-IOV, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-NetadapterSriovVf La Figure 8-7 montre un exemple de sortie. Figure 8-7. Commande Windows PowerShell : Get-NetadapterSriovVf 103 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Linux Configuration de SR-IOV sous Linux Pour configurer SR-IOV sous Linux : 1. Accédez au BIOS du système serveur, puis cliquez sur System BIOS Settings (Paramètres BIOS système). 2. Sur la page Paramètres BIOS système, cliquez sur Integrated Devices (Périphériques intégrés). 3. Sur la page Périphériques intégrés du système (voir Figure 8-1 à la page 98) : 4. a. Définissez l'option SR-IOV Global Enable (Activation globale SR-IOV) sur Enabled (Activé). b. Cliquez sur Back (Précédent). Sur la page Paramètres BIOS système, cliquez sur Processor Settings (Paramètres du processeur). 104 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Linux 5. Sur la page Paramètres du processeur (Figure 8-8) : a. Définissez l'option Virtualization Technology (Technologie de virtualisation) sur Enabled (Activé). b. Cliquez sur Back (Précédent). Figure 8-8. Configuration du système : Paramètres du processeur pour SR-IOV 6. Sur la page Configuration système, sélectionnez Device Settings (Paramètres de périphérique). 7. Sur la page Paramètres de périphérique, sélectionnez le Port 1 de l'adaptateur QLogic. 105 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Linux 8. Sur la page Configuration au niveau du périphérique (Figure 8-9) : a. Définissez le Virtualization Mode (Mode de virtualisation) sur SR-IOV. b. Cliquez sur Back (Précédent). Figure 8-9. Configuration système pour SR-IOV : Périphériques intégrés 9. Sur la page de configuration principale, cliquez sur Finish (Terminer), enregistrez vos paramètres, puis redémarrez le système. 10. Pour activer et vérifier la virtualisation : a. Ouvrez le fichier grub.conf et configurez le paramètre iommu comme indiqué à la Figure 8-10. Pour les systèmes Intel, ajoutez intel_iommu=on. Pour les systèmes AMD, ajoutez amd_iommu=on. 106 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Linux Figure 8-10. Modification du fichier grub.conf pour SR-IOV b. Enregistrez le fichier grub.conf et redémarrez le système. c. Pour vérifier que les modifications ont été appliquées, entrez la commande suivante : dmesg | grep -I iommu Une sortie réussie de la commande IOMMU (input–output memory management unit) devrait afficher, par exemple : Intel-IOMMU: enabled d. Pour afficher les détails de VF (nombre de VF et total de VF), émettez la commande suivante : find /sys/|grep -I sriov 107 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Linux 11. Pour un port spécifique, activez une quantité de VF. a. Exécutez la commande suivante pour activer, par exemple, 8 VF sur l'instance PCI 04:00.0 (bus 4, périphérique 0, fonction 0) : [root@ah-rh68 ~]# echo 8 > /sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs b. Passez la sortie de la commande en revue (Figure 8-11) pour confirmer que des VF réelles ont été créées sur le bus 4, périphérique 2 (du paramètre 0000:00:02.0), fonctions 0 à 7. Notez que l'ID de périphérique réel est différent sur les fonctions physiques (8070 dans cet exemple) par rapport aux VF (9090 dans cet exemple). Figure 8-11. Sortie de commande pour sriov_numvfs 12. Pour afficher une liste des interfaces PF et VF, entrez la commande suivante : # ip link show | grep -i vf -b2 108 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Linux La Figure 8-12 montre un exemple de sortie. Figure 8-12. Sortie de la commande ip link show 13. Attribuez et vérifiez les adresses MAC : a. Pour attribuer une adresse MAC à la VF, entrez la commande suivante : ip link set <pf device> vf <vf index> mac <mac address> b. Assurez-vous que l'interface VF est opérationnelle et exécutée avec l'adresse MAC attribuée. 109 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous Linux 14. Éteignez la VM et attachez la VF. (Certains systèmes d'exploitation prennent en charge la connexion à chaud de VF à la VM). a. Dans la boîte de dialogue Machine virtuelle (Figure 8-13), cliquez sur Add Hardware (Ajouter un matériel). Figure 8-13. Machine virtuelle RHEL 68 b. Dans le volet gauche de la boîte de dialogue Ajouter un nouveau matériel virtuel (Figure 8-14), cliquez sur PCI Host Device (Périphérique hôte PCI). c. Dans le volet droit, sélectionnez un périphérique hôte. 110 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous VMware d. Cliquez sur Finish (Terminer). Figure 8-14. Ajouter un nouveau matériel virtuel 15. Allumez la VM et entrez la commande suivante : check lspci -vv|grep -I ether 16. Installez les pilotes pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés). La même version de pilote doit être installée sur l'hôte et la machine virtuelle. 17. Au besoin, ajoutez plus de VF dans la VM. Configuration de SR-IOV sous VMware Pour configurer SR-IOV sous VMware : 1. Accédez au BIOS du système serveur, puis cliquez sur System BIOS Settings (Paramètres BIOS système). 2. Sur la page Paramètres BIOS système, cliquez sur Integrated Devices (Périphériques intégrés). 3. Sur la page Périphériques intégrés du système (voir Figure 8-1 à la page 98) : 4. a. Définissez l'option SR-IOV Global Enable (Activation globale SR-IOV) sur Enabled (Activé). b. Cliquez sur Back (Précédent). Dans la fenêtre Configuration système, cliquez sur Paramètres de périphérique. 111 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous VMware 5. Sur la page Paramètres de périphérique, sélectionnez un port pour l'adaptateur QL45212 25G. 6. Sur la page Configuration au niveau du périphérique (voir Figure 8-2 à la page 98) : a. Définissez le Virtualization Mode (Mode de virtualisation) sur SR-IOV. b. Cliquez sur Back (Précédent). 7. Sur la page de configuration principale, cliquez sur Finish (Terminer). 8. Enregistrez les paramètres de configuration et redémarrez le système. 9. Pour activer la quantité de VF requise par port (dans cet exemple, 16 sur chaque port d'une carte à double port), exécutez la commande suivante : "esxcfg-module -s "max_vfs=16,16" qedentv" REMARQUE Chaque fonction Ethernet de l'adaptateur QL45212 doit disposer de sa propre entrée. 10. Redémarrez l'hôte. 11. Pour vérifier que les modifications ont été appliquées au niveau du module, entrez la commande suivante : "esxcfg-module -g qedentv" [root@localhost:~] esxcfg-module -g qedentv qedentv enabled = 1 options = 'max_vfs=16,16' 12. Pour vérifier que les VF ont été vraiment créées, entrez la commande lspci comme suit : [root@localhost:~] lspci | grep -i QLogic | grep -i 'ethernet\|network' | more 0000:05:00.0 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx 10/25 GbE Ethernet Adapter [vmnic6] 0000:05:00.1 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx 10/25 GbE Ethernet Adapter [vmnic7] 0000:05:02.0 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_0] 0000:05:02.1 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_1] 0000:05:02.2 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_2] 0000:05:02.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xQL45xxxxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_3] . 112 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous VMware . . 0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15] 0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0] 0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1] 0000:05:0e.2 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_2] 0000:05:0e.3 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_3] . . . 0000:05:0f.6 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_14] 0000:05:0f.7 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_15] 13. 14. Attachez les VF à la VM comme suit : a. Éteignez la VM et attachez la VF. (Certains systèmes d'exploitation prennent en charge la connexion à chaud de VF à la VM). b. Ajoutez un hôte à une VMware vCenter Server Virtual Appliance (vCSA). c. Cliquez sur Edit Settings (Modifier les paramètres) de la VM. Complétez la boîte de dialogue Modifier les paramètres (Figure 8-15) comme suit : a. Dans la zone New Device (Nouveau périphérique), sélectionnez Network (Réseau), puis cliquez sur Add (Ajouter). b. Pour le Adapter Type (Type d'adaptateur), sélectionnez SR-IOV Passthrough (Relais SR-IOV). c. Pour la Physical Function (Fonction physique), sélectionnez la VF QLogic. 113 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous VMware d. Pour enregistrer vos modifications de configuration et fermer cette boîte de dialogue, cliquez sur OK. Figure 8-15. Paramètres de modification de l'hôte VMware 114 BC0154503-02 F 8–Configuration de SR-IOV Configuration de SR-IOV sous VMware 15. Pour valider les VF par port, entrez la commande esxcli comme suit : [root@localhost:~] esxcli network sriovnic vf list -n vmnic6 VF ID Active PCI Address Owner World ID ----- ------ ----------- -------------- 0 true 005:02.0 60591 1 true 005:02.1 60591 2 false 005:02.2 - 3 false 005:02.3 - 4 false 005:02.4 - 5 false 005:02.5 - 6 false 005:02.6 - 7 false 005:02.7 - 8 false 005:03.0 - 9 false 005:03.1 - 10 false 005:03.2 - 11 false 005:03.3 - 12 false 005:03.4 - 13 false 005:03.5 - 14 false 005:03.6 - 15 false 005:03.7 - 16. Installez les pilotes QLogic pour les adaptateurs détectés dans la VM. Utilisez les pilotes les plus récents disponibles auprès du fournisseur de votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés). La même version de pilote doit être installée sur l'hôte et la machine virtuelle. 17. Allumez la VM, puis entrez la commande ifconfig -a pour vérifier que l'interface réseau ajoutée est répertoriée. 18. Au besoin, ajoutez plus de VF dans la VM. 115 BC0154503-02 F 9 Windows Server 2016 Ce chapitre fournit les informations suivantes concernant Windows Server 2016 : Configuration des interfaces RoCE avec Hyper-V « RoCE sur Switch Embedded Teaming » à la page 122 « Configuration de QoS pour RoCE » à la page 124 « Configuration de VMMQ » à la page 132 « Configuration de VXLAN » à la page 139 « Configuration des Espaces de stockage direct » à la page 140 « Déploiement et gestion de Nano Server » à la page 147 Configuration des interfaces RoCE avec Hyper-V Dans Windows Server 2016, Hyper-V avec interface NDKPI (Network Direct Kernel Provider Interface) Mode-2, cartes réseau virtuelles hôtes (NIC virtuelles hôtes) prenant en charge RDMA. REMARQUE DCBX est requis pour RoCE sur Hyper-V. Pour configurer DCBX, choisissez l'une de ces deux options : Configurer en utilisant l'interface utilisateur HII (voir « Préparation de l'adaptateur » à la page 58). Configurer en utilisant QoS (voir « Configuration de QoS pour RoCE » à la page 124). Les procédures de configuration de RoCE fournies dans cette section comprennent : Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA Ajout d'un ID VLAN à une NIC virtuelle hôte Vérification de l'activation de RoCE Ajout de NIC virtuelles hôtes (ports virtuels) Mappage du lecteur SMB et exécution du trafic RoCE 116 BC0154503-02 F 9–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA Suivez les procédures de cette section pour créer un commutateur virtuel Hyper-V, puis activez RDMA dans la VNIC hôte. Pour créer un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA : 1. Lancez le Gestionnaire Hyper-V. 2. Cliquez sur Virtual Switch Manager (Gestionnaire de commutateur virtuel) (voir la Figure 9-1). Figure 9-1. Activation de RDMA dans la NIC virtuelle hôte 3. Créez un commutateur virtuel. 4. Cochez la case Allow management operating system to share this network adapter (Autoriser le système d'exploitation de gestion à partager cette carte réseau). Dans Windows Server 2016, un nouveau paramètre – Network Direct (RDMA) – est ajouté dans la NIC virtuelle hôte. Pour activer RDMA dans une NIC virtuelle hôte : 1. Ouvrez la fenêtre Propriétés de la carte Ethernet virtuelle Hyper-V. 2. Cliquez sur l'onglet Advanced (Avancé). 117 BC0154503-02 F 9–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V 3. Sur la page Avancé (Figure 9-2) : a. Sous Property (Propriété), sélectionnez Network Direct (RDMA). b. Sous Value (Valeur), sélectionnez Enabled (Activé). c. Cliquez sur OK. Figure 9-2. Propriétés de la carte Ethernet virtuelle Hyper-V 4. Pour activer RDMA, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (Nouveau commutateur virtuel)" PS C:\Users\Administrator> Ajout d'un ID VLAN à une NIC virtuelle hôte Pour ajouter un ID VLAN à une NIC virtuelle hôte : 1. Pour trouver le nom de la NIC virtuelle hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-VMNetworkAdapter -ManagementOS 118 BC0154503-02 F 9–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V La Figure 9-3 montre la sortie de la commande. Figure 9-3. Commande Windows PowerShell : Get-VMNetworkAdapter 2. Pour définir l'ID VLAN sur la NIC virtuelle hôte, entrez la commande Windows PowerShell : PS C:\Users\Administrator> Set-VMNetworkAdaptervlan -VMNetworkAdapterName "Nouveau commutateur virtuel" -VlanId 5 -Access -Management05 REMARQUE Prenez note de ce qui suit concernant l'ajout d'un ID VLAN à une NIC virtuelle hôte : Un ID VLAN doit être affecté à une NIC virtuelle hôte. Le même ID VLAN doit être affecté à toutes les interfaces et sur le commutateur. Assurez-vous que l'ID VLAN n'est pas affecté à l'interface physique lors de l'utilisation d'une NIC virtuelle hôte pour RoCE. Si vous créez plusieurs NIC virtuelles hôte, vous pouvez affecter un VLAN différent à chaque NIC virtuelle hôte. Vérification de l'activation de RoCE Pour vérifier si RoCE est activé : Entrez la commande Windows PowerShell suivante : Get-NetAdapterRdma La sortie de la commande répertorie les adaptateurs compatibles RDMA comme indiqué à la Figure 9-4. Figure 9-4. Commande Windows PowerShell : Get-NetAdapterRdma 119 BC0154503-02 F 9–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V Ajout de NIC virtuelles hôtes (ports virtuels) Pour ajouter des NIC virtuelles hôtes : 1. Pour ajouter une NIC virtuelle hôte, entrez la commande suivante : Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name SMB - ManagementOS 2. Activez RDMA sur les NIC virtuelles hôtes comme indiqué à la section « Pour activer RDMA dans une NIC virtuelle hôte : » à la page 117. 3. Pour attribuer un ID VLAN au port virtuel, entrez la commande suivante : Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB -VlanId 5 -Access -ManagementOS Mappage du lecteur SMB et exécution du trafic RoCE Pour mapper le lecteur SMB et exécuter le trafic RoCE : 1. Lancez Performance Monitor (Perfmon). 2. Complétez la boîte de dialogue Ajouter des compteurs (Figure 9-5) comme suit : a. Sous Available counters (Compteurs disponibles), sélectionnez RDMA Activity (Activité RDMA). b. Sous Instances of selected object (Instances de l'objet sélectionné), sélectionnez l'adaptateur. 120 BC0154503-02 F 9–Windows Server 2016 Configuration des interfaces RoCE avec Hyper-V c. Cliquez sur Add (Ajouter). Figure 9-5. Boîte de dialogue Ajouter des compteurs 121 BC0154503-02 F 9–Windows Server 2016 RoCE sur Switch Embedded Teaming Si le trafic RoCE est exécuté, les compteurs apparaissent comme indiqué à la Figure 9-6. Figure 9-6. Performance Monitor affiche le trafic RoCE RoCE sur Switch Embedded Teaming Switch Embedded Teaming (SET) est la solution alternative d'association de NIC de Microsoft qui peut être utilisée dans les environnements incluant Hyper-V et la pile SDN (Software Defined Networking) dans Windows Server 2016 Technical Preview. SET intègre une fonctionnalité limitée d'association de NIC dans le commutateur virtuel Hyper-V. Utilisez SET pour associer entre une et huit cartes réseau Ethernet physiques dans une ou plusieurs cartes réseau virtuelles logicielles. Ces cartes offrent des performances rapides et une tolérance de panne en cas de panne de carte réseau. Pour être placées dans une association, les cartes réseau membres SET doivent être toutes installées dans le même hôte physique Hyper-V. Voici les procédures relatives à RoCE sur SET incluses dans cette section : Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET Activation de RDMA sur SET Attribution d'un ID VLAN sur SET Exécution du trafic RDMA sur SET 122 BC0154503-02 F 9–Windows Server 2016 RoCE sur Switch Embedded Teaming Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET Pour créer un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET : Pour créer un SET, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> New-VMSwitch -Name SET -NetAdapterName "Ethernet 2","Ethernet 3" -EnableEmbeddedTeaming $true La Figure 9-7 montre la sortie de la commande. Figure 9-7. Commande Windows PowerShell : New-VMSwitch Activation de RDMA sur SET Pour activer RDMA sur SET : 1. Pour afficher le SET sur l'adaptateur, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-NetAdapter "vEthernet (SET)" La Figure 9-8 montre la sortie de la commande. Figure 9-8. Commande Windows PowerShell : Get-NetAdapter 2. Pour activer RDMA sur SET, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet (SET)" Attribution d'un ID VLAN sur SET Pour attribuer un ID VLAN sur SET : Pour attribuer un ID VLAN sur SET, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SET" -VlanId 5 -Access -ManagementOS 123 BC0154503-02 F 9–Windows Server 2016 Configuration de QoS pour RoCE REMARQUE Prenez note de ce qui suit lors de l'ajout d'un ID VLAN à une NIC virtuelle hôte : Assurez-vous que l'ID VLAN n'est pas affecté à l'interface physique lors de l'utilisation d'une NIC virtuelle hôte pour RoCE. Si vous créez plusieurs NIC virtuelles hôte, vous pouvez affecter un VLAN différent à chaque NIC virtuelle hôte. Exécution du trafic RDMA sur SET Pour plus d'informations sur l'exécution du trafic RDMA sur SET, consultez : https://technet.microsoft.com/en-us/library/mt403349.aspx Configuration de QoS pour RoCE Voici les deux méthodes de configuration de la qualité de service (QoS) : Configuration de QoS en désactivant DCBX sur l'adaptateur Configuration de QoS en activant DCBX sur l'adaptateur Configuration de QoS en désactivant DCBX sur l'adaptateur Il faut effectuer toute la configuration sur tous les systèmes utilisés avant de configurer la qualité de service en désactivant DCBX sur l'adaptateur. La configuration du contrôle de flux basé sur la priorité (PFC), des services de transition améliorés (ETS) et des classes de trafic doivent être identiques sur le commutateur et le serveur. Pour configurer QoS en désactivant DCBX : 1. Désactivez DCBX sur l'adaptateur. 2. En utilisant HII, définissez la RoCE Priority (Priorité RoCE) sur 0. 3. Pour installer le rôle DCB sur l'hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Install-WindowsFeature Data-Center-Bridging 4. Pour définir le mode DCBX Willing sur False (Faux), entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> set-NetQosDcbxSetting -Willing 0 124 BC0154503-02 F 9–Windows Server 2016 Configuration de QoS pour RoCE 5. Activez QoS sur le miniport comme suit : a. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced (Avancé). b. Sur la page Propriétés avancées de l'adaptateur (Figure 9-9), sous Property (Propriété), sélectionnez Quality of Service (Qualité de service), puis définissez la valeur sur Enabled (Activé). c. Cliquez sur OK. Figure 9-9. Propriétés avancées : Activer QoS 6. Attribuez un ID VLAN à l'interface comme suit : a. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced (Avancé). b. Sur la page Propriétés avancées de l'adaptateur (Figure 9-10), sous Property (Propriété), sélectionnez ID VLAN, puis définissez la valeur. c. Cliquez sur OK. 125 BC0154503-02 F 9–Windows Server 2016 Configuration de QoS pour RoCE REMARQUE L'étape précédente est requise pour le contrôle de flux basé sur la priorité (PFC). Figure 9-10. Propriétés avancées : Configuration d'ID VLAN 7. Pour activer le contrôle de flux basé sur la priorité pour RoCE pour une priorité spécifique, entrez la commande suivante : PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 4 REMARQUE Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID VLAN à l'interface physique. 126 BC0154503-02 F 9–Windows Server 2016 Configuration de QoS pour RoCE 8. Pour désactiver le contrôle de flux basé sur la priorité pour toute autre priorité, entrez les commandes suivantes : PS C:\Users\Administrator> Disable-NetQosFlowControl 0,1,2,3,5,6,7 PS C:\Users\Administrator> Get-NetQosFlowControl Priority Enabled PolicySet IfIndex IfAlias -------- ------- --------- ------- ------- 0 False Global 1 False Global 2 False Global 3 False Global 4 True Global 5 False Global 6 False Global 7 False Global 9. Pour configurer QoS et attribuer la priorité pertinente à chaque type de trafic, entrez les commandes suivantes (où la Priorité 4 correspond à RoCE et la Priorité 0 correspond à TCP) : PS C:\Users\Administrators> New-NetQosPolicy "SMB" -NetDirectPortMatchCondition 445 -PriorityValue8021Action 4 -PolicyStore ActiveStore PS C:\Users\Administrators> New-NetQosPolicy "TCP" -IPProtocolMatchCondition TCP -PriorityValue8021Action 0 -Policystore ActiveStore PS C:\Users\Administrator> Get-NetQosPolicy -PolicyStore activestore Name : tcp Owner : PowerShell / WMI NetworkProfile : Tous Precedence : 127 JobObject : IPProtocol : TCP PriorityValue : 0 Name : smb Owner : PowerShell / WMI NetworkProfile : Tous Precedence : 127 JobObject : NetDirectPort : 445 PriorityValue : 4 127 BC0154503-02 F 9–Windows Server 2016 Configuration de QoS pour RoCE 10. Pour configurer ETS pour toutes les classes de trafic définies à l'étape précédente, entrez les commandes suivantes : PS C:\Users\Administrators> New-NetQosTrafficClass -name "RDMA class" -priority 4 -bandwidthPercentage 50 -Algorithm ETS PS C:\Users\Administrators> New-NetQosTrafficClass -name "TCP class" -priority 0 -bandwidthPercentage 30 -Algorithm ETS PS C:\Users\Administrator> Get-NetQosTrafficClass Name Algorithm Bandwidth(%) Priority ---- --------- ------------ -------- PolicySet --------- [Default] ETS 20 2-3,5-7 Global RDMA class ETS 50 4 Global TCP class ETS 30 0 Global 11. IfIndex IfAlias ------- ------- Pour afficher la QoS de l'adaptateur réseau à partir de la configuration précédente, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-NetAdapterQos Name : SLOT 4 Port 1 Enabled : True Capabilities : Hardware Current -------- ------- MacSecBypass : NotSupported NotSupported DcbxSupport : None NumTCs(Max/ETS/PFC) : 4/4/4 OperationalTrafficClasses OperationalFlowControl : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 20% 2-3,5-7 1 ETS 50% 4 2 ETS 30% 0 4/4/4 : Priority 4 Enabled OperationalClassifications : Protocol Port/Type Priority -------- --------- -------- 12. None Default 0 NetDirect 445 4 Créez un script de démarrage pour que les paramètres persistent lorsque le système redémarre. 128 BC0154503-02 F 9–Windows Server 2016 Configuration de QoS pour RoCE 13. Exécutez le trafic RDMA et vérifiez comme décrit à la section « Configuration de RoCE » à la page 56. Configuration de QoS en activant DCBX sur l'adaptateur Toute la configuration doit être effectuée sur tous les systèmes utilisés. La configuration de PFC, d'ETS et des classes de trafic doivent être identiques sur le commutateur et le serveur. Pour configurer QoS en activant DCBX : 1. Activez DCBX (IEEE, CEE ou Dynamique). 2. En utilisant HII, définissez la RoCE Priority (Priorité RoCE) sur 0. 3. Pour installer le rôle DCB sur l'hôte, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Install-WindowsFeature Data-Center-Bridging REMARQUE Pour cette configuration, configurez le Protocole DCBX sur CEE. 4. Pour définir le mode DCBX Willing sur True (Vrai), entrez la commande PowerShell suivante : PS C:\Users\Administrators> set-NetQosDcbxSetting -Willing 1 129 BC0154503-02 F 9–Windows Server 2016 Configuration de QoS pour RoCE 5. Activez QoS sur le miniport comme suit : a. Sur la page Propriétés avancées de l'adaptateur (Figure 9-11), sous Property (Propriété), sélectionnez Quality of Service (Qualité de service), puis définissez la valeur sur Enabled (Activé). b. Cliquez sur OK. Figure 9-11. Propriétés avancées : Activation de QoS 6. Attribuez un ID VLAN à l'interface (requis pour PFC) comme suit : a. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced (Avancé). b. Sur la page Propriétés avancées de l'adaptateur (Figure 9-12), sous Property (Propriété), sélectionnez ID VLAN, puis définissez la valeur. c. Cliquez sur OK. 130 BC0154503-02 F 9–Windows Server 2016 Configuration de QoS pour RoCE Figure 9-12. Propriétés avancées : Configuration d'ID VLAN 7. Pour configurer le commutateur, exécutez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Get-NetAdapterQoS Name : Ethernet 5 Enabled : True Capabilities : Hardware Current -------- ------- MacSecBypass : NotSupported NotSupported DcbxSupport : CEE NumTCs(Max/ETS/PFC) : 4/4/4 OperationalTrafficClasses OperationalFlowControl : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 5% 0-3,5-7 1 ETS 95% 4 CEE 4/4/4 : Priority 4 Enabled OperationalClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirect 445 131 4 BC0154503-02 F 9–Windows Server 2016 Configuration de VMMQ RemoteTrafficClasses : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 5% 0-3,5-7 1 ETS 95% 4 RemoteFlowControl : Priority 4 Enabled RemoteClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirect 445 4 REMARQUE L'exemple précédent correspond à un port de l'adaptateur connecté à un commutateur Arista® 7060X. Dans cet exemple, le PFC du commutateur est activé sur la Priorité 4. Les TLV d'application RoCE sont définis. Les deux classes de trafic sont définies comme TC0 et TC1, où TC1 est définie pour RoCE. Le mode de Protocole DCBX est défini sur CEE. Pour la configuration du commutateur Arista, reportez-vous à la section « Préparation du commutateur Ethernet » à la page 58. Lorsque l'adaptateur est en mode Willing, il accepte la Configuration à distance, qu'il montre en tant que Operational Parameters (Paramètres opérationnels). Configuration de VMMQ Les informations de configuration de VMMQ (Virtual machine multiqueue) comprennent : Activation de VMMQ sur l'adaptateur Configuration du port virtuel par défaut et non par défaut de paires de files d'attente (QP) max VMMQ Création d'un commutateur de machine virtuelle avec ou sans SR-IOV Activation de VMMQ sur le commutateur de machine virtuelle Obtention de la fonction de commutateur de machine virtuelle Création d'une machine virtuelle et activation de VMMQ sur les VMNetworkadapters dans la VM NIC virtuelle VMMQ par défaut et maximum Activation et désactivation de VMMQ sur une NIC de gestion Surveillance des statistiques de trafic 132 BC0154503-02 F 9–Windows Server 2016 Configuration de VMMQ Activation de VMMQ sur l'adaptateur Pour activer VMMQ sur l'adaptateur : 1. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced (Avancé). 2. Sur la page Propriétés avancées de l'adaptateur (Figure 9-13), sous Property (Propriété), sélectionnez Virtual Switch RSS (RSS de commutateur virtuel), puis définissez la valeur sur Enabled (Activé). 3. Cliquez sur OK. Figure 9-13. Propriétés avancées : Activation de RSS de commutateur virtuel Configuration du port virtuel par défaut et non par défaut de paires de files d'attente (QP) max VMMQ Pour configurer le port virtuel par défaut et non par défaut de paires de files d'attente (QP) maximum VMMQ : 1. Ouvrez la fenêtre miniport, et cliquez sur l'onglet Advanced (Avancé). 2. Sur la page Propriétés avancées, sous Property (Propriété), sélectionnez l'une des options suivantes : QP max VMMQ – Port virtuel par défaut QP max VMMQ – Port virtuel non par défaut 133 BC0154503-02 F 9–Windows Server 2016 Configuration de VMMQ 3. S'il y a lieu, ajustez la Value (Valeur) pour la propriété sélectionnée. 4. Cliquez sur OK. Création d'un commutateur de machine virtuelle avec ou sans SR-IOV Pour créer un commutateur de machine virtuelle avec ou sans SR-IOV : 1. Lancez le Gestionnaire Hyper-V. 2. Sélectionnez Virtual Switch Manager (Gestionnaire de commutateur virtuel) (voir la Figure 9-14). 3. Dans la zone Name (Nom), entrez un nom pour le commutateur virtuel. 134 BC0154503-02 F 9–Windows Server 2016 Configuration de VMMQ 4. Sous Connection type (Type de connexion) : a. Cliquez sur External network (Réseau externe). b. Cochez la case Allow management operating system to share this network adapter (Autoriser le système d'exploitation de gestion à partager cette carte réseau). Figure 9-14. Gestionnaire de commutateur virtuel 5. Cliquez sur OK. 135 BC0154503-02 F 9–Windows Server 2016 Configuration de VMMQ Activation de VMMQ sur le commutateur de machine virtuelle Pour activer VMMQ sur le commutateur de machine virtuelle : Entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Obtention de la fonction de commutateur de machine virtuelle Pour obtenir la fonction de commutateur de machine virtuelle : Entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Get-VMSwitch -Name ql | fl La Figure 9-15 montre un exemple de sortie. Figure 9-15. Commande Windows PowerShell : Get-VMSwitch 136 BC0154503-02 F 9–Windows Server 2016 Configuration de VMMQ Création d'une machine virtuelle et activation de VMMQ sur les VMNetworkadapters dans la VM Pour créer une machine virtuelle et activer VMMQ sur les VMNetworkadapters dans la VM : 1. Créez une VM. 2. Ajoutez le VMNetworkadapter à la VM. 3. Affectez un commutateur virtuel au VMNetworkadapter. 4. Pour activer VMMQ sur la VM, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrators> set-vmnetworkadapter -vmname vm1 -VMNetworkAdapterName "network adapter" -vmmqenabled $true -vmmqqueuepairs 4 REMARQUE Pour un commutateur virtuel compatible avec SR-IOV : si SR-IOV est activé sur le commutateur de VM et l'accélération matérielle, vous devez créer 10 VM avec 8 NIC virtuelles chacune pour utiliser VMMQ. Cette exigence est due au fait que SR-IOV a préséance sur VMMQ. Voici un exemple de sortie de 64 fonctions virtuelles et 16 VMMQ : PS C:\Users\Administrator> get-netadaptervport Name ---Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet . . . Ethernet Ethernet Ethernet Ethernet Ethernet 3 3 3 3 3 3 3 3 3 3 3 3 ID -0 1 2 3 4 5 6 7 8 9 10 11 3 3 3 3 3 64 65 66 67 68 MacAddress ---------00-15-5D-36-0A-FB 00-0E-1E-C4-C0-A4 00-15-5D-36-0A-04 00-15-5D-36-0A-05 00-15-5D-36-0A-06 VID --- ProcMask -------0:0 0:8 0:0 0:0 0:0 0:0 0:0 0:0 0:0 0:0 0:0 0:0 FID --PF PF 0 1 2 3 4 5 6 7 8 9 State ----Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated ITR --Unknown Adaptive Unknown Unknown Unknown Unknown Unknown Unknown Unknown Unknown Unknown Unknown QPairs -----4 4 1 1 1 1 1 1 1 1 1 1 0:0 0:0 0:16 1:0 0:0 62 63 PF PF PF Activated Activated Activated Activated Activated Unknown Unknown Adaptive Adaptive Adaptive 1 1 4 4 4 137 BC0154503-02 F 9–Windows Server 2016 Configuration de VMMQ Name ---Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet Ethernet 3 3 3 3 3 3 3 3 3 3 3 3 ID -69 70 71 72 73 74 75 76 77 78 79 80 MacAddress ---------00-15-5D-36-0A-07 00-15-5D-36-0A-08 00-15-5D-36-0A-09 00-15-5D-36-0A-0A 00-15-5D-36-0A-0B 00-15-5D-36-0A-F4 00-15-5D-36-0A-F5 00-15-5D-36-0A-F6 00-15-5D-36-0A-F7 00-15-5D-36-0A-F8 00-15-5D-36-0A-F9 00-15-5D-36-0A-FA VID --- ProcMask -------0:8 0:16 1:0 0:0 0:8 0:16 1:0 0:0 0:8 0:16 1:0 0:0 FID --PF PF PF PF PF PF PF PF PF PF PF PF State ----Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated Activated ITR --Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive Adaptive QPairs -----4 4 4 4 4 4 4 4 4 4 4 4 PS C:\Users\Administrator> get-netadaptervmq Name InterfaceDescription ---Ethernet 4 -------------------QLogic FastLinQ QL45212 Enabled BaseVmqProcessor MaxProcessors NumberOfReceive Queues ------- ---------------- ------------- --------------False 0:0 16 1 NIC virtuelle VMMQ par défaut et maximum Selon la mise en œuvre actuelle, une quantité maximale de 4 VMMQ est disponible par NIC virtuelle ; c'est-à-dire, jusqu'à 16 NIC virtuelles. Quatre files d'attente par défaut sont disponibles comme précédemment défini à l'aide des commandes Windows PowerShell. La file d'attente par défaut maximum peut actuellement être définie sur 8. Pour vérifier la file d'attente par défaut maximum, utilisez la fonction VMswitch. Activation et désactivation de VMMQ sur une NIC de gestion Pour activer et désactiver VMMQ sur une NIC de gestion : Pour activer VMMQ sur une NIC de gestion, entrez la commande suivante : PS C:\Users\Administrator> Set-VMNetworkAdapter –ManagementOS –vmmqEnabled $true La VNIC du système d'exploitation de gestion (MOS) dispose de quatre VMMQ. Pour désactiver VMMQ sur une NIC de gestion, entrez la commande suivante : PS C:\Users\Administrator> Set-VMNetworkAdapter –ManagementOS –vmmqEnabled $false Un VMMQ sera également disponible pour le protocole MOSPF (Multicast Open Shortest Path First). 138 BC0154503-02 F 9–Windows Server 2016 Configuration de VXLAN Surveillance des statistiques de trafic Pour surveiller le trafic de fonction virtuelle dans une machine virtuelle, entrez la commande Windows PowerShell suivante : PS C:\Users\Administrator> Use get-netadapterstatistics | fl Configuration de VXLAN Les informations de configuration de VXLAN comprennent : Activation du déchargement VXLAN sur l'adaptateur Déploiement d'un réseau défini par logiciel Activation du déchargement VXLAN sur l'adaptateur Pour activer le déchargement VXLAN sur l'adaptateur : 1. Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced (Avancé). 2. Sur la page Propriétés avancées (Figure 9-16), sous Property (Propriété), sélectionnez VXLAN Encapsulated Task Offload (Déchargement de tâches d'encapsulation VXLAN). Figure 9-16. Propriétés avancées : Activation de VXLAN 3. Définissez la Value (Valeur) sur Enabled (Activé). 4. Cliquez sur OK. 139 BC0154503-02 F 9–Windows Server 2016 Configuration des Espaces de stockage direct Déploiement d'un réseau défini par logiciel Pour profiter du déchargement de tâches d'encapsulation VXLAN sur les machines virtuelles, vous devez déployer une pile de réseau défini par logiciel (SDN, Software-Defined Network) qui utilise un contrôleur réseau Microsoft. Pour plus de détails, reportez-vous au lien de Microsoft TechNet suivant sur les réseaux définis par logiciel : https://technet.microsoft.com/en-us/windows-server-docs/networking/sdn/ software-defined-networking--sdn- Configuration des Espaces de stockage direct Windows Server 2016 présente la fonction Espaces de stockage direct, qui permet de créer des systèmes de stockage hautement disponibles et évolutifs à partir du stockage local. Pour plus d'informations, reportez-vous au lien de Microsoft TechNet suivant : https://technet.microsoft.com/en-us/windows-server-docs/storage/storage-spaces /storage-spaces-direct-windows-server-2016 Configuration du matériel La Figure 9-17 montre un exemple de configuration matérielle. Figure 9-17. Exemple de configuration matérielle 140 BC0154503-02 F 9–Windows Server 2016 Configuration des Espaces de stockage direct REMARQUE Les disques utilisés dans cet exemple sont des disques NVMe ™ 400 G x4 et SSD 200 G x12. Déploiement d'un système hyper-convergé Cette section comprend les instructions pour installer et configurer les composants d'un système hyper-convergé à l'aide de Windows Server 2016. Le déploiement d'un système hyper-convergé peut se diviser en trois phases globales : Déploiement du système d'exploitation Configuration du réseau Configuration des Espaces de stockage direct Déploiement du système d'exploitation Pour déployer le système d'exploitation : 1. Installez le système d'exploitation. 2. Installez les rôles de serveur Windows (Hyper-V). 3. Installez les fonctionnalités suivantes : 4. Reprise Cluster Data center bridging (DCB) Connectez les nœuds au domaine et ajoutez des comptes de domaine. Configuration du réseau Pour déployer la fonction Espaces de stockage direct, le commutateur Hyper-V doit être déployé avec des NIC virtuelles hôte avec RDMA activé. REMARQUE La procédure suivante suppose qu'il existe quatre ports NIC RDMA. 141 BC0154503-02 F 9–Windows Server 2016 Configuration des Espaces de stockage direct Pour configurer le réseau sur chaque serveur : 1. Configurez le commutateur réseau physique comme suit : a. Connectez toutes les NIC de l'adaptateur au port du commutateur. REMARQUE Si votre adaptateur de test possède plusieurs ports NIC, vous devez connecter les deux ports au même commutateur. b. Activez le port du commutateur et assurez-vous que le port du commutateur prend en charge le mode d'association indépendante du commutateur et fait également partie de plusieurs réseaux VLAN. Exemple de configuration de commutateur Dell : no ip address mtu 9416 portmode hybrid switchport dcb-map roce_S2D protocol lldp dcbx version cee no shutdown 2. Activez la Network Quality of Service (Qualité de service réseau). REMARQUE La qualité de service réseau sert à s'assurer que le système de stockage défini par logiciel a suffisamment de bande passante pour communiquer entre les nœuds afin d'assurer la résilience et les performances. Pour configurer la qualité de service (QoS) sur l'adaptateur, voir « Configuration de QoS pour RoCE » à la page 124. 3. Créez un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et SET comme suit : a. Pour identifier les cartes réseau, entrez la commande suivante : Get-NetAdapter | FT Name,InterfaceDescription,Status,LinkSpeed b. Pour créer le commutateur virtuel connecté à toutes les cartes réseau physiques, puis activer l'association intégrée de commutateur, entrez la commande suivante : 142 BC0154503-02 F 9–Windows Server 2016 Configuration des Espaces de stockage direct New-VMSwitch -Name SETswitch -NetAdapterName "<port1>","<port2>","<port3>","<port4>" –EnableEmbeddedTeaming $true c. Pour ajouter des NIC virtuelles hôtes au commutateur virtuel, entrez les commandes suivantes : Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_1 –managementOS Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_2 –managementOS REMARQUE Les commandes précédentes configurent la NIC virtuelle à partir du commutateur virtuel que vous venez de configurer pour le système d'exploitation de gestion à utiliser. d. Pour configurer la NIC virtuelle hôte pour utiliser un VLAN, entrez les commandes suivantes : Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_1" -VlanId 5 -Access -ManagementOS Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_2" -VlanId 5 -Access -ManagementOS REMARQUE Ces commandes peuvent être sur des VLAN identiques ou différents. e. Pour vérifier que l'ID VLAN est défini, entrez la commande suivante : Get-VMNetworkAdapterVlan -ManagementOS f. Pour désactiver et activer chaque carte NIC virtuelle hôte afin que le VLAN soit actif, entrez la commande suivante : Disable-NetAdapter "vEthernet (SMB_1)" Enable-NetAdapter "vEthernet (SMB_1)" Disable-NetAdapter "vEthernet (SMB_2)" Enable-NetAdapter "vEthernet (SMB_2)" g. Pour activer RDMA sur les cartes NIC virtuelles hôtes, entrez la commande suivante : Enable-NetAdapterRdma "SMB1","SMB2" 143 BC0154503-02 F 9–Windows Server 2016 Configuration des Espaces de stockage direct h. Pour vérifier les capacités RDMA, entrez la commande suivante : Get-SmbClientNetworkInterface | where RdmaCapable -EQ $true Configuration des Espaces de stockage direct La configuration des Espaces de stockage direct dans Windows Server 2016 comprend les étapes suivantes : Étape 1. Exécution d’un outil de validation de cluster Étape 2. Création d'un cluster Étape 3. Configuration d'un témoin de cluster Étape 4. Disques de nettoyage utilisés pour les Espaces de stockage direct Étape 5. Activation des Espaces de stockage direct Étape 6. Création de disques virtuels Étape 7. Création ou déploiement de machines virtuelles Étape 1. Exécution d’un outil de validation de cluster Exécutez l'outil de validation de cluster pour vous assurer que les nœuds de serveur sont correctement configurés pour créer un cluster à l'aide des Espaces de stockage direct. Entrez la commande Windows PowerShell suivante pour valider un ensemble de serveurs à utiliser comme cluster d'Espaces de stockage direct : Test-Cluster -Node <MachineName1, MachineName2, MachineName3, MachineName4> -Include "Storage Spaces Direct", Inventory, Network, "System Configuration" Étape 2. Création d'un cluster Créez un cluster avec les quatre nœuds (qui a été validé pour la création de cluster) à l'Étape 1. Exécution d’un outil de validation de cluster. Pour créer un cluster, entrez la commande Windows PowerShell suivante : New-Cluster -Name <ClusterName> -Node <MachineName1, MachineName2, MachineName3, MachineName4> -NoStorage Le paramètre -NoStorage est obligatoire. S'il n'est pas inclus, les disques sont automatiquement ajoutés au cluster et vous devez les supprimer avant d'autoriser les Espaces de stockage direct. Sinon, ils ne seront pas inclus dans le pool de stockage des Espaces de stockage direct. 144 BC0154503-02 F 9–Windows Server 2016 Configuration des Espaces de stockage direct Étape 3. Configuration d'un témoin de cluster Vous devez configurer un témoin pour le cluster, afin que ce système à quatre nœuds puisse résister à la défaillance ou à l'indisponibilité de deux nœuds. Avec ces systèmes, vous pouvez configurer un témoin de partage de fichiers ou un témoin de cloud. Pour plus d'informations, consultez le site : https://blogs.msdn.microsoft.com/clustering/2014/03/31/configuring-a-file-sharewitness-on-a-scale-out-file-server/ Étape 4. Disques de nettoyage utilisés pour les Espaces de stockage direct Les disques destinés à être utilisés pour les Espaces de stockage direct doivent être vides et sans partitions ou autres données. Si un disque comporte des partitions ou d'autres données, il ne sera pas inclus dans le système d'Espaces de stockage direct. La commande Windows PowerShell suivante peut être placée dans un fichier de script Windows PowerShell (.PS1) et exécutée à partir du système de gestion dans une console Windows PowerShell (ou Windows PowerShell ISE) ouverte avec privilèges d'administrateur. REMARQUE L'exécution de ce script permet d'identifier les disques sur chaque nœud qui peuvent être utilisés pour les Espaces de stockage direct et supprime toutes les données et partitions de ces disques. icm (Get-Cluster -Name HCNanoUSClu3 | Get-ClusterNode) { Update-StorageProviderCache Get-StoragePool |? IsPrimordial -eq $false | Set-StoragePool -IsReadOnly:$false -ErrorAction SilentlyContinue Get-StoragePool |? IsPrimordial -eq $false | Get-VirtualDisk | Remove-VirtualDisk -Confirm:$false -ErrorAction SilentlyContinue Get-StoragePool |? IsPrimordial -eq $false | Remove-StoragePool -Confirm:$false -ErrorAction SilentlyContinue Get-PhysicalDisk | Reset-PhysicalDisk -ErrorAction SilentlyContinue Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne $true |? PartitionStyle -ne RAW |% { $_ | Set-Disk -isoffline:$false $_ | Set-Disk -isreadonly:$false 145 BC0154503-02 F 9–Windows Server 2016 Configuration des Espaces de stockage direct $_ | Clear-Disk -RemoveData -RemoveOEM -Confirm:$false $_ | Set-Disk -isreadonly:$true $_ | Set-Disk -isoffline:$true } Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne $true |? PartitionStyle -eq RAW | Group -NoElement -Property FriendlyName } | Sort -Property PsComputerName,Count Étape 5. Activation des Espaces de stockage direct Après avoir créé le cluster, utilisez l'applet de commande Enable-ClusterStorageSpacesDirect Windows PowerShell. L'applet de commande met le système de stockage en mode Espaces de stockage direct et effectue automatiquement ce qui suit : Crée un grand pool unique doté d'un nom tel que S2D sur Cluster1. Configure le cache des Espaces de stockage direct. S'il existe plusieurs types de support disponibles pour l'utilisation d'Espaces de stockage direct, il configure le type le plus efficace en tant que périphériques de cache (dans la plupart des cas, lecture et écriture). Crée deux niveaux – Capacity (Capacité) et Performance – comme niveaux par défaut. L'applet de commande analyse les périphériques et configure chaque niveau avec le mélange de types de périphériques et résilience. Étape 6. Création de disques virtuels Si les Espaces de stockage direct étaient activés, il crée un pool unique à partir de tous les disques. Il nomme également le pool (par exemple S2D sur Cluster1), avec le nom du cluster spécifié dans le nom. La commande Windows PowerShell suivante crée un disque virtuel avec résilience de miroir et parité sur le pool de stockage : New-Volume -StoragePoolFriendlyName "S2D*" -FriendlyName <VirtualDiskName> -FileSystem CSVFS_ReFS -StorageTierfriendlyNames Capacity,Performance -StorageTierSizes <Size of capacity tier in size units, example: 800GB>, <Size of Performance tier in size units, example: 80GB> -CimSession <ClusterName> Étape 7. Création ou déploiement de machines virtuelles Vous pouvez provisionner les machines virtuelles sur les nœuds du cluster S2D hyper-convergé. Stockez les fichiers de la machine virtuelle sur l'espace de noms CSV du système (par exemple, c:\ClusterStorage\Volume1), à l'instar des machines virtuelles en cluster sur les clusters de basculement. 146 BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server Déploiement et gestion de Nano Server Windows Server 2016 offre Nano Server comme nouvelle option d'installation. Nano Server est un système d'exploitation de serveur administré à distance, optimisé pour les clouds privés et les centres de données. Il est similaire à Windows Server en mode Server Core, mais est significativement plus petit, n'a pas de fonction d'ouverture de session locale et prend en charge uniquement les applications, outils et agents 64 bits. Nano Server prend moins d'espace disque, se configure rapidement et nécessite moins de mises à jour et de redémarrages que Windows Server. Quand il redémarre, il redémarre beaucoup plus rapidement. Rôles et fonctionnalités Le Tableau 9-1 montre les rôles et les fonctionnalités disponibles dans cette version de Nano Server, ainsi que les options Windows PowerShell qui installeront les paquets correspondants. Certains paquets sont installés directement avec leurs propres options Windows PowerShell (par exemple -Compute). D'autres sont installés en tant qu'extensions de l'option -Packages, que vous pouvez combiner dans une liste séparée par des virgules. Tableau 9-1. Rôles et fonctionnalités de Nano Server Rôle ou fonctionnalité Article Rôle Hyper-V -Compute Clusters de basculement -Clustering Pilotes invités Hyper-V pour héberger Nano Server en tant que machine virtuelle -GuestDrivers Pilotes de base pour diverses cartes réseau et contrôleurs de stockage. Il s'agit du même ensemble de pilotes inclus dans une installation Server Core de Windows Server 2016 Technical Preview. -OEMDrivers Rôle de serveur de fichiers et autres composants de stockage -Storage Windows Defender Antimalware, y compris un fichier de signature par défaut -Defender Redirecteurs inverses pour la compatibilité des applications. Par exemple, des infrastructures d'application courantes telles que Ruby, Node.js, etc. -ReverseForwarders 147 BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server Tableau 9-1. Rôles et fonctionnalités de Nano Server (Suite) Rôle ou fonctionnalité Article Rôle de serveur DNS -Packages Microsoft-NanoServer-DNSsource Configuration d'état souhaité (DSC) -Packages Microsoft-NanoServer-DSCsource Internet Information Server (IIS) -Packages Microsoft-NanoServer-IISsource Prise en charge des conteneurs Windows par l'hôte -Containers Agent System Center Virtual Machine Manager -Packages Microsoft-Windows-ServerSCVMM-Package -Packages Microsoft-Windows-ServerSCVMM-Compute-Package Remarque : Utilisez ce paquet uniquement si vous surveillez Hyper-V. Si vous installez ce paquet, n'utilisez pas l'option -Compute pour le rôle Hyper-V ; utilisez plutôt l'option -Packages pour installer -Packages Microsoft-NanoServer-Compute-Package, Microsoft-Windows-Server-SCVMMCompute-Package. Service de diagnostic de performance réseau (NPDS) -Packages Microsoft-NanoServer-NPDSsource Data Center Bridging -Packages Microsoft-NanoServer-DCBsource Les sections suivantes décrivent la configuration d'une image de Nano Server avec les paquets requis et l'ajout des pilotes de périphériques supplémentaires propres aux périphériques QLogic. Elles expliquent également comment utiliser la console de récupération Nano Server, comment gérer Nano Server à distance et comment exécuter le trafic Ntttcp à partir de Nano Server. Déploiement de Nano Server sur un serveur physique Suivez ces étapes pour créer un disque dur virtuel (VHD) Nano Server, qui s'exécutera sur un serveur physique à l'aide des pilotes de périphériques préinstallés. 148 BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server Pour déployer Nano Server : 1. Téléchargez l'image du SE Windows Server 2016. 2. Montez l'image ISO. 3. Copiez les fichiers suivants du dossier NanoServer sur un dossier de votre disque dur : NanoServerImageGenerator.psm1 Convert-WindowsImage.ps1 4. Démarrez Windows PowerShell en tant qu'administrateur. 5. Changez le répertoire au dossier dans lequel vous avez copié les fichiers à l'étape 3. 6. Importez le script NanoServerImageGenerator en entrant la commande suivante : Import-Module .\NanoServerImageGenerator.psm1 -Verbose 7. Pour créer un VHD qui définit un nom d'ordinateur et comprend les pilotes OEM et Hyper-V, entrez la commande Windows PowerShell suivante : REMARQUE Cette commande vous demande un mot de passe administrateur pour le nouveau VHD. New-NanoServerImage –DeploymentType Host –Edition <Standard/Datacenter> -MediaPath <path to root of media> -BasePath .\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd -ComputerName <computer name> –Compute -Storage -Cluster -OEMDrivers –Compute -DriversPath “<Path to Qlogic Driver sets>” Exemple : New-NanoServerImage –DeploymentType Host –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath ".\Base" -TargetPath "C:\Nano\PhysicalSystem\Nano_phy_vhd.vhd" -ComputerName "Nano-server1" –Compute -Storage -Cluster -OEMDrivers -DriversPath "C:\Nano\Drivers" 149 BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server Dans l'exemple précédent, C:\Nano\Drivers est le chemin d'accès des pilotes QLogic. Cette commande met environ 10 à 15 minutes pour créer un fichier VHD. Voici un exemple de sortie de cette commande : Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10 Copyright (C) Microsoft Corporation. All rights reserved. Version 10.0.14300.1000.amd64fre.rs1_release_svc.160324-1723 INFO : Looking for the requested Windows image in the WIM file INFO : Image 1 selected (ServerDatacenterNano)... INFO : Creating sparse disk... INFO : Mounting VHD... INFO : Initializing disk... INFO : Creating single partition... INFO : Formatting windows volume... INFO : Windows path (I:) has been assigned. INFO : System volume location: I: INFO : Applying image to VHD. This could take a while... INFO : Image was applied successfully. INFO : Making image bootable... INFO : Fixing the Device ID in the BCD store on VHD... INFO : Drive is bootable. INFO : Dismounting VHD... INFO : Closing Windows image... INFO : Done. Cleaning up... Done. The log is at: C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log 8. Connectez-vous en tant qu'administrateur sur le serveur physique sur lequel vous souhaitez exécuter le VHD Nano Server. 9. Pour copier le VHD sur le serveur physique et le configurer pour démarrer à partir du nouveau VHD : a. Accédez à Gestion de l'ordinateur > Stockage > Gestion des disques. b. Cliquez avec le bouton droit sur Gestion des disques et sélectionnez Attacher un disque dur virtuel. c. Indiquez le chemin d'accès au fichier du VHD d. Cliquez sur OK. e. Exécutez bcdboot d:\windows. 150 BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server REMARQUE Dans cet exemple, le VHD est attaché sous D:\. f. Cliquez avec le bouton droit sur Gestion des disques et sélectionnez Détacher un disque dur virtuel. 10. Redémarrez le serveur physique sur le VHD Nano Server. 11. Connectez-vous à la console de récupération en utilisant l'administrateur et le mot de passe que vous avez fournis lors de l'exécution du script à l'étape 7. 12. Obtenez l'adresse IP de l'ordinateur de Nano Server. 13. Utilisez l'outil d'accès à distance Windows PowerShell (ou un autre outil de gestion à distance) pour vous connecter et gérer le serveur à distance. Déploiement de Nano Server sur une machine virtuelle Pour créer un disque dur virtuel (VHD) Nano Server pour s'exécuter dans une machine virtuelle : 1. Téléchargez l'image du SE Windows Server 2016. 2. Accédez au dossier NanoServer à partir du fichier téléchargé à l'étape 1. 3. Copiez les fichiers suivants du dossier NanoServer sur un dossier de votre disque dur : NanoServerImageGenerator.psm1 Convert-WindowsImage.ps1 4. Démarrez Windows PowerShell en tant qu'administrateur. 5. Changez le répertoire au dossier dans lequel vous avez copié les fichiers à l'étape 3. 6. Importez le script NanoServerImageGenerator en entrant la commande suivante : Import-Module .\NanoServerImageGenerator.psm1 -Verbose 7. Exécutez la commande Windows PowerShell suivante pour créer un VHD qui définit un nom d'ordinateur et inclut les pilotes invités Hyper-V : REMARQUE La commande suivante vous demande un mot de passe administrateur pour le nouveau VHD. 151 BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server New-NanoServerImage –DeploymentType Guest –Edition <Standard/Datacenter> -MediaPath <path to root of media> -BasePath .\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd -ComputerName <computer name> –GuestDrivers Exemple : New-NanoServerImage –DeploymentType Guest –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.vhd -ComputerName Nano-VM1 –GuestDrivers La commande précédente met environ 10 à 15 minutes pour créer un fichier VHD. Voici un exemple de sortie de cette commande : PS C:\Nano> New-NanoServerImage –DeploymentType Guest –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.vhd -ComputerName Nano-VM1 –GuestDrivers cmdlet New-NanoServerImage at command pipeline position 1 Supply values for the following parameters: Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10 Copyright (C) Microsoft Corporation. All rights reserved. Version 10.0.14300. 1000.amd64fre.rs1_release_svc.160324-1723 INFO : Looking for the requested Windows image in the WIM file INFO : Image 1 selected (ServerTuva)... INFO : Creating sparse disk... INFO : Attaching VHD... INFO : Initializing disk... INFO : Creating single partition... INFO : Formatting windows volume... INFO : Windows path (G:) has been assigned. INFO : System volume location: G: INFO : Applying image to VHD. This could take a while... INFO : Image was applied successfully. INFO : Making image bootable... INFO : Fixing the Device ID in the BCD store on VHD... INFO : Drive is bootable. INFO : Closing VHD... INFO : Deleting pre-existing VHD : Base.vhd... INFO : Closing Windows image... 152 Cleaning up... BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server INFO : Done. Done. The log is at: C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log 8. Créez une nouvelle machine virtuelle dans le Gestionnaire Hyper-V, et utilisez le VHD créé à l'étape 7. 9. Démarrez la machine virtuelle. 10. Connectez-vous à la machine virtuelle dans le Gestionnaire Hyper-V. 11. Connectez-vous à la console de récupération en utilisant l'administrateur et le mot de passe que vous avez fournis lors de l'exécution du script à l'étape 7. 12. Obtenez l'adresse IP de l'ordinateur de Nano Server. 13. Utilisez l'outil d'accès à distance Windows PowerShell (ou un autre outil de gestion à distance) pour vous connecter et gérer le serveur à distance. Gestion à distance de Nano Server Les options de gestion à distance de Nano Server comprennent : Windows PowerShell, Windows Management Instrumentation (WMI), Windows Remote Management et Emergency Management Services (EMS). Cette section décrit comment accéder à Nano Server à l'aide de l'accès à distance Windows PowerShell. Gestion de Nano Server avec l'accès à distance Windows PowerShell Pour gérer Nano Server avec l'accès à distance Windows PowerShell : 1. Ajoutez l'adresse IP de Nano Server à la liste des hôtes de confiance de votre ordinateur de gestion. REMARQUE Utilisez la console de récupération pour trouver l'adresse IP du serveur. 2. Ajoutez le compte que vous utilisez aux administrateurs de Nano Server. 3. (Facultatif) Activez CredSSP, s'il y a lieu. Ajout de Nano Server à une liste d'hôtes de confiance À une invite Windows PowerShell avec élévation de privilèges, ajoutez Nano Server à la liste des hôtes de confiance en entrant la commande suivante : Set-Item WSMan:\localhost\Client\TrustedHosts "<IP address of Nano Server>" 153 BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server Exemples : Set-Item WSMan:\localhost\Client\TrustedHosts "172.28.41.152" Set-Item WSMan:\localhost\Client\TrustedHosts "*" REMARQUE La commande précédente définit tous les serveurs hôtes comme des hôtes de confiance. Démarrer la session Windows PowerShell à distance À partir d'une session Windows PowerShell locale avec élévation de privilèges, démarrez la session Windows PowerShell à distance en entrant les commandes suivantes : $ip = "<IP address of Nano Server>" $user = "$ip\Administrator" Enter-PSSession -ComputerName $ip -Credential $user Vous pouvez maintenant exécuter les commandes Windows PowerShell sur Nano Server comme d'habitude. Cependant, toutes les commandes Windows PowerShell ne sont pas disponibles dans cette version de Nano Server. Pour connaître les commandes disponibles, entrez la commande Get-Command -CommandType Cmdlet. Pour arrêter la session distante, entrez la commande Exit-PSSession. Pour plus de détails sur Nano Server, rendez-vous sur : https://technet.microsoft.com/en-us/library/mt126167.aspx Gestion des adaptateurs QLogic sur Windows Nano Server Pour gérer les adaptateurs QLogic dans les environnements Nano Server, reportez-vous aux outils de gestion de l'interface graphique Windows QConvergeConsole et de l'interface CLI Windows QLogic Control Suite et à la documentation associée, disponibles sur le site Web de Cavium. Configuration de RoCE Pour gérer Nano Server avec l'accès à distance Windows PowerShell : 1. Connectez-vous à Nano Server via l'accès à distance Windows PowerShell à partir d'une autre machine. Par exemple : PS C:\Windows\system32> $1p="172.28.41.152" PS C:\Windows\system32> $user="172.28.41.152\Administrator" PS C:\Windows\system32> Enter-PSSession -ComputerName $ip -Credential $user 154 BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server REMARQUE Dans l'exemple précédent, l'adresse IP de Nano Server est 172.28.41.152 et le nom d'utilisateur est Administrator. Si Nano Server se connecte avec succès, le message suivant est renvoyé : [172.28.41.152]: PS C:\Users\Administrator\Documents> 2. Pour déterminer si les pilotes sont installés et que la liaison est établie, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapter La Figure 9-18 montre un exemple de sortie. Figure 9-18. Commande Windows PowerShell : Get-NetAdapter 3. Pour vérifier si RDMA est activé sur l'adaptateur, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapterRdma La Figure 9-19 montre un exemple de sortie. Figure 9-19. Commande Windows PowerShell : Get-NetAdapterRdma 4. Pour attribuer une adresse IP et un ID VLAN à toutes les interfaces de l'adaptateur, entrez les commandes Windows PowerShellsuivantes : [172.28.41.152]: PS C:\> Set-NetAdapterAdvancedProperty -InterfaceAlias "slot 1 port 1" -RegistryKeyword vlanid -RegistryValue 5 155 BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server [172.28.41.152]: PS C:\> netsh interface ip set address name="SLOT 1 Port 1" static 192.168.10.10 255.255.255.0 5. Pour créer un SMBShare sur Nano Server, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\Users\Administrator\Documents> New-Item -Path c:\ -Type Directory -Name smbshare -Verbose La Figure 9-20 montre un exemple de sortie. Figure 9-20. Commande Windows PowerShell : New-Item [172.28.41.152]: PS C:\> New-SMBShare -Name "smbshare" -Path c:\smbshare -FullAccess Everyone La Figure 9-21 montre un exemple de sortie. Figure 9-21. Commande Windows PowerShell : New-SMBShare 6. Pour mapper le SMBShare en tant que lecteur réseau dans la machine client, entrez la commande Windows PowerShell suivante : REMARQUE L'adresse IP d'une interface sur Nano Server est 192.168.10.10. PS C:\Windows\system32> net use z: \\192.168.10.10\smbshare This command completed successfully. 7. Pour accéder en lecture-écriture au SMBShare et vérifier les statistiques RDMA sur le Nano Server, entrez la commande Windows PowerShell suivante : [172.28.41.152]: PS C:\> (Get-NetAdapterStatistics).RdmaStatistics 156 BC0154503-02 F 9–Windows Server 2016 Déploiement et gestion de Nano Server La Figure 9-22 montre la sortie de la commande. Figure 9-22. Commande Windows PowerShell : Get-NetAdapterStatistics 157 BC0154503-02 F 10 Dépannage Ce chapitre fournit les informations de dépannage suivantes : Liste de vérification pour le dépannage « Vérification du chargement des pilotes à jour » à la page 159 « Vérification de la connectivité du réseau » à la page 160 « Virtualisation Microsoft avec Hyper-V » à la page 161 « Problèmes propres à Linux » à la page 161 « Problèmes divers » à la page 162 « Collecte des données de débogage » à la page 162 Liste de vérification pour le dépannage PRÉCAUTION Avant d'ouvrir l'armoire du serveur pour ajouter ou retirer l'adaptateur, consultez la section « Mesures de sécurité » à la page 6. La liste de vérification suivante recense les mesures recommandées pour résoudre les problèmes éventuels lors de l'installation de l'adaptateur QL45212 ou de son exécution sur votre système. Examinez tous les câbles et les connexions. Vérifiez que les câbles connectés à l'adaptateur réseau et au commutateur sont correctement branchés. Vérifiez l'installation de l'adaptateur en vous référant à la section « Installation de l'adaptateur » à la page 7. Assurez-vous que l'adaptateur est correctement positionné dans le logement. Vérifiez que le matériel ne présente pas de problèmes, tels que la détérioration évidente de composants de l'adaptateur ou du connecteur de bord PCI. Vérifiez les paramètres de configuration et modifiez-les en cas de conflit avec un autre périphérique. Vérifiez que votre serveur utilise le BIOS le plus récent. 158 BC0154503-02 F 10–Dépannage Vérification du chargement des pilotes à jour Essayez d'insérer l'adaptateur dans un autre logement. Si cette nouvelle position assure son fonctionnement, il se peut que le logement d'origine de votre système soit défectueux. Remplacez l'adaptateur défectueux par un adaptateur en bon état de fonctionnement. Si le deuxième adaptateur fonctionne dans le logement où le premier ne marchait pas, ce premier adaptateur est probablement défectueux. Installez l'adaptateur dans un autre système qui fonctionne, puis exécutez de nouveau les tests. Si l'adaptateur réussit les tests dans le nouveau système, le système d'origine est peut-être défectueux. Retirez tous les autres adaptateurs du système et exécutez de nouveau les tests. Si l'adaptateur subit les tests avec succès, il se peut que les autres adaptateurs causent le conflit. Vérification du chargement des pilotes à jour Assurez-vous que les pilotes à jour sont chargés pour votre système Windows, Linux ou VMware. Vérification des pilotes dans Windows Voir le Gestionnaire de périphériques pour afficher des informations essentielles sur l'adaptateur, l'état de la liaison et la connectivité réseau. Vérification des pilotes dans Linux Pour vérifier que le pilote qed.ko est chargé correctement, utilisez la commande suivante : # lsmod | grep -i <module name> Si le pilote est chargé, la sortie de cette commande affiche la taille du pilote en octets. L'exemple suivant montre les pilotes chargés pour le module qed : # lsmod | grep -i qed qed qede 199238 1 1417947 0 Si vous redémarrez après le chargement d'un nouveau pilote, vous pouvez utiliser la commande suivante pour vérifier que le pilote actuellement chargé est bien la version correcte. modinfo qede Sinon, vous pouvez utiliser la commande suivante : [root@test1]# ethtool -i eth2 driver: qede 159 BC0154503-02 F 10–Dépannage Vérification de la connectivité du réseau version: 8.4.7.0 firmware-version: mfw 8.4.7.0 storm 8.4.7.0 bus-info: 0000:04:00.2 Si vous avez chargé un nouveau pilote mais que vous n'avez pas encore redémarré, la commande modinfo n'affiche pas d'informations à jour sur le pilote. Entrez plutôt la commande dmesg suivante pour afficher les journaux. Dans cet exemple, la dernière entrée identifie le pilote qui sera actif au redémarrage. # dmesg | grep -i "Cavium" | grep -i "qede" [ 10.097526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x [ 23.093526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x [ 34.975396] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x [ 34.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x [ 3334.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x Vérification des pilotes dans VMware Pour vérifier que les pilotes VMware ESXi sont chargés, entrez la commande suivante : # esxcli software vib list Vérification de la connectivité du réseau Cette section fournit les procédures pour tester la connectivité réseau dans les environnements Windows et Linux. REMARQUE Lorsque vous utilisez des vitesses de liaison forcées, assurez-vous que l'adaptateur et le commutateur sont forcés à la même vitesse. Test de la connectivité réseau pour Windows Testez la connectivité réseau à l'aide de la commande ping. Pour déterminer si la connexion réseau fonctionne : 1. Cliquez sur Démarrer, puis sur Exécuter. 2. Dans la boîte de dialogue Ouvrir, saisissez cmd, puis cliquez sur OK. 3. Pour afficher les connexions du réseau à tester, utilisez les commandes suivantes : ipconfig /all 160 BC0154503-02 F 10–Dépannage Virtualisation Microsoft avec Hyper-V 4. Utilisez la commande suivante puis appuyez sur ENTRÉE. ping <ip_address> Les statistiques ping affichées indiquent si la connectivité réseau fonctionne. Test de la connectivité réseau pour Linux Pour vérifier que l'interface Ethernet est opérationnelle : 1. Pour vérifier l'état de l'interface Ethernet, entrez la commande ifconfig. 2. Pour vérifier les statistiques de l'interface Ethernet, entrez la commande netstat -i. Pour vérifier que la connexion a été établie : 1. Envoyez un ping à une adresse IP hôte sur le réseau. À partir de la ligne de commande, entrez la commande suivante : ping <ip_address> 2. Appuyez sur ENTRÉE. Les statistiques ping affichées indiquent si la connectivité réseau fonctionne. La vitesse de liaison de l'adaptateur peut être forcée à 10 Gbits/s ou à 25 Gbits/s à l'aide de l'outil d'interface graphique (GUI) du système d'exploitation ou avec la commande ethtool –s ethX speed SSSS Configurez les deux ports de l'adaptateur QL45212 à la même vitesse, à 10 Gbits/s ou à 25 Gbits/s simultanément. Virtualisation Microsoft avec Hyper-V La virtualisation Microsoft est un système de virtualisation avec hyperviseur pour Windows Server 2012 R2. Pour plus d'informations sur Hyper-V, rendez-vous sur : https://technet.microsoft.com/en-us/library/Dn282278.aspx Problèmes propres à Linux Problème : Des erreurs surviennent lors de la compilation du code source du pilote. Solution : Certaines installations de distributions Linux n'installent pas les outils de développement ni les kernel-sources (sources du noyau) par défaut. Avant de compiler le code source du pilote, vérifiez que les outils de développement de la distribution Linux que vous utilisez sont installés. 161 BC0154503-02 F 10–Dépannage Problèmes divers Problèmes divers Problème : L'adaptateur QL45212 s'est arrêté et un message d'erreur s'affiche, indiquant une défaillance de son ventilateur. Solution : L'adaptateur adaptateur QL45212 peut s'arrêter intentionnellement afin d'éviter d'endommager le matériel de manière irréversible. Contactez le support technique Cavium pour obtenir de l'aide. Collecte des données de débogage Utilisez les commandes du Tableau 10-1 pour collecter les données de débogage. Tableau 10-1. Commandes de collecte des données de débogage Données de débogage Description demesg-T Journaux du noyau ethtool-d Vidage de registre sys_info.sh Informations système ; celles-ci sont disponibles dans le groupe de pilotes. 162 BC0154503-02 F A Voyants de l'adaptateur Le Tableau A-1 répertorie les voyants d'état de liaison et d'activité de port de l'adaptateur. Tableau A-1. Voyants de liaison et d'activité de port de l'adaptateur Voyant de port Voyant de liaison Voyant d'activité État du voyant État du réseau Désactivé Pas de liaison (câble déconnecté) Allumé (sans clignotement) Liaison Désactivé Aucune activité de port Clignotement Activité de port 163 BC0154503-02 F B Câbles et modules optiques Cette annexe fournit les informations suivantes concernant les câbles et les modules optiques pris en charge : Spécifications prises en charge « Câbles et modules optiques testés » à la page 165 « Commutateurs testés » à la page 166 Spécifications prises en charge Les adaptateurs QL45212 prennent en charge divers câbles et modules optiques conformes à SFF8024. Voici la conformité en matière de facteur de forme spécifique : SFP : SFF8472 (pour la carte mémoire) SFF8419 ou SFF8431 (signaux à faible vitesse et alimentation) QSFP (Quad small form factor pluggable) : SFF8636 (pour la carte mémoire) SFF8679 ou SFF8436 (signaux à faible vitesse et alimentation) Entrées/sorties électriques des modules optiques, câbles en cuivre actifs (ACC) et câbles optiques actifs (AOC) : 10 G – SFF8431 Interface de limitation 25 G – IEEE802.3by Annexe 109B (25GAUI) 164 BC0154503-02 F B–Câbles et modules optiques Câbles et modules optiques testés Câbles et modules optiques testés Cavium ne garantit pas que tous les câbles ou modules optiques qui satisfont aux exigences de conformité fonctionneront avec les adaptateurs QL45212. L'adaptateur QL45212 prend en charge les DAC 3 m et les AOC 30 m, mais il ne prend pas en charge les optiques 25G SR. Cavium a testé l'adaptateur QL45212 pour l'interopérabilité avec les câbles répertoriés dans le Tableau B-1. Tableau B-1. Câbles et modules optiques testés Vitesse/ Facteur de forme Fabricant Référence Type Longueur Calibre de câble a Câbles Dell DAC 10 G b Cisco HP® Amphenol® DAC 25 G HP 407-BBBK Câble Twinax SFP 10G 1 30 407-BBBI Câble Twinax SFP 10G 3 26 COPQAA4JAA Câble Twinax SFP 10G 1 30 COPQAA6JAA Câble Twinax SFP 10G 3 26 2074260-2 Câble Twinax SFP 10G 1 26 AP784A Câble Twinax SFP 10G 3 26 NDCCGF0001 SFP28 à SFP28 1 30 NDCCGF0003 SFP28 à SFP28 3 30 NDCCGJ0003 SFP28 à SFP28 3 26 844474-B21 SFP28 à SFP28 1 26 844477-B21 SFP28 à SFP28 3 26 Solutions optiques 10G AOC c Dell 470-ABLV SFP 10G AOC 2 S/O 470-ABLZ SFP 10G AOC 3 S/O 470-ABLT SFP 10G AOC 5 S/O 470-ABML SFP 10G AOC 7 S/O 470-ABLU SFP 10G AOC 10 S/O 470-ABMD SFP 10G AOC 15 S/O 470-ABMJ SFP 10G AOC 15 S/O 165 BC0154503-02 F B–Câbles et modules optiques Commutateurs testés Tableau B-1. Câbles et modules optiques testés (Suite) Vitesse/ Facteur de forme Fabricant 25G AOC InnoLight Référence Type Longueur Calibre de câble a TF-PY003-N00 SFP28 AOC 3 S/O TF-PY020-N00 SFP28 AOC 20 S/O a La longueur de câble est indiquée en mètres. b DAC est un câble d'attache directe. c AOC est un câble optique actif. Commutateurs testés Le Tableau B-2 répertorie les commutateurs qui ont été testés pour l'interopérabilité avec les adaptateurs QL45212. Cette liste est basée sur les commutateurs disponibles au moment de la publication du produit et est susceptible de changer avec le temps lorsque de nouveaux commutateurs sont commercialisés ou lorsque des commutateurs existants sont abandonnés. Tableau B-2. Commutateurs testés pour l'interopérabilité Fabricant Arista Modèle de commutateur Ethernet 7060X 7160 Nexus 3132 Nexus 3232C Cisco Nexus 5548 Nexus 5596T Nexus 6000 Dell EMC HPE Mellanox® S6100 Z9100 FlexFabric 5950 SN2410 SN2700 166 BC0154503-02 F C Configuration du commutateur Dell Z9100 Les adaptateurs QL45212 prennent en charge les connexions avec le commutateur Ethernet Dell Z9100. Cependant, tant que le processus de négociation automatique n'est pas standardisé, le commutateur doit être explicitement configuré pour se connecter à l'adaptateur à 25 Gbits/s. Pour configurer un port de commutateur Dell Z9100 pour la connexion à l'adaptateur QL45212 à 25 Gbits/s : 1. Établissez une connexion de port série entre votre station de travail de gestion et le commutateur. 2. Ouvrez une session de ligne de commande et connectez-vous au commutateur comme suit : Login: admin (Connexion commutateur : admin) Password: admin (Connexion commutateur : admin) 3. Activez la configuration du port du commutateur : Dell> enable Password: xxxxxx Dell# config 4. Identifiez le module et le port à configurer. Dans l'exemple suivant, le module 1, port 5 est utilisé : Dell(conf)#stack-unit 1 port 5 ? portmode Set portmode for a module Dell(conf)#stack-unit 1 port 5 portmode ? dual Enable dual mode quad Enable quad mode single Enable single mode Dell(conf)#stack-unit 1 port 5 portmode quad ? speed Each port speed in quad mode Dell(conf)#stack-unit 1 port 5 portmode quad speed ? 10G Quad port mode with 10G speed 167 BC0154503-02 F C–Configuration du commutateur Dell Z9100 25G Quad port mode with 25G speed Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G Pour plus d'informations sur le changement de la vitesse de liaison de l'adaptateur, voir « Vérification de la connectivité du réseau » à la page 160. 5. Vérifiez que le port fonctionne à 25 Gb/s : Dell# Dell#show running-config | grep "port 5" stack-unit 1 port 5 portmode quad speed 25G 6. Pour désactiver la négociation automatique sur le port de commutateur 5, procédez comme suit : a. Identifiez l'interface de port de commutateur (module 1, port 5, interface 1) et confirmez l'état de la négociation automatique : Dell(conf)#interface tw 1/5/1 Dell(conf-if-tf-1/5/1)#intf-type cr4 ? autoneg b. Enable autoneg Désactivez la négociation automatique : Dell(conf-if-tf-1/5/1)#no intf-type cr4 autoneg c. Vérifiez que la négociation automatique est désactivée. Dell(conf-if-tf-1/5/1)#do show run interface tw 1/5/1 ! interface twentyFiveGigE 1/5/1 no ip address mtu 9416 switchport flowcontrol rx on tx on no shutdown no intf-type cr4 autoneg Pour plus d'informations sur la configuration du commutateur Dell Z9100, reportez-vous au Guide de configuration du commutateur Dell Z9100 sur le site Web de support Dell : support.dell.com 168 BC0154503-02 F Glossaire ARI Alternative Routing-ID Interpretation. La fonction ARI PCI-SIG offre un mécanisme qui permet à un seul périphérique PCIe de prendre en charge jusqu'à 256 fonctions physiques (PF). Les systèmes d'exploitation actuels autorisent l'utilisation d'un maximum de 16 fonctions physiques (PF) par périphérique lorsqu'ARI est activé dans le BIOS système, et d'un maximum de 8 PF par périphérique si ARI est désactivé. ACPI La unitalicize Advanced Configuration and Power Interface (ACPI) fournit une norme ouverte pour la gestion de l'alimentation et la configuration unifiées de périphériques axées sur le système d'exploitation. ACPI définit des interfaces indépendantes de la plateforme pour la détection, la configuration, la gestion de l'alimentation et la surveillance de matériel. La spécification est au cœur de la gestion de l'alimentation et de la configuration dirigées par le système d'exploitation (OSPM), un terme utilisé pour décrire un système mettant en œuvre ACPI, qui enlève ainsi les responsabilités de gestion de périphériques aux interfaces de micrologiciel existantes. bande passante Mesure du volume de données pouvant être transmises à une vitesse de transmission donnée. Un port Fibre Channel 1 Gb/s ou 2 Gb/s peut effectuer des transmissions/réceptions à des vitesses nominales d'1 ou 2 Gb/s en fonction du périphérique auquel il est connecté. Cela correspond à des valeurs de bande passante réelle de 106 Mo et 212 Mo. adaptateur Carte d'interface entre le système hôte et les périphériques cibles. Le terme Adaptateur est synonyme de Bus d'adaptateur hôte (HBA), adaptateur hôte et carte. BAR Base address register. Sert à conserver les adresses mémoire utilisées par un périphérique ou les décalages des adresses de port. En règle générale, les BAR d'adresses mémoire doivent être situés dans la RAM physique, tandis que les BAR d'espace d'E/S peuvent résider à n'importe quelle adresse mémoire (même au-delà de la mémoire physique). Advanced Configuration and Power Interface Voir ACPI. 169 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 base address register Voir BAR. data center bridging Voir DCB. BIOS Système d'entrées/sorties de base. En règle générale dans la PROM Flash, programme (ou utilitaire) qui sert d'interface entre le matériel et le système d'exploitation, et permet l'amorçage à partir de l'adaptateur au démarrage. data center bridging exchange Voir DCBX. DCB Data center bridging. Apporte des améliorations aux spécifications de pont 802.1 afin de satisfaire les exigences des protocoles et applications du centre de données. Comme les centres de données hautes performances actuels comprennent généralement plusieurs réseaux propres à une application exécutés avec différentes technologies de couche de liaison (Fibre Channel pour le stockage, Ethernet pour la gestion réseau et la connectivité LAN), DCB permet d'utiliser des ponts 802.1 pour le déploiement d'un réseau convergent où toutes les applications peuvent être exécutées sur une seule infrastructure physique. carte réseau Voir NIC. cible Point final de périphérique de stockage d'une session SCSI. Les initiateurs demandent des données à partir de cibles. Les cibles sont généralement des lecteurs de disque, des lecteurs de bande ou d'autres périphériques multimédias. En règle générale, un périphérique SCSI est la cible, mais un adaptateur peut, dans certains cas, être une cible. Une cible peut contenir plusieurs LUN. Une cible est un périphérique qui répond à une requête d'un initiateur (le système hôte). Les périphériques sont des cibles, mais pour certaines commandes (par exemple, une commande SCSI COPY), le périphérique peut agir comme initiateur. DCBX Data center bridging exchange. Protocole utilisé par les périphériques DCB pour échanger des informations de configuration avec leurs homologues en connexion directe. Ce protocole peut également être utilisé pour la détection des erreurs de configuration et pour la configuration de l'homologue. Couche 2 Se réfère à la couche de liaison de données du modèle de communication multicouches OSI (Open Systems Interconnection). La fonction de la couche de liaison de données consiste à déplacer des données sur les liaisons physiques d'un réseau, où un commutateur redirige les messages de données au niveau de la couche 2 à l'aide de l'adresse MAC de destination pour déterminer la destination du message. DHCP Dynamic host configuration protocol. Permet aux ordinateurs situés sur un réseau IP d'extraire leur configuration des serveurs qui ont des informations sur l'ordinateur uniquement après leur requête. Dynamic Host Configuration Protocol Voir DHCP. 170 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 Ethernet Technologie LAN la plus utilisée qui transmet des informations entre des ordinateurs, typiquement à des vitesses de 10 et 100 millions de bits par seconde (Mbits/s). eCore Une couche entre le système d'exploitation et le matériel et le micrologiciel. Elle est propre au périphérique et indépendante du SE. Lorsque le code eCore nécessite des services de SE (par exemple, pour l'allocation de mémoire, l'accès à l'espace de configuration PCI, etc.), il appelle une fonction SE abstraite implémentée dans des couches spécifiques au SE. Les flux eCore peuvent être gérés par le matériel (par exemple, via une interruption) ou par la partie spécifique du SE du pilote (par exemple, charger et décharger le chargement et le déchargement). Ethernet écoénergétique Voir EEE. ETS Enhanced transmission selection. Norme qui spécifie l'amélioration de la sélection d'émission afin de prendre en charge l'allocation de bande passante parmi les classes de trafic Lorsque la charge offerte d'une classe de trafic n'utilise pas toute la bande passante allouée, la sélection d'émission améliorée (ETS) permet aux autres classes de trafic d'utiliser la bande passante disponible. Les priorités d'allocation de bande passante coexistent avec les priorités strictes. ETS comprend des objets gérés pour prendre en charge l'allocation de bande passante. Pour plus d'informations, reportez-vous à : http://ieee802.org/1/pages/802.1az.html EEE Ethernet écoénergétique. Un ensemble d'améliorations de la gamme Ethernet à paires torsadées et de fond de panier de normes de mise en réseau d'ordinateurs qui permet d'obtenir une consommation électrique moindre pendant les périodes de faible activité de données. L'objectif était de réduire la consommation électrique de 50 pour cent ou plus, tout en conservant la compatibilité totale avec l'équipement existant. L'Institute of Electrical and Electronics Engineers (IEEE), par le biais du groupe de travail IEEE 802.3az, a développé la norme. extensible firmware interface Voir EFI. FCoE Fibre Channel over Ethernet. Une nouvelle technologie définie par l'organisme de normalisation T11, qui permet au trafic réseau de stockage Fibre Channel traditionnel de se déplacer sur une liaison Ethernet en encapsulant les trames Fibre Channel dans des trames Ethernet de couche 2. Pour plus d'informations, rendez-vous sur www.fcoe.com. EFI Extensible firmware interface. Spécification qui définit une interface logicielle entre un système d'exploitation et le micrologiciel de plateforme. EFI remplace l'ancienne interface de micrologiciel BIOS présente sur tous les ordinateurs personnels compatibles IBM PC. Fibre Channel over Ethernet (FCoE) Voir FCoE. enhanced transmission selection Voir ETS. 171 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 IQN iSCSI qualified name. Nom de nœud iSCSI basé sur le fabricant de l'initiateur et une section de nom de périphérique unique. file transfer protocol Voir FTP. FTP File transfer protocol. Protocole de réseau standard servant à transférer des fichiers d'un hôte à un autre sur un réseau TCP, tel que Internet. FTP est requis pour les chargements hors bande de micrologiciel qui s'effectueront plus rapidement que des chargements de micrologiciel intrabande. iSCSI Internet small computer system interface. Protocole qui encapsule les données dans des paquets IP à envoyer sur des connexions Ethernet. iSCSI qualified name Voir IQN. HII Human interface infrastructure. Spécification (qui fait partie de la norme UEFI 2.1) utilisée pour la gestion des saisies utilisateur, des chaînes localisées, des polices et des formulaires, qui permet aux OEM de développer des interfaces graphiques pour la configuration de préamorçage. large send offload Voir LSO. Link Layer Discovery Protocol (Protocole de découverte de couche liaison) Voir LLDP. LLDP Un protocole de Couche 2 neutre quant au fournisseur qui permet à un périphérique réseau de publier son identité et ses capacités sur le réseau local. Ce protocole supplante des protocoles exclusifs comme le Cisco Discovery Protocol, l'Extreme Discovery Protocol et le Nortel Discovery Protocol (également connu sous le nom SONMP). Les informations récoltées avec le protocole LLDP sont stockées dans le périphérique et peuvent être interrogées à l'aide de SNMP. La topologie d'un réseau à capacité LLDP peut être détectée en analysant les hôtes et en interrogeant cette base de données. human interface infrastructure Voir HII. IEEE Institute of Electrical and Electronics Engineers. Organisation internationale à but non lucratif dédiée aux progrès des technologies liées à l'électricité. interface virtuelle Voir VI. Internet small computer system interface Voir iSCSI. IP Internet protocol. Méthode par laquelle les données sont envoyées d'un ordinateur à l'autre sur Internet. IP spécifie le format des paquets, également appelés datagrammes et le schéma d'adressage. 172 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 LSO Large send offload. Fonction d'adaptateur Ethernet qui permet à la pile de réseau TCP\IP de construire un grand message TCP (jusqu'à 64 Ko) avant de l'envoyer à l'adaptateur. Le matériel de l'adaptateur segmente le message en petits paquets de données (trames) à envoyer sur le câble : jusqu'à 1 500 octets pour les trames Ethernet standard et jusqu'à 9 000 octets pour les trames Ethernet étendues. La procédure de segmentation libère l'UC du serveur d'avoir à segmenter les grands messages TCP en petits paquets adaptés à la taille de trame prise en charge. MSI-X (définie dans PCI 3.0) permet à un périphérique d'allouer un nombre quelconque d'interruptions entre 1 et 2 048 et donne à chaque interruption des registres d'adresses et de données séparés. Les fonctions facultatives de MSI (adressage 64 bits et masquage d'interruption) sont obligatoires avec MSI-X. MTU Maximum transmission unit. Désigne la taille (en octets) du plus grand paquet (datagramme IP) qu'une couche de protocole de communication spécifiée peut transférer. NIC Carte réseau Carte d'ordinateur installée pour permettre une connexion réseau dédiée. lternative Routing-ID Interpretation Voir ARI. machine virtuelle Voir VM. NPAR partitionnement NIC. Division d'un port NIC en plusieurs partitions ou fonctions physiques, dotées chacune d'une bande passante et d'une personnalité (type d'interface) configurables par l'utilisateur. Les personnalités comprennent NIC, FCoE et iSCSI. maximum transmission unit Voir MTU. mémoire à accès aléatoire non volatile Voir NVRAM. message signaled interrupts Voir MSI, MSI-X. NVRAM Mémoire à accès aléatoire non volatile. Un type de mémoire qui conserve les données (paramètres de configuration) même en cas de coupure de l'alimentation. Vous pouvez configurer manuellement les paramètres NVRAM ou les restaurer à partir d'un fichier. MSI, MSI-X Message signaled interrupts. L'une de deux extensions définies par PCI pour prendre en charge les interruptions signalées par des messages (MSI), dans PCI 2.2 et versions ultérieures et PCI Express. Les MSI constituent une autre façon de générer une interruption par l'intermédiaire de messages spéciaux qui permettent l'émulation d'une assertion ou désassertion de pin. OFED™ OpenFabrics Enterprise Distribution. Un logiciel libre pour des applications RDMA et de contournement de noyau. 173 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 partitionnement NIC Voir NPAR. QoS Qualité de service. Fait référence aux méthodes utilisées pour éviter les goulets d'étranglement et pour garantir la continuité des activités lors de la transmission de données sur des ports virtuels, en définissant des priorités et en allouant de la bande passante. PCI Express (PCIe) Norme d'E/S de troisième génération qui permet des performances réseau Ethernet optimisées au-delà de celles des logements d'ordinateurs de bureau et de serveur PCI (peripheral component interconnect) et PCI-X (PCI extended). qualité de service Voir QoS. PCI™ Peripheral component interface. Spécification de bus local 32 bits introduite par Intel®. RDMA Remote direct memory access. Capacité d'un nœud à écrire directement dans la mémoire d'un autre (avec sémantique d'adresse et de taille) sur un réseau. Cette capacité est une fonction essentielle des réseaux d'interface virtuelle (VI). périphérique Une cible, généralement un lecteur de disque. Matériel tel qu'un lecteur de disque, un lecteur de bande, une imprimante ou un clavier installé sur ou connecté à un système. Dans Fibre Channel, un périphérique cible. RDMA over Converged Ethernet Voir RoCE. reduced instruction set computer Voir RISC. PF Fonction physique. remote direct memory access Voir RDMA. pilote Logiciel d'interface entre le système de fichiers et un périphérique physique de stockage de données ou un support de réseau. réseau logique virtuel Voir VLAN. RISC Reduced instruction set computer. Microprocesseur informatique qui exécute des instructions informatiques de moins de types, fonctionnant ainsi à des vitesses plus élevées. port d'adaptateur Port sur la carte adaptateur. Protocole Internet Voir IP. 174 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 RoCE RDMA over Converged Ethernet. Protocole réseau qui permet l'accès mémoire direct à distance (RDMA) sur un réseau Ethernet convergent ou non. RoCE est un protocole de couche de liaison qui permet les communications entre deux hôtes d'un même domaine de diffusion Ethernet. SR-IOV Single root input/output virtualization. Spécification de PCI-SIG qui permet à un périphérique PCIe d'apparaître sous la forme de plusieurs périphériques PCIe physiques distincts. SR-IOV permet d'isoler les ressources PCIe à des fins de performance, d'interopérabilité et de gestion. SCSI Small computer system interface. Interface haut débit utilisée pour connecter des périphériques, tels que des disques durs, des lecteurs de CD, des imprimantes et des scanners, à un ordinateur. SCSI peut connecter de nombreux périphériques à l'aide d'un seul contrôleur. Chaque périphérique est identifié par un numéro d'identification individuel sur le bus du contrôleur SCSI. système d'entrées/sorties de base Voir BIOS. TCP Transmission control protocol. Ensemble de règles pour envoyer des données en paquets sur IP. TCP/IP Transmission control protocol/Internet protocol. Langage de communication de base d'Internet. SerDes Serializer/deserializer. Paire de blocs fonctionnels couramment utilisés au cours des communications à haute vitesse pour compenser l'entrée/sortie limitée. Ces blocs convertissent les données entre les données série et les interfaces parallèles dans chaque direction. TLV Type-length-value. Informations facultatives pouvant être codées en tant qu'élément à l'intérieur du protocole. Les champs de type et de longueur sont de taille fixe (en règle générale, 1-4 octets) et le champ de valeur est de taille variable. Ces champs sont utilisés comme suit : Type : code numérique qui indique le type de champ que représente cette partie du message. Longueur : taille du champ de valeur (généralement en octets). Valeur : ensemble d'octets de taille variable qui contient les données de cette partie du message. serializer/deserializer Voir SerDes. single root input/output virtualization Voir SR-IOV. small computer system interface Voir SCSI. 175 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 unified extensible firmware interface Voir UEFI. trames étendues Grandes trames IP utilisées dans les réseaux haute performance pour augmenter les performances sur de longues distances. Les trames étendues correspondent généralement à 9 000 octets pour Gigabit Ethernet, mais peuvent se référer à tout ce qui dépasse la MTU IP, qui est égale à 1 500 octets sur un réseau Ethernet. user datagram protocol Voir UDP. VF Fonction virtuelle. VI Interface virtuelle. Système d'accès mémoire direct à distance sur Fibre Channel et autres protocoles de communication. Utilisé pour les clusters et les messages. transmission control protocol Voir TCP. transmission control protocol/Internet protocol Voir TCP/IP. VLAN Réseau logique virtuel. Groupe d'hôtes dotés d'un ensemble commun d'exigences qui communiquent comme s'ils étaient attachés au même câble, quel que soit leur emplacement physique. Bien qu'un VLAN ait les mêmes attributs qu'un LAN physique, il permet de regrouper des stations finales même si celles-ci ne sont pas situées sur le même segment de LAN. Les VLAN permettent de reconfigurer le réseau via un logiciel, au lieu de déplacer physiquement les périphériques. type-length-value Voir TLV. UDP User datagram protocol. Protocole de transport sans connexion qui n'offre aucune garantie de séquence ou livraison des paquets. Il fonctionne directement sur IP. UEFI Unified extensible firmware interface. Spécification qui détaille une interface servant à transmettre le contrôle du système pour l'environnement de préamorçage (après l'allumage du système, mais avant le démarrage du système d'exploitation) à un système d'exploitation, comme Windows ou Linux. UEFI fournit une interface « propre » entre les systèmes d'exploitation et le micrologiciel de plateforme lors de l'amorçage, et prend en charge un mécanisme indépendant de l'architecture pour l'initialisation des cartes d'extension. VM Machine virtuelle. Mise en œuvre logicielle d'une machine (ordinateur) qui exécute des programmes comme une machine réelle. Wake on LAN Voir WoL. 176 BC0154503-02 F Guide d’utilisation—Adaptateur Ethernet intelligent QL45212 WoL Wake on LAN. Norme de réseau informatique Ethernet qui permet à un ordinateur d'être allumé ou réveillé à distance par un message réseau envoyé généralement par un simple programme exécuté sur un autre ordinateur du réseau. 177 BC0154503-02 F Siège social Cavium, Inc. 2315 N. First Street San Jose, CA 95131 408-943-7100 Bureaux internationaux Royaume-Uni | Irlande | Allemagne | France | Inde | Japon | Chine | Hong Kong | Singapour | Taïwan | Israël Copyright © 2015–2018 Cavium, Inc. Tous droits réservés dans le monde entier. QLogic Corporation est une filiale à part entière de Cavium, Inc. Cavium, FastLinQ, QConvergeConsole, QLogic et SmartAN sont des marques déposées de Cavium, Inc. Tous les autres noms de marque et de produit sont des marques commerciales ou des marques déposées de leurs propriétaires respectifs. Ce document est fourni uniquement à titre informatif et peut contenir des erreurs. Cavium se réserve le droit de modifier ce document ou la conception ou les spécifications du produit sans avis préalable. Cavium rejette toute garantie de quelque sorte que ce soit, expresse ou implicite, et ne garantit pas que vous obtiendrez un quelconque résultat ou performance décrit dans ce document. Toutes les déclarations concernant les futures direction et intention de Cavium sont sujettes à modification ou annulation sans préavis et ne représentent que des buts et objectifs.