Dell QLogic Family of Adapters Manuel utilisateur

Ajouter à Mes manuels
196 Des pages
Dell QLogic Family of Adapters Manuel utilisateur | Fixfr
Guide d’utilisation
Adaptateur Ethernet intelligent
QL45212
BC0154503-02 F
Renseignements de tiers fournis
gracieusement par Dell EMC.
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
Historique de révision du document
Révision A, dimanche 11 janvier 2015
Révision B, mardi 19 avril 2016
Révision C, vendredi 27 janvier 2017
Révision D, jeudi 24 août 2017
Révision E, mercredi 31 janvier 2018
Révision F, jeudi 19 avril 2018
Modifications
Sections touchées
Mise à jour des exemples concernant les
conventions de documents.
« Conventions de la documentation » à la page xiii
Suppression des sections obsolètes QLogic
Contrats de licence et Garantie.
Préface
Dans Tableau 3-5, ajout d'une note de bas de
page : « Des pilotes ESXi supplémentaires
pourraient être disponibles après la publication de
ce guide d’utilisation. Pour plus d'informations,
reportez-vous aux « Notes de mise à jour ».
« Pilotes et paquets de pilotes VMware » à la
page 28
Dans le Tableau 6-1 :
« Systèmes d'exploitation pris en charge et
OFED » à la page 56
 Mise à jour des valeurs d’OED pour Windows
Server et VMware ESXi.
 Ajout d'une ligne pour VMware ESXi 6.7.
 Suppression de la note de bas de page, « Le
pilote RoCE certifié n’est pas inclus dans cette
version. Le pilote non certifié est disponible
dans le cadre d'un aperçu anticipé. »
Ajout d’une nouvelle procédure d’affichage des
compteurs Cavium RDMA pour RoCE sous
Windows.
« Affichage des compteurs RDMA » à la page 63
Ajout d'informations de configuration d’iSER pour
VMware ESXi 6.7.
« Configuration d’iSER sous ESXi 6.7 » à la
page 93
ii
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
« Configuration de SR-IOV sous VMware » à la
page 111
Dans la procédure Configuration de SR-IOV sur
VMware, réorganisation de certaines étapes :
 Déplacement de l’étape « Validation des VF par
port, émission de la commande esxcli après
l’étape « Remplir la boîte de dialogue Modifier
les paramètres... ».
 Déplacement de l’étape « Mise sous tension de
la VM... » après l’étape « Installation des pilotes
QLogic pour les adaptateurs détectés... »
Dans Tableau B-2, ajout d’autres commutateurs
testés.
« Commutateurs testés » à la page 166
iii
BC0154503-02 F
Table des matières
Préface
Produits pris en charge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Public visé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ce que ce guide comprend . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conventions de la documentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Avis légaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Sécurité relative au laser – Avis de la FDA . . . . . . . . . . . . . . . . . . . . .
Homologation d'organisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exigences EMI et EMC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
KCC : Classe A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
VCCI : Classe A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conformité sécurité du produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
Présentation du produit
Description fonctionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fonctionnalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fonctionnalités spécifiques du Dell QL45212 . . . . . . . . . . . . . . . . . . .
Fréquence d'interruption adaptative . . . . . . . . . . . . . . . . . . . . . .
ASIC avec processeur RISC intégré . . . . . . . . . . . . . . . . . . . . .
Spécifications de l'adaptateur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Caractéristiques physiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Spécifications de normes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1
1
3
3
3
3
3
3
Installation du matériel
Configuration système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Mesures de sécurité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Liste de vérification de préinstallation . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
xii
xii
xii
xiii
xvi
xvi
xvi
xvi
xvii
xviii
xviii
5
6
7
7
Installation des pilotes
Installation du logiciel pilote pour Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . .
iv
9
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
Installation des pilotes Linux sans RDMA . . . . . . . . . . . . . . . . . . . . . .
Suppression des pilotes Linux . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation des pilotes Linux à l'aide du paquet RPM src. . . . . .
Installation des pilotes Linux à l'aide du paquet
RPM kmp/kmod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation des pilotes Linux à l'aide du fichier TAR . . . . . . . . . .
Installation des pilotes Linux avec RDMA . . . . . . . . . . . . . . . . . . . . . .
Paramètres facultatifs des pilotes Linux . . . . . . . . . . . . . . . . . . . . . . .
Paramètres de fonctionnement par défaut des pilotes Linux . . . . . . .
Messages des pilotes Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation du logiciel pilote pour Windows . . . . . . . . . . . . . . . . . . . . . . . . .
Installation des pilotes Windows . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exécution du DUP dans l'IUG. . . . . . . . . . . . . . . . . . . . . . . . . . .
Options d'installation de DUP . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exemples d'installation de DUP . . . . . . . . . . . . . . . . . . . . . . . . .
Suppression des pilotes Windows. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gestion des propriétés de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . .
Définition des options de gestion de l'alimentation . . . . . . . . . . . . . . .
Installation du logiciel pilote pour VMware . . . . . . . . . . . . . . . . . . . . . . . . . .
Pilotes et paquets de pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . .
Installation des pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Paramètres facultatifs des pilotes VMware . . . . . . . . . . . . . . . . . . . . .
Paramètres par défaut des pilotes VMware . . . . . . . . . . . . . . . . . . . .
Suppression du pilote VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
14
14
15
16
17
17
17
18
18
18
24
25
25
25
27
27
28
29
31
33
33
Mise à niveau du micrologiciel
Exécution du DUP en double-cliquant . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exécution du DUP depuis une ligne de commande . . . . . . . . . . . . . . . . . . .
Exécution du DUP à l'aide du fichier .bin . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
11
11
13
34
38
39
Configuration de prédémarrage de l'adaptateur
Mise en route . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Affichage des propriétés d'image du micrologiciel . . . . . . . . . . . . . . . . . . . .
Configuration des paramètres au niveau du périphérique . . . . . . . . . . . . . .
Configuration des paramètres NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de Data Center Bridging . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration des partitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
v
42
45
46
47
50
52
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
6
Configuration de RoCE
Systèmes d'exploitation pris en charge et OFED . . . . . . . . . . . . . . . . . . . . .
Planification pour RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Préparation de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Préparation du commutateur Ethernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration du commutateur Ethernet Cisco Nexus 6000 . . . . . . . .
Configuration du commutateur Ethernet Dell Z9100 . . . . . . . . . . . . . .
Configuration de RoCE sur l'adaptateur pour Windows Server . . . . . . . . . .
Affichage des compteurs RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de RoCE sur l'adaptateur pour Linux . . . . . . . . . . . . . . . . . . .
Configuration de RoCE pour RHEL. . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de RoCE pour SLES . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vérification de la configuration RoCE sous Linux . . . . . . . . . . . . . . . .
Interfaces VLAN et valeurs d'index GID . . . . . . . . . . . . . . . . . . . . . . .
Configuration de RoCE v2 pour Linux . . . . . . . . . . . . . . . . . . . . . . . . .
Identification de l'index GID de RoCE v2 ou de l'adresse . . . . .
Vérification de l'adresse et de l'index GID de RoCE v1 ou v2
à partir des paramètres sys et class. . . . . . . . . . . . . . . . . . . . .
Vérification de la fonctionnalité de RoCE v1 ou v2 par les
applications perftest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de RoCE sur l'adaptateur pour VMware ESX . . . . . . . . . . . .
Configuration des interfaces RDMA . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration du MTU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Mode RoCE et statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration d'un périphérique RDMA paravirtuel (PVRDMA) . . . . .
7
56
57
58
58
59
60
60
63
70
70
71
71
74
74
75
75
76
80
80
82
82
83
Configuration d'iSER
Avant de commencer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration d'iSER pour RHEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration d'iSER pour SLES 12. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Optimisation des performances Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration des UC sur le mode Performances maximales. . . . . . .
Configuration des paramètres sysctl du noyau . . . . . . . . . . . . . . . . . .
Configuration des paramètres d'affinité d'IRQ . . . . . . . . . . . . . . . . . . .
Configuration de la préparation de périphériques de traitement par
blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration d’iSER sous ESXi 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Avant de commencer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration d’iSER pour ESXi 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . .
vi
87
88
91
92
92
92
93
93
93
93
94
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
8
Configuration de SR-IOV
Configuration de SR-IOV sous Windows . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de SR-IOV sous Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de SR-IOV sous VMware. . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
97
104
111
Windows Server 2016
Configuration des interfaces RoCE avec Hyper-V . . . . . . . . . . . . . . . . . . . .
Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle
RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ajout d'un ID VLAN à une NIC virtuelle hôte . . . . . . . . . . . . . . . . . . . .
Vérification de l'activation de RoCE . . . . . . . . . . . . . . . . . . . . . . . . . .
Ajout de NIC virtuelles hôtes (ports virtuels) . . . . . . . . . . . . . . . . . . . .
Mappage du lecteur SMB et exécution du trafic RoCE . . . . . . . . . . . .
RoCE sur Switch Embedded Teaming . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles
RDMA et SET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Activation de RDMA sur SET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Attribution d'un ID VLAN sur SET . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exécution du trafic RDMA sur SET . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de QoS pour RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de QoS en désactivant DCBX sur l'adaptateur . . . . . . .
Configuration de QoS en activant DCBX sur l'adaptateur . . . . . . . . . .
Configuration de VMMQ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Activation de VMMQ sur l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration du port virtuel par défaut et non par défaut de paires
de files d'attente (QP) max VMMQ . . . . . . . . . . . . . . . . . . . . . . . . . .
Création d'un commutateur de machine virtuelle avec ou sans
SR-IOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Activation de VMMQ sur le commutateur de machine virtuelle . . . . . .
Obtention de la fonction de commutateur de machine virtuelle. . . . . .
Création d'une machine virtuelle et activation de VMMQ sur les
VMNetworkadapters dans la VM. . . . . . . . . . . . . . . . . . . . . . . . . . . .
NIC virtuelle VMMQ par défaut et maximum . . . . . . . . . . . . . . . . . . . .
Activation et désactivation de VMMQ sur une NIC de gestion . . . . . .
Surveillance des statistiques de trafic . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration de VXLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Activation du déchargement VXLAN sur l'adaptateur . . . . . . . . . . . . .
Déploiement d'un réseau défini par logiciel . . . . . . . . . . . . . . . . . . . . .
Configuration des Espaces de stockage direct . . . . . . . . . . . . . . . . . . . . . .
Configuration du matériel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
vii
116
117
118
119
120
120
122
123
123
123
124
124
124
129
132
133
133
134
136
136
137
138
138
139
139
139
140
140
140
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
Déploiement d'un système hyper-convergé . . . . . . . . . . . . . . . . . . . .
Déploiement du système d'exploitation . . . . . . . . . . . . . . . . . . .
Configuration du réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration des Espaces de stockage direct. . . . . . . . . . . . . .
Déploiement et gestion de Nano Server . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rôles et fonctionnalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Déploiement de Nano Server sur un serveur physique. . . . . . . . . . . .
Déploiement de Nano Server sur une machine virtuelle . . . . . . . . . . .
Gestion à distance de Nano Server. . . . . . . . . . . . . . . . . . . . . . . . . . .
Gestion de Nano Server avec l'accès à distance
Windows PowerShell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ajout de Nano Server à une liste d'hôtes de confiance . . . . . . .
Démarrer la session Windows PowerShell à distance . . . . . . . .
Gestion des adaptateurs QLogic sur Windows Nano Server . . . . . . .
Configuration de RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
153
153
154
154
154
Dépannage
Liste de vérification pour le dépannage . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vérification du chargement des pilotes à jour . . . . . . . . . . . . . . . . . . . . . . .
Vérification des pilotes dans Windows . . . . . . . . . . . . . . . . . . . . . . . .
Vérification des pilotes dans Linux . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vérification des pilotes dans VMware . . . . . . . . . . . . . . . . . . . . . . . . .
Vérification de la connectivité du réseau . . . . . . . . . . . . . . . . . . . . . . . . . . .
Test de la connectivité réseau pour Windows . . . . . . . . . . . . . . . . . . .
Test de la connectivité réseau pour Linux . . . . . . . . . . . . . . . . . . . . . .
Virtualisation Microsoft avec Hyper-V . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Problèmes propres à Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Problèmes divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Collecte des données de débogage. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A
Voyants de l'adaptateur
B
Câbles et modules optiques
Spécifications prises en charge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Câbles et modules optiques testés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Commutateurs testés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C
141
141
141
144
147
147
148
151
153
158
159
159
159
160
160
160
161
161
161
162
162
164
165
166
Configuration du commutateur Dell Z9100
Glossaire
viii
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
Liste des Figures
Figure
Page
3-1
Fenêtre Dell Update Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
3-2
Assistant QLogic InstallShield : Fenêtre de bienvenue . . . . . . . . . . . . . . . . . . . . . .
19
3-3
Assistant QLogic InstallShield : Fenêtre de contrat de licence . . . . . . . . . . . . . . . .
20
3-4
Assistant InstallShield : Fenêtre de type d'installation . . . . . . . . . . . . . . . . . . . . . . .
21
3-5
Assistant InstallShield : Fenêtre d'installation personnalisée. . . . . . . . . . . . . . . . . .
22
3-6
Assistant InstallShield : Fenêtre Prêt à installer le programme . . . . . . . . . . . . . . . .
22
3-7
Assistant InstallShield : Fenêtre Terminé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
3-8
Fenêtre Dell Update Package . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
3-9
Configuration des propriétés d'adaptateur avancées. . . . . . . . . . . . . . . . . . . . . . . .
26
3-10 Options de gestion de l'alimentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
4-1
Progiciel de mise à jour Dell : Écran de démarrage. . . . . . . . . . . . . . . . . . . . . . . . .
35
4-2
Progiciel de mise à jour Dell : Continuer la mise à jour . . . . . . . . . . . . . . . . . . . . . .
36
4-3
Progiciel de mise à jour Dell : Chargement du nouveau micrologiciel . . . . . . . . . . .
37
4-4
Progiciel de mise à jour Dell : Résultats de l'installation . . . . . . . . . . . . . . . . . . . . .
37
4-5
Progiciel de mise à jour Dell : Terminer l'installation . . . . . . . . . . . . . . . . . . . . . . . .
38
4-6
Options de ligne de commande du DUP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
5-1
Configuration du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
5-2
Configuration du système : Paramètres des périphériques . . . . . . . . . . . . . . . . . . .
42
5-3
Page de configuration principale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
5-4
Page Configuration principale, configuration du mode de partitionnement en
NPAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
5-5
Page Configuration principale, configuration du mode de partitionnement NPAR . . .
44
5-6
Propriétés de l'image du micrologiciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
5-7
Configuration du système : Page Configuration au niveau du périphérique . . . . . .
46
5-8
Configuration NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
5-9
Configuration du système : Paramètres Data Center Bridging (DCB) . . . . . . . . . . .
51
5-10 Configuration des partitions NIC, allocation de bande passante globale . . . . . . . . .
52
5-11 Allocation de bande passante globale, configuration de la partition 1 . . . . . . . . . . .
53
5-12 Page Allocation de bande passante globale : Mode NPAReP activé . . . . . . . . . . .
53
5-13 Configuration de la partition 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
5-14 Configuration de la partition 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
6-1
Configuration des propriétés RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
6-2
Boîte de dialogue Ajouter des compteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
6-3
Performance Monitor : Compteurs FastLinQ Cavium . . . . . . . . . . . . . . . . . . . . . . .
65
6-4
Paramètres de commutateur, serveur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
78
6-5
Paramètres de commutateur, client . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
6-6
Configuration des applications RDMA_CM : Serveur . . . . . . . . . . . . . . . . . . . . . . .
79
6-7
Configuration des applications RDMA_CM : Client . . . . . . . . . . . . . . . . . . . . . . . . .
80
6-8
Configuration d'un nouveau commutateur distribué. . . . . . . . . . . . . . . . . . . . . . . . .
84
6-9
Assignation d'un vmknic pour un PVRDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
6-10 Définition de la règle de pare-feu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
7-1
Ping RDMA réussi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89
7-2
Instances de portail iSER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89
ix
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
7-3
7-4
8-1
8-2
8-3
8-4
8-5
8-6
8-7
8-8
8-9
8-10
8-11
8-12
8-13
8-14
8-15
9-1
9-2
9-3
9-4
9-5
9-6
9-7
9-8
9-9
9-10
9-11
9-12
9-13
9-14
9-15
9-16
9-17
9-18
9-19
9-20
9-21
9-22
Vérification de Iface Transport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vérification de nouveau périphérique iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Configuration système pour SR-IOV : Périphériques intégrés . . . . . . . . . . . . . . . . .
Configuration système pour SR-IOV : Configuration au niveau du périphérique . . .
Propriétés de l'adaptateur, Avancé : Activation de SR-IOV . . . . . . . . . . . . . . . . . . .
Gestionnaire de commutateur virtuel : Activation de SR-IOV . . . . . . . . . . . . . . . . .
Paramètres de la VM : Activation de SR-IOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gestion de périphériques : VM avec adaptateur QLogic . . . . . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : Get-NetadapterSriovVf . . . . . . . . . . . . . . . . . .
Configuration du système : Paramètres du processeur pour SR-IOV . . . . . . . . . . .
Configuration système pour SR-IOV : Périphériques intégrés . . . . . . . . . . . . . . . . .
Modification du fichier grub.conf pour SR-IOV. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Sortie de commande pour sriov_numvfs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Sortie de la commande ip link show. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Machine virtuelle RHEL 68. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ajouter un nouveau matériel virtuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Paramètres de modification de l'hôte VMware. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Activation de RDMA dans la NIC virtuelle hôte . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Propriétés de la carte Ethernet virtuelle Hyper-V. . . . . . . . . . . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : Get-VMNetworkAdapter. . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . .
Boîte de dialogue Ajouter des compteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Performance Monitor affiche le trafic RoCE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : New-VMSwitch . . . . . . . . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : Get-NetAdapter . . . . . . . . . . . . . . . . . . . . . . . .
Propriétés avancées : Activer QoS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Propriétés avancées : Configuration d'ID VLAN . . . . . . . . . . . . . . . . . . . . . . . . . . .
Propriétés avancées : Activation de QoS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Propriétés avancées : Configuration d'ID VLAN . . . . . . . . . . . . . . . . . . . . . . . . . . .
Propriétés avancées : Activation de RSS de commutateur virtuel. . . . . . . . . . . . . .
Gestionnaire de commutateur virtuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : Get-VMSwitch . . . . . . . . . . . . . . . . . . . . . . . . .
Propriétés avancées : Activation de VXLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Exemple de configuration matérielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : Get-NetAdapter . . . . . . . . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : New-Item . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : New-SMBShare . . . . . . . . . . . . . . . . . . . . . . . .
Commande Windows PowerShell : Get-NetAdapterStatistics . . . . . . . . . . . . . . . . .
x
90
91
98
98
99
100
102
103
103
105
106
107
108
109
110
111
114
117
118
119
119
121
122
123
123
125
126
130
131
133
135
136
139
140
155
155
156
156
157
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
Liste des Tableaux
Tableau
Page
2-1
Exigences matérielles de l'hôte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
2-2
Configuration minimale requise du système d'exploitation hôte . . . . . . . . . . . . . . .
6
3-1
Pilotes Linux des adaptateurs QLogic QL45212 . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
3-2
Paramètres facultatifs du pilote qede. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
3-3
Paramètres de fonctionnement par défaut des pilotes Linux . . . . . . . . . . . . . . . . . .
17
3-4
Pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
3-5
Paquets de pilotes ESXi par version . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
3-6
Paramètres facultatifs des pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
3-7
Paramètres par défaut des pilotes VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
5-1
Propriétés de l'adaptateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
6-1
Prise en charge des SE pour RoCE v1, RoCE v2, iWARP et OFED . . . . . . . . . . . .
56
6-2
Propriétés avancées pour RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
6-3
Compteurs d’erreurs FastLinQ RDMA Cavium . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
9-1
Rôles et fonctionnalités de Nano Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
147
10-1 Commandes de collecte des données de débogage . . . . . . . . . . . . . . . . . . . . . . . .
162
A-1
Voyants de liaison et d'activité de port de l'adaptateur . . . . . . . . . . . . . . . . . . . . . .
163
B-1
Câbles et modules optiques testés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
165
B-2
Commutateurs testés pour l'interopérabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
166
xi
BC0154503-02 F
Préface
Cette préface énumère les produits pris en charge, spécifie le public visé,
explique les conventions typographiques utilisées dans ce guide et décrit les avis
légaux.
Produits pris en charge
Ce guide d'utilisation décrit l'installation, la configuration et la gestion de
l'adaptateur Ethernet intelligent Cavium™ QL45212 25 Gb (QL45212HLCU-DE,
support hauteur standard).
Public visé
Ce guide est destiné aux administrateurs système et autres membres du
personnel technique responsables de la configuration et de la gestion des
adaptateurs installés sur des serveurs Dell® PowerEdge® dans des
environnements Windows®, Linux® ou VMware®.
Ce que ce guide comprend
Après cette préface, le reste de ce guide comprend les chapitres et annexes
suivants :

Le Chapitre 1 Présentation du produit présente une description fonctionnelle
du produit, la liste des fonctionnalités, et les spécifications de l'adaptateur.

Le Chapitre 2 Installation du matériel décrit l'installation de l'adaptateur et
inclut notamment la liste des exigences système et une liste de vérification
de préinstallation.

Le Chapitre 3 Installation des pilotes décrit l'installation des pilotes de
l'adaptateur sur Windows, Linux et VMware.

Le Chapitre 4 Mise à niveau du micrologiciel décrit comment utiliser le
progiciel de mise à jour Dell (DUP) pour mettre à niveau le micrologiciel de
l'adaptateur.

Le Chapitre 5 Configuration de prédémarrage de l'adaptateur décrit les
tâches de configuration de l'adaptateur de préamorçage à l'aide de
l'application Human Infrastructure Interface (HII).
xii
BC0154503-02 F
Préface
Conventions de la documentation

Le Chapitre 6 Configuration de RoCE explique comment configurer
l'adaptateur, le commutateur Ethernet et l'hôte afin d'utiliser RDMA over
converged Ethernet (RoCE).

Le Chapitre 7 Configuration d'iSER explique comment configurer les
extensions iSCSI pour RDMA (iSER) pour Linux RHEL et SLES.

Le Chapitre 8 Configuration de SR-IOV fournit les procédures pour
configurer single root input/output virtualization (SR-IOV) sur les systèmes
Windows, Linux et VMware.

Le Chapitre 9 Windows Server 2016 décrit les fonctionnalités de Windows
Server 2016.

Le Chapitre 10 Dépannage décrit diverses procédures et ressources de
dépannage.

L'Annexe A Voyants de l'adaptateur énumère les voyants de l'adaptateur et
leur signification.

L'Annexe B Câbles et modules optiques énumère les câbles et les modules
optiques pris en charge par les adaptateurs QL45212.

L'Annexe C Configuration du commutateur Dell Z9100 décrit la
configuration du port de commutateur Dell Z9100 pour 25 Gbits/s.
À la fin de ce guide, vous trouverez un glossaire.
Conventions de la documentation
Ce guide utilise les conventions de documentation suivantes :

REMARQUE fournit des informations supplémentaires.

PRÉCAUTION sans symbole d'alerte indique la présence d'un risque
d'endommagement de l'équipement ou de perte de données.

!
PRÉCAUTION avec symbole d'alerte indique la présence d'un
danger pouvant provoquer des blessures légères ou modérées.

!
AVERTISSEMENT indique la présence d'un danger pouvant entraîner
des blessures graves, voire la mort.

Le texte en bleu indique un lien hypertexte vers une figure, un tableau ou
une section de ce guide ; les liens vers les sites Web apparaissent soulignés
en bleu. Par exemple :

Tableau 9-2 répertorie les problèmes relatifs à l'interface utilisateur et à
l'agent distant.

Voir « Liste de vérification de l'installation » à la page 6.
xiii
BC0154503-02 F
Préface
Conventions de la documentation





Pour plus d'informations, rendez vous sur www.cavium.com.
Le texte en gras indique les éléments de l'interface utilisateur comme les
options de menu, les boutons, les cases à cocher ou les en-têtes de
colonne. Par exemple :

Cliquez sur le bouton Démarrer, pointez sur Programmes, pointez sur
Accessoires, puis cliquez sur Invite de commande.

Sous Options de notification, cochez la case Alarmes
d'avertissement.
Le texte en police Courier indique un nom de fichier, un chemin d'accès à
un répertoire, ou un texte de ligne de commande. Par exemple :

Pour revenir vers le répertoire racine à partir de n'importe où dans la
structure de fichiers :
Entrez cd /root, puis appuyez sur ENTRÉE.

Utilisez la commande suivante : sh ./install.bin.
Les noms et les séquences de touches sont indiqués en MAJUSCULES :

Appuyez sur CTRL+P.

Appuyez sur la touche FLÈCHE HAUT.
Le texte en italique indique des termes, des emphases, des variables ou des
titres de document. Par exemple :

Que sont les touches de raccourci ?

Pour saisir le type de date mm/jj/aaaa (où mm est le mois, jj est le jour
et aaaa est l'année).

Les titres des rubriques entre guillemets identifient les rubriques connexes
qui figurent dans ce manuel ou dans l'aide en ligne, également appelée le
système d'aide dans ce document.

Voici les conventions de syntaxe de commande de l'interface de ligne de
commande (CLI) :

Le texte brut indique les éléments que vous devez taper comme
indiqué. Par exemple :


qaucli -pr nic -ei
< > (Crochets angulaires) indiquent une variable dont vous devez
spécifier la valeur. Par exemple :

<serial_number>
xiv
BC0154503-02 F
Préface
Conventions de la documentation
REMARQUE
Pour les commandes de l'interface CLI uniquement, les noms
des variables sont toujours indiqués en utilisant des crochets
angulaires au lieu de l'italique.

[ ] (Crochets) indiquent un paramètre facultatif. Par exemple :



[<file_name>] signifie spécifier un nom de fichier, ou l'omettre
pour sélectionner le nom de fichier par défaut.
| (Barre verticale) indique les options mutuellement exclusives ;
sélectionnez une seule option. Par exemple :

on|off

1|2|3|4
... (Points de suspension) indiquent que l'élément précédent peut
être répété. Par exemple :

x... signifie une ou plusieurs instances de x.

[x...] signifie zéro ou plusieurs instances de x.

Des points de suspension verticaux, dans le cadre d'un exemple de
sortie de commande, indiquent où des parties de données de sortie
répétées ont été volontairement omises.

( ) (Parenthèses) et { } (Accolades) sont utilisés pour éviter toute
ambiguïté logique. Par exemple :

a|b c est ambigu
{(a|b) c} signifie a ou b, suivi de c
{a|(b c)} signifie a, ou b c
xv
BC0154503-02 F
Préface
Avis légaux
Avis légaux
Les avis légaux inclus dans cette section comprennent la sécurité relative au laser
(avis de la FDA), l'homologation d'organisme et la conformité en matière de
sécurité du produit.
Sécurité relative au laser – Avis de la FDA
Ce produit est conforme aux règles DHHS 21CFR Chapitre I, Sous-chapitre J. Ce
produit a été conçu et fabriqué selon la norme IEC60825-1 indiquée sur l'étiquette
de sécurité du produit laser.
PRODUIT LASER
DE CLASSE I
Class 1
Laser Product
Caution—Class 1 laser radiation when open
Do not view directly with optical instruments
Appareil laser
de classe 1
Attention—radiation laser de classe 1
Ne pas regarder directement avec des instruments optiques
Produkt der
Laser Klasse 1
Vorsicht—Laserstrahlung der Klasse 1 bei geöffneter Abdeckung
Direktes Ansehen mit optischen Instrumenten vermeiden
Luokan 1 Laserlaite Varoitus—Luokan 1 lasersäteilyä, kun laite on auki
Älä katso suoraan laitteeseen käyttämällä optisia instrumenttej
Homologation d'organisme
Les sections suivantes contiennent un récapitulatif des spécifications des tests
EMI/EMC réalisés sur les adaptateurs QL45212 garantissant une conformité aux
normes d'émission, d'immunité et de sécurité du produit :
Exigences EMI et EMC
Conformité à l'alinéa 15 de la FCC : Classe A
Déclaration de conformité FCC : Cet appareil est conforme à la section 15 des
règlements FCC. Son fonctionnement est soumis aux deux conditions suivantes :
(1) ce périphérique ne doit pas provoquer d'interférences nuisibles et (2) ce
périphérique doit accepter toute interférence reçue, y compris les interférences
pouvant altérer son fonctionnement.
Conformité ICES-003 : Classe A
This Class A digital apparatus complies with Canadian ICES-003. Cet appareil
numérique de la classe A est conforme à la norme NMB-003 du Canada.
Conformité à la directive EMC 2014/30/UE, 2014/35/UE, marque CE :
EN55032:2012/ CISPR 32:2015 Classe A
xvi
BC0154503-02 F
Préface
Avis légaux
EN55024:2010
EN61000-3-2: Émission de courant harmonique
EN61000-3-3 : Fluctuations et inégalités de tension
Normes d'immunité
EN61000-4-2 : Décharges électrostatiques
EN61000-4-3 : Rayonnements électromagnétiques
EN61000-4-4 : Transitoires rapides en salves
EN61000-4-5 : Onde de choc
EN61000-4-6 : Injection de courant HF
EN61000-4-8 : Champ magnétique de fréquence industrielle
EN61000-4-11 : Creux et variations de tension
VCCI : 2015-04 ; Classe A
AS/NZS ; CISPR 32 : 2015 Classe A
CNS 13438 : 2006 Classe A
KCC : Classe A
Korea RRA Certifié classe A
Nom/Modèle du produit : Adaptateurs réseau convergents et
Adaptateurs Ethernet intelligents
Titulaire : QLogic Corporation
Date de fabrication : Voir le code de date indiqué sur le produit
Fabricant/Pays d'origine : QLogic Corporation / États-Unis
Équipement de classe A
(Équipement de
télécommunication/
informatique à usage
professionnel)
Cet équipement ayant subi un enregistrement EMC pour un
usage professionnel, le vendeur et/ou l'acheteur sont priés
de veiller à ce point. En cas de vente ou d'achat illicite, il
conviendra de passer à un usage domestique.
Format de langue coréenne - Classe A
xvii
BC0154503-02 F
Préface
Avis légaux
VCCI : Classe A
Ceci est un produit de Classe A sur la base de la norme du Conseil de contrôle
volontaire des interférences (Voluntary Control Council for Interference - VCCI). Si
cet équipement est utilisé dans un environnement local, des interférences radio
peuvent se produire, auquel cas l'utilisateur peut être amené à prendre des
mesures correctives.
Conformité sécurité du produit
Sécurité du produit UL, cUL :
UL 60950-1 (2ème édition) A1 + A2 2014-10-14
CSA C22.2 No.60950-1-07 (2ème édition) A1 +A2 2014-10
Utiliser uniquement avec équipement informatique ou équivalent.
Conforme à 21 CFR 1040.10 et 1040.11, 2014/30/UE, 2014/35/UE.
Directive basse tension 2006/95/EC :
TUV EN60950-1:2006+A11+A1+A12+A2 2ème édition
TUV IEC 60950-1 : 2005 2ème édition Am1 : 2009 + Am2 : 2013 CB
Certifié CB selon IEC 60950-1 2e édition
xviii
BC0154503-02 F
1
Présentation du produit
Ce chapitre fournit les informations suivantes concernant les adaptateurs QL45212 :

Description fonctionnelle

Fonctionnalités

« Spécifications de l'adaptateur » à la page 3
Description fonctionnelle
L'adaptateur Cavium QL45212 est un adaptateur Ethernet intelligent 25 Gb conçu
pour la mise en réseau accélérée des données des systèmes Dell PowerEdge.
L'adaptateur QL45212 comprend un MAC Ethernet 25 Gb doté de fonctionnalité
duplex intégral.
Fonctionnalités
L'adaptateur QL45212 fournit les fonctions suivantes :

Partitionnement de carte réseau (NPAR)

Solution monopuce :


MAC 25 Gb

Interface SerDes pour connexion d'émetteur-récepteur DAC (direct
attach copper)

PCIe® 3.0 x8

Matériel à capacité zéro copie
Fonctionnalités liées aux performances :

Déchargements de somme de contrôle TCP, IP, UDP

Déchargement de segmentation TCP (TSO)

Déchargement de grands segments (Large Segment offload - LSO)

Déchargement de segments génériques (Generic segment
offload - GSO)

Grand déchargement de réception (Large Receive Offload – LRO)
1
BC0154503-02 F
1–Présentation du produit
Fonctionnalités




Regroupement de segments de réception (Receive segment
coalescing - RSC)

File d'attente de machine virtuelle (VMQ) dynamique, files
d'attente multiples de machine virtuelle (VMMQ) Microsoft®, et
files d'attente multiples Linux
Interruptions adaptives :

Extensibilité en émission/réception (TSS/RSS)

Déchargements sans état pour la virtualisation réseau utilisant
l'encapsulation de routage générique (NVGRE) et le trafic de
tunnels GRE L2/L3 de LAN virtuel (VXLAN)1
Gérabilité :

Contrôleur de bus de gestion système (SMB)

Conforme à Advanced Configuration and Power Interface (ACPI) 1.1a
(plusieurs modes d'alimentation)

Prise en charge de l'interface de bande latérale de contrôleur
réseau (NC-SI)
Fonctions réseau avancées :

Trames étendues (jusqu'à 9 600 octets). Le système d'exploitation et le
partenaire de liaison doivent prendre en charge les trames étendues.

Réseaux locaux virtuels (VLAN)

Contrôle du flux (IEEE Std 802.3X)

Commande de liaison logique (norme 802.2 de l'IEEE)

Processeur RISC (Ordinateur à jeu d'instructions réduit) sur puce haute vitesse

Mémoire tampon à trame de 96 Ko intégrée (ne s'applique pas à tous les
modèles)

1 024 filtres de classification (ne s'applique pas à tous les modèles)

Prise en charge d'adresses multi-diffusion via une fonction matérielle
d'adressage calculé à 128 bits

Mémoire NVRAM flash série

Interface de gestion de l'alimentation PCI (v1.1)

Prise en charge de BAR (base address register) 64 bits

Prise en charge du processeur EM64T

Prise en charge du démarrage iSCSI et FCoE2
1 Cette fonctionnalité exige la prise en charge du système d'exploitation ou de l'hyperviseur, afin
d'utiliser les déchargements.
2 La limite de prise en charge matérielle de VF dans SR-IOV varie. La limite peut être inférieure
dans certains environnements de SE ; reportez-vous à la section correspondante à votre système
d'exploitation.
2
BC0154503-02 F
1–Présentation du produit
Spécifications de l'adaptateur
Fonctionnalités spécifiques du Dell QL45212
Les fonctionnalités propres à l'adaptateur Ethernet intelligent Dell QL45212
comprennent la fréquence d'interruption adaptative et l'ASIC avec processeur
RISC intégré.
Fréquence d'interruption adaptative
Le pilote de l'adaptateur règle intelligemment la fréquence d'interruption de l'hôte
en fonction des conditions d'écoulement du trafic, de façon à augmenter le débit
global de l'application. Lorsque le trafic est faible, le pilote de l'adaptateur
interrompt le serveur pour chaque paquet reçu, afin de réduire la latence. Lorsque
le trafic est important, la carte émet une interruption du serveur pour plusieurs
paquets entrants consécutifs, afin de préserver les cycles de l'unité centrale hôte.
ASIC avec processeur RISC intégré
La fonction principale de l'adaptateur QL45212 réside dans un ASIC hautes
performances étroitement intégré. ASIC inclut un processeur RISC, ce qui offre la
possibilité d'ajouter de nouvelles fonctionnalités à l'adaptateur et de l'adapter aux
exigences ultérieures du réseau via des téléchargements logiciels. Le processeur
RISC permet également aux pilotes de l'adaptateur d'exploiter les fonctions de
déchargement d'hôte intégrées à l'adaptateur, étant donné que les systèmes
d'exploitation hôtes sont optimisés pour tirer parti de ces fonctions.
Spécifications de l'adaptateur
Les spécifications de l'adaptateur QL45212 comprennent les caractéristiques
physiques de l'adaptateur et les références de conformité aux normes.
Caractéristiques physiques
Les adaptateurs QL45212 sont des cartes PCIe standard et sont livrés avec un
support pleine hauteur ou compact à utiliser dans un logement PCIe standard.
Spécifications de normes
Les spécifications des normes prises en charge comprennent :

Spécification de base PCI Express, rév. 3.1

Spécification électromécanique de carte PCI Express, rév. 3.0

Spécification d'interface de gestion de l'alimentation du bus PCI, rév. 1.2

Spécifications des normes IEEE :

802.3-2015 Norme de l'IEEE pour Ethernet (contrôle de flux)

802.1q (VLAN)

802.1AX (Agrégation de liaisons)
3
BC0154503-02 F
1–Présentation du produit
Spécifications de l'adaptateur

802.1ad (QinQ)

802.1p (Codage basé sur les priorités)

1588-2002 PTPv1 (Precision Time Protocol)

1588-2008 PTPv2

IEEE 802.3az Energy Efficient Ethernet (EEE)

IPv4 (RFQ 791)

IPv6 (RFC 2460)
4
BC0154503-02 F
2
Installation du matériel
Ce chapitre fournit les informations suivantes concernant l'installation du
matériel :

Configuration système

« Mesures de sécurité » à la page 6

« Liste de vérification de préinstallation » à la page 7

« Installation de l'adaptateur » à la page 7
Configuration système
Avant d'installer un adaptateur QL45212 Cavium, vérifiez que votre système
répond aux exigences en matière de matériel et de système d'exploitation
affichées dans le Tableau 2-1 et le Tableau 2-2. Pour obtenir une liste complète
des systèmes d’exploitation pris en charge, consultez le site Web de Cavium.
Tableau 2-1. Exigences matérielles de l'hôte
Matériel
Exigence
Architecture
IA-32 ou EMT64 qui satisfait aux exigences de système
d'exploitation
Mémoire
8 GO de RAM (minimum)
Câbles d'attache
directe (DAC)
Amphenol® NDDCCGF-0001
Amphenol NDAQGF-0003
Amphenol NDCCGF-0005
Leoni® ParaLink® LA0SF064-SD-R
5
BC0154503-02 F
2–Installation du matériel
Mesures de sécurité
Tableau 2-2. Configuration minimale requise du système
d'exploitation hôte
Système
d'exploitation
Exigence
Windows Server
2012, 2012 R2, 2016 (y compris Nano)
Linux
RHEL® 6.8, 6.9, 7.2, 7.3, 7.4
SLES® 11 SP4, SLES 12 SP2, SLES 12 SP3
VMware
ESXi 6.0 u3 et versions ultérieures pour adaptateurs 25 G
REMARQUE
Le Tableau 2-2 indique la configuration minimale requise du système
d'exploitation hôte. Pour obtenir une liste complète des systèmes
d’exploitation pris en charge, consultez le site Web de Cavium.
Mesures de sécurité
!
AVERTISSEMENT
L'adaptateur est installé dans un système fonctionnant à une tension qui
peut s'avérer mortelle. Avant d'ouvrir le capot de votre système, prenez les
mesures suivantes afin de vous protéger et d'éviter tout risque de
destruction des composants du système.
 Enlevez les objets métalliques ou les bijoux que vous portez aux mains
et aux poignets.
 Veillez à utiliser uniquement des outils isolés ou non conducteurs.
 Vérifiez que le système est hors tension et que la prise est débranchée
avant de toucher tout composant interne.
 Installez ou enlevez les adaptateurs dans un environnement exempt
d'électricité statique. Le port d'un bracelet antistatique correctement relié
à la terre ou de tout autre dispositif antistatique ainsi que l'utilisation d'un
tapis antistatique sont vivement conseillés.
6
BC0154503-02 F
2–Installation du matériel
Liste de vérification de préinstallation
Liste de vérification de préinstallation
Avant d'installer l'adaptateur, procédez ainsi :
1.
Assurez-vous que votre système répond bien à la configuration matérielle et
logicielle requise décrite dans la section « Configuration système » à la
page 5.
2.
Vérifiez si votre système utilise le BIOS le plus récent.
REMARQUE
Si vous vous êtes procuré le logiciel de l'adaptateur sur le site Web
Cavium, vérifiez les chemins d'accès aux fichiers de pilote de
l'adaptateur.
3.
Si votre système est actif, fermez-le.
4.
Une fois le système arrêté, coupez l'alimentation secteur et débranchez la
prise de l'ordinateur.
5.
Sortez l'adaptateur de son emballage et placez-le sur une surface exempte
d'électricité statique.
6.
Vérifiez que la carte ne présente aucun signe de détérioration, en particulier
sur le connecteur de bord. N'essayez jamais d'installer un adaptateur
endommagé.
Installation de l'adaptateur
Les instructions suivantes s'appliquent à l'installation des adaptateurs Cavium
adaptateurs QL45212 dans la plupart des systèmes. Pour obtenir des détails sur
l'exécution de ces tâches, reportez-vous aux manuels fournis avec votre système.
Pour installer l'adaptateur :
1.
Consultez les « Mesures de sécurité » à la page 6 et la « Liste de
vérification de préinstallation » à la page 7. Avant d'installer l'adaptateur,
assurez-vous que le système est hors tension, que la prise est débranchée
et que vous respectez les procédures correctes de mise à la terre.
2.
Ouvrez le boîtier du système et sélectionnez le logement correspondant à la
taille de l'adaptateur, à savoir PCIe Gen 2 x8 ou PCIe Gen 3 x8. Un
adaptateur de taille inférieure peut être placé dans un logement plus grand
(x8 dans un x16), mais un adaptateur de taille supérieure ne peut pas être
placé dans un logement plus petit (x8 dans un x4). Si vous ne savez pas
comment identifier un logement PCIe, consultez la documentation de votre
système.
3.
Enlevez la platine avant nue (lame d'obturation) du logement sélectionné.
7
BC0154503-02 F
2–Installation du matériel
Installation de l'adaptateur
4.
Alignez le bord du connecteur de l'adaptateur sur le logement du connecteur
PCIe dans le système.
5.
En exerçant une pression égale sur les deux coins de l'adaptateur,
enfoncez-le dans le logement jusqu'à ce qu'il soit bien positionné. Une fois
l'adaptateur correctement positionné, le connecteur du port de l'adaptateur
est aligné sur l'ouverture du logement et sa platine avant se trouve dans
l'alignement du châssis du système.
PRÉCAUTION
N'exercez pas de pression excessive lorsque vous calez l'adaptateur,
car vous pourriez endommager le système ou l'adaptateur. Si vous
avez du mal à enfoncer l'adaptateur, retirez-le, réalignez-le et
recommencez.
6.
Fixez l'adaptateur avec son clip ou sa vis.
7.
Refermez le boîtier du système et détachez tous les dispositifs antistatiques
personnels.
8
BC0154503-02 F
3
Installation des pilotes
Ce chapitre fournit les informations suivantes concernant l'installation des pilotes :

Installation du logiciel pilote pour Linux

« Installation du logiciel pilote pour Windows » à la page 18

« Installation du logiciel pilote pour VMware » à la page 27
Installation du logiciel pilote pour Linux
Cette section décrit la manière d'installer des pilotes Linux avec ou sans accès direct
à la mémoire à distance (RDMA). Elle présente également les paramètres facultatifs
des pilotes Linux, leurs valeurs par défaut, leurs messages et leurs statistiques.

Installation des pilotes Linux sans RDMA

Installation des pilotes Linux avec RDMA

Paramètres facultatifs des pilotes Linux

Paramètres de fonctionnement par défaut des pilotes Linux

Messages des pilotes Linux

Statistiques
Les pilotes Linux de l'adaptateur QL45212 et la documentation complémentaire
sont disponibles sur la page de support Dell :
dell.support.com
Le Tableau 3-1 décrit les pilotes Linux de l'adaptateur QL45212 :
Tableau 3-1. Pilotes Linux des adaptateurs QLogic QL45212
Pilote
Linux
qed
Description
Le module pilote core qed contrôle directement le micrologiciel, gère les interruptions et
fournit l'API de bas niveau pour le jeu de pilotes spécifique au protocole. Le pilote qed
s'interface avec les pilotes qede, qedr, qedi et qedf. Le module core Linux gère toutes les
ressources de périphérique PCI (registres, files d'attente d'interface hôte, etc.). Le
module core qed exige la version 2.6.32 ou ultérieure du noyau Linux. Les tests se
concentrent sur l'architecture x86_64.
9
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Linux
Tableau 3-1. Pilotes Linux des adaptateurs QLogic QL45212 (Suite)
Pilote
Linux
Description
qede
Pilote Ethernet Linux pour l'adaptateur QL45212. Ce pilote contrôle directement le
matériel et est responsable de l'envoi et de la réception des paquets Ethernet au nom de
la pile réseau hôte Linux. Ce pilote reçoit et traite également les interruptions de
périphérique, pour son propre compte (pour les réseaux L2). Le pilote qed exige la
version 2.6.32 ou ultérieure du noyau Linux. Les tests se concentrent sur l'architecture
x86_64.
qedr
Pilote RDMA over converged Ethernet (RoCE) Linux. Ce pilote fonctionne dans
l'environnement OpenFabrics Enterprise Distribution (OFED™) en conjonction avec le
module de base qed et le pilote Ethernet qede. Les applications d'espace utilisateur
RDMA exigent également que la bibliothèque utilisateur libqedr soit installée sur le
serveur.
qedi
Pilote de déchargement iSCSI Linux pour les adaptateurs 45xxx. Ce pilote fonctionne
avec la bibliothèque Open iSCSI.
qedf
Pilote de déchargement FCoE Linux pour les adaptateurs 45xxx. Ce pilote fonctionne
avec la bibliothèque Open FCoE.
Vous pouvez installer les pilotes Linux avec un paquet RPM (Red Hat® Package
Manager) source ou un paquet RPM kmod. Voici les paquets RPM RHEL :

qlgc-fastlinq-<version>.<OS>.src.rpm

qlgc-fastlinq-kmp-default-<version>.<arch>.rpm
Voici les paquets RPM source et kmp SLES :

qlgc-fastlinq-<version>.<OS>.src.rpm

qlgc-fastlinq-kmp-default-<version>.<OS>.<arch>.rpm
Le paquet RPM kmod (kernel module) suivant installe les pilotes Linux sur des
hôtes SLES exécutant l'hyperviseur Xen :

qlgc-fastlinq-kmp-xen-<version>.<OS>.<arch>.rpm
Le paquet RPM source suivant installe le code de la bibliothèque RDMA sur les
hôtes RHEL et SLES :

qlgc-libqedr-<version>.<OS>.<arch>.src.rpm
Le fichier compressé TAR BZip2 (BZ2) du code source suivant installe les pilotes
Linux sur les hôtes RHEL et SLES :

fastlinq-<version>.tar.bz2
10
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Linux
REMARQUE
Pour les installations réseau via NFS, FTP ou HTTP (à l'aide d'une disquette
de démarrage de réseau), vous devrez peut-être utiliser un disque de pilote
contenant le pilote qede. Les pilotes de démarrage Linux peuvent être
compilés en modifiant l'environnement makefile et make.
Installation des pilotes Linux sans RDMA
Pour installer les pilotes Linux sans RDMA :
1.
Téléchargez les pilotes Linux de l'adaptateur QL45212 à partir du site Dell :
dell.support.com
2.
Supprimez les pilotes Linux existants en suivant les instructions de la
section « Suppression des pilotes Linux » à la page 11.
3.
Installez les nouveaux pilotes Linux en utilisant l'une des méthodes
suivantes :

Installation des pilotes Linux à l'aide du paquet RPM src

Installation des pilotes Linux à l'aide du paquet RPM kmp/kmod

Installation des pilotes Linux à l'aide du fichier TAR
Suppression des pilotes Linux
Il existe deux procédures permettant de supprimer les pilotes Linux : l'une pour un
environnement non RDMA et l'autre pour un environnement RDMA. Choisissez la
procédure qui correspond à votre environnement.
Pour supprimer les pilotes Linux dans un environnement non RDMA,
déchargez et supprimez les pilotes :
Suivez la procédure relative à la méthode d'installation d'origine et au système
d'exploitation.

Si vous avez installé les pilotes Linux à l'aide d'un paquet RPM, saisissez
les commandes suivantes :
rmmod qede
rmmod qed
depmod -a
rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>
11
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Linux

Si vous avez installé les pilotes Linux à l'aide d'un fichier TAR, saisissez les
commandes suivantes :
rmmod qede
rmmod qed
depmod -a

Pour RHEL :
cd /lib/modules/<version>/extra/qlgc-fastlinq
rm -rf qed.ko qede.ko qedr.ko

Pour SLES :
cd /lib/modules/<version>/updates/qlgc-fastlinq
rm -rf qed.ko qede.ko qedr.ko
Pour supprimer les pilotes Linux dans un environnement non RDMA :
1.
Pour obtenir le chemin vers les pilotes actuellement installés, entrez la
commande suivante :
modinfo <driver name>
2.
Déchargez et supprimez les pilotes Linux.

Si vous avez installé les pilotes Linux à l'aide d'un paquet RPM,
saisissez les commandes suivantes :
modprobe -r qede
depmod -a
rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>

Si vous avez installé les pilotes Linux à l'aide d'un fichier TAR,
saisissez les commandes suivantes :
modprobe -r qede
depmod -a
REMARQUE
Si le pilote qedr est présent, entrez à la place la commande
modprobe -r qedr.
3.
Supprimez les fichiers qed.ko, qede.ko et qedr.ko du répertoire où ils
résident. Par exemple, sous SLES, entrez les commandes suivantes :
cd /lib/modules/<version>/updates/qlgc-fastlinq
rm -rf qed.ko
rm -rf qede.ko
12
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Linux
rm -rf qedr.ko
depmod -a
Pour supprimer les pilotes Linux dans un environnement RDMA :
1.
Pour obtenir le chemin vers les pilotes installés, entrez la commande
suivante :
modinfo <driver name>
2.
Déchargez et supprimez les pilotes Linux.
modprobe -r qedr
modprobe -r qede
modprobe -r qed
depmod -a
3.
Supprimez les fichiers de modules de pilote :

Si vous avez installé les pilotes à l'aide d'un paquet RPM, entrez la
commande suivante :
rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>

Si vous avez installé les pilotes à l'aide d'un fichier TAR, saisissez les
commandes suivantes, en fonction de votre système d'exploitation :
Pour RHEL :
cd /lib/modules/<version>/extra/qlgc-fastlinq
rm -rf qed.ko qede.ko qedr.ko
Pour SLES :
cd /lib/modules/<version>/updates/qlgc-fastlinq
rm -rf qed.ko qede.ko qedr.ko
Installation des pilotes Linux à l'aide du paquet RPM src
Pour installer des pilotes Linux à l'aide du package RPM src
1.
Saisissez la commande suivante en réponse à une invite de commande :
rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.src.rpm
2.
Faites passer le répertoire au chemin d'accès au RPM et créez le RPM
binaire pour le noyau :
Pour RHEL :
cd /root/rpmbuild
rpmbuild -bb SPECS/fastlinq-<version>.spec
13
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Linux
Pour SLES :
cd /usr/src/packages
rpmbuild -bb SPECS/fastlinq-<version>.spec
3.
Installez le RPM qui vient d'être compilé :
rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.<arch>.rpm
REMARQUE
L'option --force peut être requise sur certaines distributions Linux en
cas de conflit.
Les pilotes seront installés dans les chemins d'accès suivants.
Pour SLES :
/lib/modules/<version>/updates/qlgc-fastlinq
Pour RHEL :
/lib/modules/<version>/extra/qlgc-fastlinq
4.
Activez toutes les interfaces ethX comme suit :
ifconfig <ethX> up
5.
Pour SLES, utilisez YaST pour configurer les interfaces Ethernet afin
qu'elles soient lancées automatiquement au moment du démarrage en
définissant une adresse IP statique ou en activant DHCP sur l'interface.
Installation des pilotes Linux à l'aide du paquet RPM kmp/kmod
Pour installer le package RPM kmod :
1.
Saisissez la commande suivante en réponse à une invite de commande :
rpm -ivh qlgc-fastlinq-<version>.<arch>.rpm
2.
Rechargez le pilote :
modprobe -r qede
modprobe qede
Installation des pilotes Linux à l'aide du fichier TAR
Pour installer des pilotes Linux à l'aide du fichier TAR :
1.
Créez un répertoire et extrayez les fichiers TAR dans ce répertoire :
tar xjvf fastlinq-<version>.tar.bz2
14
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Linux
2.
Allez au répertoire récemment créé, puis installez les pilotes :
cd fastlinq-<version>
make clean; make install
Les pilotes qed et qede seront installés dans les chemins d'accès suivants :
Pour SLES :
/lib/modules/<version>/updates/qlgc-fastlinq
Pour RHEL :
/lib/modules/<version>/extra/qlgc-fastlinq
3.
Testez les pilotes en les chargeant (au besoin, déchargez d'abord les pilotes
existants) :
rmmod qede
rmmod qed
modprobe qed
modprobe qede
Installation des pilotes Linux avec RDMA
Pour installer les pilotes Linux dans un environnement avec OFED
préinstallé :
1.
Téléchargez les pilotes Linux de l'adaptateur QL45212 à partir du site Dell :
dell.support.com
2.
Configurez RoCE sur l'adaptateur comme indiqué à la section
« Configuration de RoCE sur l'adaptateur pour Linux » à la page 70.
3.
Supprimez les pilotes Linux existants en suivant les instructions de la
section « Suppression des pilotes Linux » à la page 11.
4.
Installez les nouveaux pilotes Linux en utilisant l'une des méthodes
suivantes :
5.

Installation des pilotes Linux à l'aide du paquet RPM kmp/kmod

Installation des pilotes Linux à l'aide du fichier TAR
Installez les bibliothèques libqedr pour travailler avec les applications de
l'espace utilisateur RDMA. Le RPM libqedr est disponible uniquement pour
OFED préinstallé. Entrez la commande suivante :
rpm –ivh qlgc-libqedr-<version>.<arch>.rpm
15
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Linux
6.
Pour construire et installer la bibliothèque d'espace utilisateur libqedr,
entrez la commande suivante :
'make libqedr_install'
7.
Testez les pilotes en les chargeant ainsi :
modprobe qedr
make install_libeqdr
Paramètres facultatifs des pilotes Linux
Le Tableau 3-2 décrit les paramètres facultatifs du pilote qede.
Tableau 3-2. Paramètres facultatifs du pilote qede
Paramètre
Description
debug
Contrôle le niveau de verbosité du pilote de manière similaire à ethtool
-s <dev> msglvl.
int_mode
Contrôle le mode d'interruption autre que MSI-X.
gro_enable
Active ou désactive la fonctionnalité de déchargement de réception
générique (GRO) du matériel. Cette fonctionnalité est similaire à la
fonction GRO logicielle du noyau, mais elle est réalisée par le matériel du
périphérique.
err_flags_override
Un bitmap pour désactiver ou forcer les actions effectuées en cas d'erreur
matérielle :
 bit 31 - bit d'activation de ce masque de bits
 bit 0 - empêcher le rétablissement des attentions matérielles
 bit 1 - recueillir les données de débogage
 bit 2 - déclencher un processus de récupération
 bit 3 - appeler WARN pour obtenir une trace d'appel du flux qui a
conduit à l'erreur
16
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Linux
Paramètres de fonctionnement par défaut des pilotes Linux
Le Tableau 3-3 répertorie les paramètres de fonctionnement par défaut des
pilotes Linux qed et qede.
Tableau 3-3. Paramètres de fonctionnement par défaut des pilotes Linux
Paramètre par défaut du
pilote qed
Paramètre par défaut du
pilote qede
Speed
Négociation automatique avec
annonce de la vitesse
Négociation automatique avec
annonce de la vitesse
MSI/MSI-X
Activé
Activé
Fonctionnement
Flow Control
—
Autonégociation avec RX et TX
annoncés
MTU
—
1500 (gamme de 46 à 9 600)
Rx Ring Size
—
1000
Tx Ring Size
—
4078 (plage : 128 à 8191)
Coalesce Rx Microseconds
—
24 (gamme de 0 à 255)
Coalesce Tx Microseconds
—
48
TSO
—
Activé
Messages des pilotes Linux
Saisissez les commandes suivantes pour définir le niveau de détail des messages
de pilote Linux :

ethtool -s <interface> msglvl <value>

modprobe qede debug=<value>
où <valeur> représente les bits 0 à 15, qui sont des valeurs réseau Linux
standard, alors que les bits 16 et supérieurs sont spécifiques aux pilotes.
Statistiques
Pour afficher les statistiques détaillées et les informations de configuration,
utilisez l'utilitaire ethtool. Reportez-vous à la page principale de ethtool pour de
plus amples informations.
17
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Windows
Installation du logiciel pilote pour Windows

Installation des pilotes Windows

Suppression des pilotes Windows

Gestion des propriétés de l'adaptateur

Définition des options de gestion de l'alimentation
Installation des pilotes Windows
Installez le logiciel pilote Windows à l'aide du progiciel de mise à jour Dell (Dell
Update Package – DUP) :

Exécution du DUP dans l'IUG

Options d'installation de DUP

Exemples d'installation de DUP
Exécution du DUP dans l'IUG
Pour exécuter le DUP dans l'interface graphique :
1.
Double-cliquez sur l'icône représentant le fichier du DUP.
REMARQUE
Le nom de fichier réel du DUP varie.
2.
Dans la fenêtre Dell Update Package (Figure 3-1), cliquez sur Installer
Figure 3-1. Fenêtre Dell Update Package
18
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Windows
3.
Dans la fenêtre de bienvenue de l'Assistant QLogic Super
Installer—InstallShield® (Figure 3-2), cliquez sur Next (Suivant).
Figure 3-2. Assistant QLogic InstallShield : Fenêtre de bienvenue
4.
Procédez ainsi dans la fenêtre de contrat de licence de l'Assistant
(Figure 3-3) :
a.
Lisez le contrat de licence du logiciel de l'utilisateur final QLogic.
b.
Pour continuer, sélectionnez I accept the terms in the license
agreement (J'accepte les conditions du contrat de licence).
19
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Windows
c.
Cliquez sur Next.
Figure 3-3. Assistant QLogic InstallShield : Fenêtre de contrat de licence
5.
Remplissez la fenêtre de type d'installation de l'Assistant (Figure 3-4)
comme suit :
a.
b.
Sélectionnez l'un des types d'installation suivants :

Cliquez sur Complete pour installer toutes les fonctions du
programme.

Cliquez sur Custom (Personnalisée) pour sélectionner les
fonctions à installer.
Pour continuer, cliquez sur Next.
20
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Windows
Si vous avez choisi Complete, passez directement à l'étape 6b.
Figure 3-4. Assistant InstallShield : Fenêtre de type d'installation
6.
Si vous avez sélectionné Custom à l'étape 5, remplissez la fenêtre
d'installation personnalisée (Figure 3-5) comme suit :
a.
Sélectionnez les fonctions à installer. Par défaut, toutes les fonctions
sont sélectionnées. Pour modifier le paramètre d'installation d'une
fonction, cliquez sur l'icône en regard de cette fonction et sélectionnez
l'une des options suivantes :

This feature will be installed on the local hard drive (Cette
fonctionnalité sera installée sur le disque dur local) : marque la
fonction pour installation, sans affecter ses sous-fonctions.

This feature, and all subfeatures, will be installed on the
local hard drive (Cette fonctionnalité et toutes ses
sous-fonctionnalités seront installées sur le disque dur local) :
marque la fonction et toutes ses sous-fonctions pour installation

This feature will not be available (Cette fonctionnalité ne sera
pas disponible) : empêche l'installation de la fonction.
21
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Windows
b.
Cliquez sur Next pour continuer.
Figure 3-5. Assistant InstallShield : Fenêtre d'installation personnalisée
7.
Dans la fenêtre Prêt à installer de l'Assistant InstallShield (Figure 3-6),
cliquez sur Install (Installer). L'Assistant InstallShield installe les pilotes et le
programme d'installation du logiciel de gestion de l'adaptateur QLogic.
Figure 3-6. Assistant InstallShield : Fenêtre Prêt à installer le programme
22
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Windows
8.
Une fois l'installation terminée, la fenêtre Assistant InstallShield terminé
apparaît (Figure 3-7). Cliquez sur Finish (Terminer) pour fermer le
programme d'installation.
Figure 3-7. Assistant InstallShield : Fenêtre Terminé
9.
Dans la fenêtre DUP (Figure 3-8), le message « Update installer operation
was successful » (« L'opération d'installation de la mise à jour a réussi »)
indique que l'installation est terminée.

(Facultatif) Pour ouvrir le fichier journal, cliquez sur Afficher le journal
d'installation. Le fichier journal affiche la progression de l'installation
du DUP, les versions précédentes installées, les messages d'erreur et
d'autres informations au sujet de l'installation.

Pour fermer la fenêtre Dell Update Package, cliquez sur CLOSE.
23
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Windows
Figure 3-8. Fenêtre Dell Update Package
Options d'installation de DUP
Pour personnaliser le comportement d'installation de DUP, utilisez les options de
ligne de commande suivantes.

Pour extraire uniquement les composants du pilote sur un répertoire :
/drivers=<chemin>
REMARQUE
Cette commande exige l'option /s.

Pour installer ou mettre à jour uniquement les composants du pilote :
/driveronly
REMARQUE
Cette commande exige l'option /s.

(Avancé) Utilisez l'option /passthrough pour envoyer tout le texte suivant
/passthrough directement au logiciel d'installation QLogic du DUP. Ce
mode supprime toutes les interfaces GUI fournies, mais pas nécessairement
celles du logiciel QLogic.
/passthrough

(Avancé) Pour retourner une description codée des fonctionnalités prises en
charge par ce DUP :
/capabilities
24
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Windows
REMARQUE
Cette commande exige l'option /s.
Exemples d'installation de DUP
Les exemples suivants montrent comment utiliser les options d'installation.
Pour mettre à jour le système automatiquement :
<DUP_file_name>.exe /s
Pour extraire le contenu de la mise à jour dans le répertoire C:\mydir\ :
<DUP_file_name>.exe /s /e=C:\mydir
Pour extraire les composants de pilote dans le répertoire C:\mydir\ :
<DUP_file_name>.exe /s /drivers=C:\mydir
Pour installer uniquement les composants du pilote :
<DUP_file_name>.exe /s /driveronly
Pour modifier l'emplacement du journal par défaut à C:\mon chemin
d'accès avec espaces\log.txt:
<DUP_file_name>.exe /l="C:\my path with spaces\log.txt"
Suppression des pilotes Windows
Pour supprimer les pilotes Windows :
1.
Dans le panneau de configuration, cliquez sur Programmes, puis sur
Programmes et fonctionnalités.
2.
Dans la liste des programmes, sélectionnez QLogic FastLinQ Driver
Installer, puis cliquez sur Désinstaller.
3.
Suivez les instructions pour supprimer les pilotes.
Gestion des propriétés de l'adaptateur
Pour afficher ou modifier les propriétés de l'adaptateur QL45212 :
1.
Dans le panneau de configuration, cliquez sur le Gestionnaire de
périphériques.
2.
Sur les propriétés de l'adaptateur sélectionné, cliquez sur l'onglet Avancé.
3.
Sur la page Avancé (Figure 3-9), sélectionnez un élément sous Propriété,
puis modifiez sa valeur au besoin.
25
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour Windows
Figure 3-9. Configuration des propriétés d'adaptateur avancées
26
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour VMware
Définition des options de gestion de l'alimentation
Vous pouvez définir les options de gestion de l'alimentation de façon à ce que le
système d'exploitation désactive le contrôleur pour économiser de l'énergie ou de
façon à permettre au contrôleur de « réveiller » le système. Si le périphérique est
occupé (à gérer un appel par exemple), le système d'exploitation ne l'arrête pas.
Le système d'exploitation tente de désactiver tous les périphériques uniquement
lorsque l'ordinateur se met en veille. Pour que le contrôleur reste constamment
actif, ne cochez pas la case Allow the computer to turn off the device to save
power (Autoriser l'ordinateur à éteindre ce périphérique pour économiser
l'énergie) (Figure 3-10).
Figure 3-10. Options de gestion de l'alimentation
REMARQUE
 La page de Gestion de l'alimentation ne s'applique qu'aux serveurs
prenant en charge la gestion de l'alimentation.
 Ne cochez pas la case Allow the computer to turn off the device to
save power (Autoriser l'ordinateur à éteindre ce périphérique pour
économiser l'énergie) s'il s'agit d'un adaptateur faisant partie d'une
association.
Installation du logiciel pilote pour VMware
Cette section décrit le pilote VMware ESXi qedentv pour les adaptateurs
QL45212.

Pilotes et paquets de pilotes VMware
27
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour VMware

Installation des pilotes VMware

Paramètres facultatifs des pilotes VMware

Paramètres par défaut des pilotes VMware

Suppression du pilote VMware
Pilotes et paquets de pilotes VMware
Le Tableau 3-4 énumère les pilotes VMware ESXi pour les protocoles.
Tableau 3-4. Pilotes VMware
Pilotes VMware
a
Description
qedentv
Pilote de réseau natif
qedrntv
Pilote de déchargement RDMA (RoCE et RoCEv2)
natif a
qedf
Pilote de déchargement FCoE natif
qedil
Pilote de déchargement iSCSI hérité
Le pilote RoCE certifié n'est pas inclus dans cette version. Le pilote non certifié peut être
disponible dans le cadre d'un aperçu anticipé.
Les pilotes ESXi sont inclus sous forme de jeux de pilotes individuels et ne sont
pas regroupés, sauf indication particulière. Le Tableau 3-5 énumère les versions
ESXi et les versions de pilote applicables.
28
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour VMware
Tableau 3-5. Paquets de pilotes ESXi par version
Version ESXi a
ESXi 6.5 b
ESXi 6.0u3
Protocole
Nom du pilote
Version du
pilote
NIC
qedentv
3.0.7.5
FCoE
qedf
1.2.24.0
iSCSI
qedil
1.0.19.0
RoCE
qedrntv
3.0.7.5.1
NIC
qedentv
2.0.7.5
FCoE
qedf
1.2.24.0
iSCSI
qedil
1.0.19.0
a
Des pilotes ESXi supplémentaires pourraient être disponibles après la publication de
ce guide d’utilisation. Pour plus d'informations, reportez-vous aux Notes de mise à jour.
b
Pour ESXi 6.5, les pilotes NIC et RoCE ont été réunis et peuvent être installés sous
forme de lot unique hors ligne en utilisant les commandes d'installation standard ESXi.
Le nom de paquet est qedentv_3.0.7.5_qedrntv_3.0.7.5.1_signed_drivers.zip. La
séquence d'installation recommandée commence par les pilotes NIC et RoCE, suivis
pas les pilotes FCoE et iSCSI.
Installez les pilotes individuels par l'une des méthodes suivantes :

Commandes d'installation de paquet ESXi standard (voir Installation des
pilotes VMware)

Procédures incluses dans les fichiers Lisez-moi de pilotes individuels

Procédures incluses dans l'article suivant de la base de connaissances
VMware :
https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&
cmd=displayKC&externalId=2137853
Vous devez d'abord installer le pilote de carte réseau, puis les pilotes de stockage.
Installation des pilotes VMware
Vous pouvez utiliser le fichier ZIP de pilotes pour installer un nouveau pilote ou
mettre à jour un pilote existant. Veillez à installer l'ensemble des pilotes à partir du
même fichier ZIP de pilotes. Le mélange de pilotes issus de plusieurs fichiers ZIP
peut générer des problèmes.
29
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour VMware
Pour installer le pilote VMware :
1.
Téléchargez le pilote VMware l'adaptateur QL45212 à partir de la page de
support VMware :
www.vmware.com/support.html
2.
Allumez l'hôte ESX et connectez-vous à un compte doté du rôle
Administrateur.
3.
Décompressez le fichier ZIP de pilotes, puis extrayez le fichier .vib.
4.
Utilisez l'utilitaire Linux scp pour copier un fichier .vib du système local vers
le répertoire /tmp du serveur ESX portant l'adresse IP 10.10.10.10. Par
exemple, entrez la commande suivante :
#scp qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib [email protected]:/tmp
Vous pouvez placer le fichier dans n'importe quel dossier accessible par le
shell de console ESX.
REMARQUE
Si vous n'avez pas de machine Linux, vous pouvez utiliser
l'explorateur de fichiers du datastore vSphere pour télécharger les
fichiers sur le serveur.
5.
Mettez l'hôte en mode de maintenance en saisissant la commande suivante :
#esxcli --maintenance-mode
6.
Sélectionnez l'une des options d'installation suivantes :

Option 1 : Installez le fichier .vib directement sur un serveur ESX à
l'aide de l'interface CLI ou duGestionnaire de mises à jour VMware
(VUM, VMware Update Manager).

Pour installer le fichier .vib avec l'interface CLI, entrez la
commande suivante. Veillez à indiquer le chemin complet du
fichier .vib.
# esxcli software vib install -v
/tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib

Pour installer le fichier .vib à l'aide du VUM, consultez l'article
de la base de connaissances suivant :
Mise à jour d'un hôte ESXi/ESX à l'aide de VMware vCenter
Update Manager 4.x et 5.x (1019545)
30
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour VMware

Option 2 : Installez tous les fichiers VIB individuels en même temps en
saisissant la commande suivante :
# esxcli software vib install –d
/tmp/qedentv-bundle-2.0.3.zip
Pour mettre à niveau un pilote existant :
Suivez les étapes correspondant à une nouvelle installation, en remplaçant la
commande de l'option 1 précédente par celle-ci :
#esxcli software vib update -v
/tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib
Paramètres facultatifs des pilotes VMware
Le Tableau 3-6 décrit les paramètres facultatifs que vous pouvez utiliser comme
arguments de ligne de commande pour la commande esxcfg-module.
Tableau 3-6. Paramètres facultatifs des pilotes VMware
Paramètre
Description
hw_vlan
Permet d'activer (1) ou de désactiver (0) globalement l'insertion et la
suppression de VLAN matériel. Désactivez ce paramètre lorsque la couche
supérieure a besoin d'envoyer ou de recevoir des paquets entièrement
formés. hw_vlan=1 est la valeur par défaut.
num_queues
Spécifie le nombre de paires de files d'attente d'émission/réception (TX/RX).
num_queues peut être égal à 1–11 ou à l'une des valeurs suivantes :
 -1 autorise le pilote à déterminer le nombre optimal de paires de files
d'attente (valeur par défaut).
 0 utilise la file d'attente par défaut.
Vous pouvez spécifier plusieurs valeurs séparées par une virgule pour les
configurations multiports ou multifonctions.
multi_rx_filters
Spécifie le nombre de filtres RX par file d'attente RX, à l'exclusion de la file
d'attente par défaut. multi_rx_filters peut être égal à 1-4 ou à l'une
des valeurs suivantes :
 –1 utilise le nombre par défaut de filtres RX par file d'attente.
 0 désactive les filtres RX.
disable_tpa
Active (0) ou désactive (1) la fonction TPA (LRO). disable_tpa=0 est la
valeur par défaut.
max_vfs
Spécifie le nombre de fonctions virtuelles (VF) par fonction physique (PF).
max_vfs peut être égal à 0 (désactivé) ou à 64 VF sur un seul port (activé).
La prise en charge maximale de 64 VF pour ESXi est une contrainte
d'allocation de ressources du SE.
31
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour VMware
Tableau 3-6. Paramètres facultatifs des pilotes VMware (Suite)
Paramètre
RSS
Description
Spécifie le nombre de files d'attente de mise à l'échelle en réception utilisées
par l'hôte ou par le trafic en tunnel de LAN virtuel extensible (VXLAN) pour
une fonction physique (PF). RSS peut être égal à 2, 3 ou 4, ou à l'une des
valeurs suivantes :
 –1 utilise le nombre de files d'attente par défaut.
 0 ou 1 désactive les files d'attente RSS.
Vous pouvez spécifier plusieurs valeurs séparées par une virgule pour les
configurations multiports ou multifonctions.
debug
Spécifie le niveau de données que le pilote doit enregistrer dans le fichier
journal vmkernel. debug peut avoir les valeurs suivantes, par ordre
croissant de quantité de données :
 0x80000000 indique le niveau Avis.
 0x40000000 indique le niveau Information (inclut le niveau Avis)
 0x3FFFFFFF indique le niveau Détaillé pour tous les sous-modules de
pilote (inclut les niveaux Information et Avis)
auto_fw_reset
Active (1) ou désactive (0) la fonction de récupération automatique du
micrologiciel du pilote. Lorsque ce paramètre est activé, le pilote tente de
récupérer son fonctionnement normal après des événements tels que
l'écoulement du délai d'émission, les assertions de micrologiciel et les
erreurs de parité de l'adaptateur. La valeur par défaut est
auto_fw_reset=1.
vxlan_filter_en
Active (1) ou désactive (0) le filtrage VXLAN sur la base de
l'adresse MAC externe, de l'adresse MAC interne et du
réseau VXLAN (VNI), pour faire correspondre directement le trafic à une file
d'attente spécifique. La valeur par défaut est vxlan_filter_en=1. Vous
pouvez spécifier plusieurs valeurs séparées par une virgule pour les
configurations multiports ou multifonctions.
enable_vxlan_offld
Active (1) ou désactive (0) la fonction de déchargement de la somme de
contrôle de trafic en tunnel VXLAN et de déchargement de la
segmentation TCP (TSO). La valeur par défaut est
enable_vxlan_offld=1. Vous pouvez spécifier plusieurs valeurs
séparées par une virgule pour les configurations multiports ou
multifonctions.
32
BC0154503-02 F
3–Installation des pilotes
Installation du logiciel pilote pour VMware
Paramètres par défaut des pilotes VMware
Le Tableau 3-7 énumère les valeurs par défaut des paramètres des
pilotes VMware.
Tableau 3-7. Paramètres par défaut des pilotes VMware
Paramètre
Par défaut
Speed
Négociation automatique avec annonce de toutes les
vitesses. Le paramètre de vitesse doit être identique
sur tous les ports. Si la négociation automatique
est activée sur le périphérique, tous les ports du
périphérique l'utiliseront.
Flow Control
Négociation automatique avec annonce RX et TX
MTU
1,500 (plage : 46–9,600)
Rx Ring Size
8,192 (plage 128–8,192)
Tx Ring Size
8,192 (plage 128–8,192)
MSI-X
Enabled
Transmit Send Offload
(TSO)
Enabled
Large Receive Offload
(LRO)
Enabled
RSS
Enabled (4 files d'attente RX)
HW VLAN
Enabled
Number of Queues
Enabled (8 paires de files d'attente RX/TX)
Wake on LAN (WoL)
Disabled
Suppression du pilote VMware
Pour supprimer le fichier .vib (qedentv), entrez la commande suivante :
# esxcli software vib remove --vibname qedentv
Pour supprimer le pilote, entrez la commande suivante :
# vmkload_mod -u qedentv
33
BC0154503-02 F
4
Mise à niveau du
micrologiciel
Ce chapitre fournit des informations sur la mise à niveau du micrologiciel à l'aide
du progiciel de mise à jour Dell (DUP).
Le DUP du micrologiciel est un utilitaire de mise à jour Flash uniquement. Il ne
sert pas à la configuration de l'adaptateur. Pour exécuter le DUP du micrologiciel,
double-cliquez sur le fichier exécutable. Ou alors, vous pouvez exécuter le DUP
du micrologiciel à partir de la ligne de commande, avec plusieurs options de ligne
de commande prises en charge.

Exécution du DUP en double-cliquant

« Exécution du DUP depuis une ligne de commande » à la page 38

« Exécution du DUP à l'aide du fichier .bin » à la page 39 (Linux
uniquement)
Exécution du DUP en double-cliquant
Pour exécuter le DUP du micrologiciel en double-cliquant sur le fichier
exécutable :
1.
Double-cliquez sur l'icône représentant le fichier du progiciel de mise à jour
Dell du micrologiciel.
34
BC0154503-02 F
4–Mise à niveau du micrologiciel
Exécution du DUP en double-cliquant
L'écran de démarrage du progiciel de mise à jour Dell apparaît, comme
illustré à la Figure 4-1. Cliquez sur Install (Installer) pour continuer.
Figure 4-1. Progiciel de mise à jour Dell : Écran de démarrage
35
BC0154503-02 F
4–Mise à niveau du micrologiciel
Exécution du DUP en double-cliquant
2.
Suivez les instructions à l'écran. Dans la boîte de dialogue d'avertissement,
cliquez sur Yes (Oui) pour continuer l'installation, comme l'illustre la
Figure 4-2.
Figure 4-2. Progiciel de mise à jour Dell : Continuer la mise à jour
36
BC0154503-02 F
4–Mise à niveau du micrologiciel
Exécution du DUP en double-cliquant
Le programme d'installation indique qu'il est en train de charger le nouveau
micrologiciel, tel qu'illustré à la Figure 4-3.
Figure 4-3. Progiciel de mise à jour Dell : Chargement du nouveau micrologiciel
Une fois le chargement terminé, le programme d'installation affiche le
résultat de l'installation, tel qu'illustré à la Figure 4-4.
Figure 4-4. Progiciel de mise à jour Dell : Résultats de l'installation
37
BC0154503-02 F
4–Mise à niveau du micrologiciel
Exécution du DUP depuis une ligne de commande
3.
Cliquez sur Yes (Oui) pour redémarrer le système.
4.
Cliquez sur Finish (Terminer) pour terminer l'installation, tel qu'illustré à la
Figure 4-5.
Figure 4-5. Progiciel de mise à jour Dell : Terminer l'installation
Exécution du DUP depuis une ligne de commande
L'exécution du DUP du micrologiciel à partir de la ligne de commande, sans
spécifier d'options, produit le même résultat qu'un double clic sur l'icône du DUP.
Notez que le nom de fichier actuel du DUP varie.
Pour exécuter le DUP du micrologiciel depuis une ligne de commande :

Entrez la commande suivante :
C:\> Network_Firmware_2T12N_WN32_<version>_X16.EXE
38
BC0154503-02 F
4–Mise à niveau du micrologiciel
Exécution du DUP à l'aide du fichier .bin
La Figure 4-6 indique les options qui peuvent être utilisées pour personnaliser
l'installation du progiciel de mise à jour Dell.
Figure 4-6. Options de ligne de commande du DUP
Exécution du DUP à l'aide du fichier .bin
La procédure suivante est prise en charge uniquement sur le système
d'exploitation Linux.
Pour exécuter le DUP à l'aide du fichier .bin :
1.
Copiez le fichier Network_Firmware_NJCX1_LN_X.Y.Z.BIN sur le
système à tester (System Under Test – SUT).
2.
Modifiez le type de fichier en fichier exécutable, comme suit :
chmod 777 Network_Firmware_NJCX1_LN_X.Y.Z.BIN
3.
Pour démarrer le processus de mise à jour, entrez la commande suivante :
./Network_Firmware_NJCX1_LN_X.Y.Z.BIN
4.
Une fois le micrologiciel mis à jour, redémarrez le système.
39
BC0154503-02 F
4–Mise à niveau du micrologiciel
Exécution du DUP à l'aide du fichier .bin
Exemple de sortie du SUT pendant la mise à jour du DUP :
./Network_Firmware_NJCX1_LN_08.07.26.BIN
Collecting inventory...
Running validation...
BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
The version of this Update Package is the same as the currently installed
version.
Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
Package version: 08.07.26
Installed version: 08.07.26
BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
The version of this Update Package is the same as the currently installed
version.
Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
Package version: 08.07.26
Installed version: 08.07.26
Continue? Y/N:Y
Y entered; update was forced by user
Executing update...
WARNING: DO NOT STOP THIS PROCESS OR INSTALL OTHER DELL PRODUCTS WHILE UPDATE
IS IN PROGRESS.
THESE ACTIONS MAY CAUSE YOUR SYSTEM TO BECOME UNSTABLE!
...........................................................................
Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
Update success.
Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
Update success.
Would you like to reboot your system now?
Continue? Y/N:Y
40
BC0154503-02 F
5
Configuration de
prédémarrage de l'adaptateur
Au cours du processus d'amorçage hôte, vous pouvez choisir de cliquer sur
Pause et d'effectuer des tâches de gestion de l'adaptateur à l'aide de l'application
Human Infrastructure Interface (HII). Il s'agit des tâches suivantes :

« Mise en route » à la page 42

« Affichage des propriétés d'image du micrologiciel » à la page 45

« Configuration des paramètres au niveau du périphérique » à la page 46

« Configuration des paramètres NIC » à la page 47

« Configuration de Data Center Bridging » à la page 50

« Configuration des partitions » à la page 52
REMARQUE
Les captures d'écran HII de ce chapitre sont seulement des exemples et ne
sont pas forcément identiques aux écrans affichés sur votre système.
41
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Mise en route
Mise en route
Pour démarrer l'application HII :
1.
Ouvrez la fenêtre de configuration du système (System Setup) de votre
plateforme. Pour plus d'informations sur le lancement de la configuration du
système, consultez le manuel d'utilisation de votre système.
2.
Dans la fenêtre de configuration du système (Figure 5-1), sélectionnez
Device Settings (Paramètres de périphérique), puis appuyez sur ENTRÉE.
Figure 5-1. Configuration du système
3.
Dans la fenêtre Paramètres de périphérique (Figure 5-2), sélectionnez le
port de l'adaptateur QL45212 que vous souhaitez configurer, puis appuyez
sur ENTRÉE.
Figure 5-2. Configuration du système : Paramètres des périphériques
42
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Mise en route
La page de configuration principale (Figure 5-3) présente les options de
gestion de l'adaptateur où vous pouvez définir le mode de partitionnement.
Figure 5-3. Page de configuration principale
4.
Sous Device Level Configuration (Configuration au niveau du
périphérique), définissez le Partitioning Mode (Mode de partitionnement)
en NPAR pour ajouter l'option NIC Partitioning Configuration
(Configuration des partitions NIC) à la page Configuration principale, comme
indiqué à la Figure 5-4.
REMARQUE
NPAR n'est pas disponible sur des ports avec une vitesse maximale
de 1G.
Figure 5-4. Page Configuration principale, configuration du mode de
partitionnement en NPAR
43
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Mise en route
Figure 5-5. Page Configuration principale, configuration du mode de
partitionnement NPAR
Dans la Figure 5-3 et la Figure 5-4, la page Configuration principale affiche les
paramètres suivants :

Firmware Image Properties (Propriétés d'image du micrologiciel) (voir
« Affichage des propriétés d'image du micrologiciel » à la page 45)

Device Level Configuration (Configuration au niveau du périphérique) (voir
« Configuration des paramètres au niveau du périphérique » à la page 46)

NIC Configuration (Configuration NIC) (voir « Configuration des
paramètres NIC » à la page 47)

Paramètres Data Center Bridging (DCB) (voir « Configuration de Data
Center Bridging » à la page 50)

NIC Partitioning Configuration (Configuration des partitions NIC) (si
NPAR est sélectionné sur la page Configuration au niveau du périphérique)
(voir « Configuration des partitions » à la page 52)
En outre, la page Configuration principale présente les propriétés d'adaptateur
détaillées dans le Tableau 5-1.
Tableau 5-1. Propriétés de l'adaptateur
Propriété d'adaptateur
Description
Nom de périphérique
Nom attribué en usine au périphérique
Type de puce
Version ASIC
ID de périphérique PCI
ID de périphérique PCI unique, propre au fournisseur
44
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Affichage des propriétés d'image du micrologiciel
Tableau 5-1. Propriétés de l'adaptateur (Suite)
Propriété d'adaptateur
Description
Adresse PCI
Adresse de périphérique PCI au format « bus-fonction de
périphérique »
Clignotement des LED
Nombre de clignotements définis par l'utilisateur pour le
voyant LED du port
État de la liaison
État de la liaison externe
Adresse MAC
Adresse MAC permanente du périphérique, attribuée par
le fabricant
Adresse MAC virtuelle
Adresse MAC du périphérique attribuée par l'utilisateur
Affichage des propriétés d'image du
micrologiciel
Pour afficher les propriétés de l'image du micrologiciel, sélectionnez Firmware
Image Properties (Propriétés de l'image du micrologiciel) sur la page de
configuration principale, puis appuyez sur ENTRÉE. La page Propriétés de
l'image du micrologiciel (Figure 5-6) spécifie les données en lecture seule
suivantes :

Family Firmware Version (Version de famille de micrologiciel) est la
version d'image de démarrage multiple, qui contient plusieurs images de
composants de micrologiciel.

MBI Version (Version MBI) est la version de l'image du groupe Cavium
QLogic active sur l'appareil.

Controller BIOS Version (Version de BIOS du contrôleur) est la version du
micrologiciel de gestion.

EFI Driver Version (Version de pilote EFI) est la version du pilote de
l'interface EFI.
45
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Configuration des paramètres au niveau du périphérique

L2B Firmware Version (Version de micrologiciel L2B) est la version du
micrologiciel de déchargement NIC pour le démarrage.
Figure 5-6. Propriétés de l'image du micrologiciel
Configuration des paramètres au niveau du
périphérique
La configuration au niveau périphérique comprend l'activation de Single Root-I/O
Virtualization (SR-IOV) et du partitionnement NIC, et l'activation ou la
désactivation de NPAReP. Pour exécuter la configuration au niveau périphérique,
sélectionnez Configuration au niveau du périphérique sur la page de
configuration principale, puis cliquez sur Terminer. La Figure 5-7 affiche la page
Configuration au niveau du périphérique :
Figure 5-7. Configuration du système : Page Configuration au niveau
du périphérique
46
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Configuration des paramètres NIC
Pour activer le partitionnement de carte réseau (NPAR), la virtualisation des
entrées/sorties en racine unique (SR-IOV) ou les deux :
1.
Sur la page de configuration principale (Figure 5-3 à la page 43),
sélectionnez Device Level Configuration (Configuration au niveau du
périphérique), puis cliquez sur Finish (Terminer).
2.
Sur la page Configuration au niveau du périphérique (Figure 5-7), cliquez
sur la liste déroulante Virtualization Mode (Mode de virtualisation), puis
sélectionnez l'une des options suivantes :
3.

NPAR active NPAR.

SRIOV active SR-IOV (virtualisation non partitionnée).

NPAR+SRIOV active NPAR avec SR-IOV.

None (Aucune) désactive toutes les virtualisations.
Si vous activez NPAR (avec ou sans SRIOV) et si le système est
compatible ARI (ARI, Alternate Routing ID Interpretation), choisissez
d'activer ou de désactiver le NPAReP mode (mode NPAReP) :

Cliquez sur Disabled (Désactivé) pour spécifier quatre partitions par
port (soit 8 PF au total par adaptateur), où chaque PF prend en charge
16 VF SR-IOV par PF.

Cliquez sur Enabled (Activé) pour spécifier huit partitions par port (soit
16 PF au total par adaptateur), où :

16 VF SR-IOV sont sur les 8 premiers PF (PF 0 à 7, qui sont les
4 premiers PF de chaque port).

8 VF SR-IOV sont sur les 8 seconds PF (PF 8 à -15, qui sont les
4 derniers PF de chaque port).

Les VF SR-IOV sont actuellement affectées à leurs PF respectifs.
4.
Cliquez sur Back (Précédent).
5.
À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces
modifications prennent effet après réinitialisation du système.
Configuration des paramètres NIC
La configuration NIC inclut la définition des paramètres suivants :






Link Speed (Vitesse de liaison)
NIC + RDMA Mode (Mode NIC + RDMA)
Boot Mode (Mode d'amorçage)
FEC Mode (Mode FEC)
PXE Virtual LAN Mode (Mode LAN virtuel PXE)
Virtual LAN ID (ID de LAN virtuel)
47
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Configuration des paramètres NIC
Pour configurer les paramètres NIC :
1.
Sur la page de configuration principale, sélectionnez NIC Configuration
(Configuration NIC) (Figure 5-3 à la page 43), puis cliquez sur Finish
(Terminer).
La Figure 5-8 affiche la page Configuration NIC.
Figure 5-8. Configuration NIC
2.
Sélectionnez l'une des options Link Speed (Vitesse de liaison) suivantes :
l'option de vitesse de liaison que vous choisissez s'applique aux deux ports
de l'adaptateur. La vitesse de liaison et la correction d'erreur de
transfert (FEC) doivent correspondre à celles du commutateur ou port de
périphérique connecté.

Auto Negotiated (Négocié automatiquement) permet la négociation
automatique des paramètres de liaison avec le commutateur ou
périphérique connecté (valeur par défaut). FEC est automatiquement
activé. Les deux extrémités doivent être en mode de négociation
automatique.

10 Gbps (10 Gbits/s) spécifie que la liaison de port doit avoir une
vitesse de 10 Gbits/s. FEC n'est pas pris en charge.

25 Gbps (25 Gbits/s) spécifie que la liaison de port doit avoir une
vitesse de 25 Gbits/s.
3.
Pour NIC + RDMA Mode (Mode NIC + RDMA), sélectionnez soit Enabled
(Activé) ou Disabled (Désactivé) pour RDMA sur le port. Ce paramètre
s'applique à toutes les partitions du port, en mode NPAR.
4.
FEC Mode (Mode FEC) est visible lorsque le mode de vitesse 25 Gbps
(25 Gbits/s) fixe est sélectionné comme la Link Speed (Vitesse de liaison) à
l'étape 2. Pour FEC Mode (Mode FEC), sélectionnez l'une des options
suivantes : Toutes les modes FEC ne sont pas disponibles sur toutes les
cartes.

Disabled (Désactivé) indique que FEC n'est pas activé.
48
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Configuration des paramètres NIC

5.
6.
Fire Code indique que le lien est configuré pour utiliser Fire Code
FEC ; la sous-couche FEC fonctionne de manière similaire à la clause
FEC 74.
Pour Boot Mode (Mode d'amorçage), sélectionnez l'une des options
suivantes :

PXE active le démarrage PXE.

Disabled (Désactivé) empêche ce port d'être utilisé en tant que source
de démarrage à distance.
Le paramètre Virtual LAN Mode (Mode LAN virtuel) s'applique à l'ensemble
du port en mode d'installation à distance PXE. Il n'est pas persistant après la
fin d'une installation à distance PXE. Choisissez parmi les options VLAN
suivantes :

Enabled (Activé) active le mode VLAN sur ce port pour le mode
d'installation à distance PXE.

Disabled (Désactivé) désactive le mode VLAN sur ce port.
7.
Le paramètre Virtual LAN ID (ID de LAN virtuel) spécifie l'ID de balise VLAN
à utiliser sur ce port pour le mode d'installation à distance PXE. Ce
paramètre s'applique uniquement lorsque Virtual LAN Mode (Mode LAN
virtuel) est activé à l'étape précédente.
8.
Cliquez sur Back (Précédent).
9.
À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces
modifications prennent effet après la réinitialisation du système.
Pour configurer le port afin d'utiliser RDMA :
REMARQUE
Suivez ces étapes pour activer RDMA sur toutes les partitions d'un port en
mode NPAR.
1.
Définissez NIC + RDMA Mode (Mode NIC + RDMA) sur Enabled (Activé).
2.
Cliquez sur Back (Précédent).
3.
À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces
modifications prennent effet après la réinitialisation du système.
Pour configurer le mode de démarrage du port :
1.
Pour une installation à distance UEFI PXE, sélectionnez PXE comme Boot
Mode (Mode de démarrage).
2.
Cliquez sur Back (Précédent).
49
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Configuration de Data Center Bridging
3.
À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces
modifications prennent effet après la réinitialisation du système.
Pour configurer l'installation à distance PXE du port pour utiliser un VLAN :
REMARQUE
Ce VLAN n'est pas persistant après la fin d'une installation à distance PXE.
1.
Définissez Virtual LAN Mode (Mode LAN virtuel) sur Enabled (Activé).
2.
Dans la zone Virtual LAN ID (ID de LAN virtuel), entrez le numéro à utiliser.
3.
Cliquez sur Back (Précédent).
4.
À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces
modifications prennent effet après la réinitialisation du système.
Configuration de Data Center Bridging
Les réglages de Data Center Bridging (DCB) comprennent le protocole DCBX et
la priorité RoCE.
Pour configurer les paramètres DCB :
1.
Sur la page Configuration principale (Figure 5-3 à la page 43), sélectionnez
Data Center Bridging (DCB) Settings (Paramètres Data Center Bridging
(DCB)), puis cliquez sur Finish (Terminer).
2.
Dans la fenêtre Paramètres Data Center Bridging (DCB) (Figure 5-9),
sélectionnez l'option DCBX Protocol (Protocole DCBX).
3.

Disabled (Désactivé) désactive DCBX sur ce port.

CEE active le mode DCBX du protocole CEE (Converged Enhanced
Ethernet) sur ce port.

IEEE active le protocole IEEE DCBX sur ce port.

Dynamic (Dynamique) permet l'application dynamique du protocole
CEE ou IEEE pour correspondre au partenaire de liaison attaché.
Dans la page Paramètres Data Center Bridging (DCB), attribuez à la RoCE
v1 Priority (Priorité RoCE v1) une valeur de 0 à 7. Ce paramètre indique le
numéro de priorité de classe de trafic DCB utilisé pour le trafic RoCE et doit
correspondre au numéro utilisé par le réseau de commutation DCB pour le
trafic RoCE.

0 spécifie le numéro de priorité habituel utilisé par le paramètre par
défaut avec perte ou la classe de trafic commune.

3 spécifie le numéro de priorité utilisé par le trafic FCoE sans perte.
50
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Configuration de Data Center Bridging

4 spécifie le numéro de priorité utilisé par le trafic iSCSI-TLV over DCB
sans perte.

1, 2, 5, 6 et 7 spécifie les numéros de priorité de classe de trafic DCB
disponibles pour l'utilisation de RoCE. Suivez les instructions de
configuration RoCE respectives pour utiliser cette commande RoCE.
Figure 5-9. Configuration du système : Paramètres Data Center Bridging (DCB)
4.
Cliquez sur Back (Précédent).
5.
À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces
modifications prennent effet après la réinitialisation du système.
REMARQUE
Lorsque DCBX est activé, l'adaptateur envoie périodiquement des paquets
de protocole de découverte de couche de liaison (Link Layer Discovery
Protocol - LLDP) avec une adresse de monodiffusion dédiée qui sert
d'adresse MAC source. Cette adresse MAC LLDP est différente de l'adresse
MAC Ethernet de l'adaptateur, attribuée en usine. Si vous examinez le
tableau d'adresses MAC pour le port de commutateur qui est connecté à
l'adaptateur, vous pouvez voir deux adresses MAC : une pour les paquets
LLDP et une pour l'interface Ethernet de l'adaptateur.
51
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Configuration des partitions
Configuration des partitions
Vous pouvez configurer des plages de bande passante pour chaque partition sur
l'adaptateur.
Pour configurer l'allocation de bande passante maximale et minimale :
1.
Sur la page Configuration principale, sélectionnez NIC Partitioning
Configuration (Configuration des partitions NIC), et appuyez sur ENTRÉE.
2.
Sur la page Configuration des partitions (Figure 5-10), sélectionnez Global
Bandwidth Allocation (Allocation de la bande passante globale).
Figure 5-10. Configuration des partitions NIC, allocation de bande
passante globale
52
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Configuration des partitions
Figure 5-11 Présente l’allocation globale de bande passant pour la partition 1.
Figure 5-11. Allocation de bande passante globale, configuration de la partition 1
3.
Sur la page Allocation de la bande passante globale (Figure 5-12), cliquez
sur le champ de bande passante d'émission (TX) maximale et minimale
pour chaque partition, afin d'allouer de la bande passante. Il y a quatre
partitions par port si le mode NPAReP est désactivé et huit partitions par port
si le mode NPAReP est activé. Le mode NPAReP exige l'activation d'ARI
dans le BIOS pour ce logement PCI de l'adaptateur.
Figure 5-12. Page Allocation de bande passante globale : Mode NPAReP activé
53
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Configuration des partitions

Partition n Minimum TX Bandwidth (Bande passante TX minimale
de la partition n) indique la bande passante minimale d'émission (TX)
de la partition sélectionnée, exprimée en pourcentage de la vitesse de
liaison maximale du port physique. Plage admise : de 0 à 100. Lorsque
vous activez le mode ETS DCBX, la valeur de bande passante
minimale par classe de trafic ETS DCBX est utilisée simultanément
avec la valeur de bande passante TX minimale par partition. Le total
des valeurs de bande passante TX minimale de toutes les partitions
d'un seul port doit être égal à 100 ou à zéro.

Le réglage de la bande passante TX sur tous les zéros est similaire à
la répartition homogène de la bande passante disponible sur chaque
partition active ; cependant, la bande passante est allouée
dynamiquement sur toutes les partitions émettant activement. Une
valeur zéro (lorsqu'une ou plusieurs des autres valeurs sont définies
sur une valeur différente de zéro) attribue au moins 1 % à cette
partition lorsque l'encombrement (à partir de toutes les partitions)
restreint la bande passante TX.

Partition n Maximum TX Bandwidth (Bande passante TX minimale
de la partition n) indique la bande passante maximale d'émission (TX)
de la partition sélectionnée, exprimée en pourcentage de la vitesse de
liaison maximale du port physique. Plage de valeurs admise : de 1 à
100. La valeur de bande passante TX maximale par partition
s'applique quelle que soit la configuration du mode ETS DCBX.
Entrez une valeur dans chaque champ sélectionné, puis cliquez sur Back
(Précédent).
4.
À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces
modifications prennent effet après la réinitialisation du système.
Pour configurer les partitions :
1.
Pour examiner une configuration de partition spécifique, sur la page
Configuration des partitions NIC (Figure 5-10 à la page 52), sélectionnez
Partition n Configuration (Configuration de la partition n). Si NParEP n'est
pas activé, il n'y a que quatre partitions par port.
2.
Pour configurer la première partition, sélectionnez Partition 1 Configuration
(Configuration de la partition 1) pour ouvrir la page Configuration de la
partition 1 (Figure 5-13), qui montre les paramètres de la partition suivants :

NIC Mode (Mode NIC) (toujours activé)

PCI Device ID (ID de périphérique PCI)

PCI (bus) Address (Adresse (bus) PCI)

MAC Address (Adresse MAC)

Virtual MAC Address (Adresse MAC virtuelle)
54
BC0154503-02 F
5–Configuration de prédémarrage de l'adaptateur
Configuration des partitions
Figure 5-13. Configuration de la partition 1
3.
Pour configurer la deuxième partition, sélectionnez Partition 2
Configuration (Configuration de la partition 2) pour ouvrir la page
Configuration de la partition 2. Si Déchargement FCoE est présent, la page
Configuration de la partition 2 (Figure 5-14) montre les paramètres
suivants :

NIC Mode (Mode NIC) active ou désactive la personnalité de la carte
réseau Ethernet L2 sur les partitions 2 et supérieures. Pour désactiver
l'une des partitions restantes, définissez Mode NIC sur Désactivé.
Pour désactiver les partitions chargeables, désactivez le Mode NIC et
le mode de déchargement respectif.

PCI Device ID (ID de périphérique PCI)

PCI (bus) Address (Adresse (bus) PCI)

MAC Address (Adresse MAC)

Virtual MAC Address (Adresse MAC virtuelle)
Figure 5-14. Configuration de la partition 2
55
BC0154503-02 F
6
Configuration de RoCE
Ce chapitre décrit la configuration de RDMA over converged Ethernet (RoCE v1
et v2) sur l'adaptateur QL45212, le commutateur Ethernet, et l'hôte Windows ou
Linux, y compris :

Systèmes d'exploitation pris en charge et OFED

« Planification pour RoCE » à la page 57

« Préparation de l'adaptateur » à la page 58

« Préparation du commutateur Ethernet » à la page 58

« Configuration de RoCE sur l'adaptateur pour Windows Server » à la
page 60

« Configuration de RoCE sur l'adaptateur pour Linux » à la page 70

« Configuration de RoCE sur l'adaptateur pour VMware ESX » à la page 80
REMARQUE
Certaines fonctionnalités RoCE peuvent ne pas être entièrement activées
dans la version actuelle.
Systèmes d'exploitation pris en charge et OFED
Le Tableau 6-1 affiche la prise en charge de RoCE v1, RoCE v2 et OFED par les
systèmes d'exploitation :
Tableau 6-1. Prise en charge des SE pour RoCE v1, RoCE v2,
iWARP et OFED
Système d'exploitation
Préinstallé
OFED 3.18-3 GA
OFED-4.8-1 GA
Windows Server 2012 R2
Non
S/O
S/O
Windows Server 2016
Non
S/O
S/O
RoCE v1
RoCE v1
Non
RHEL 6.8
56
BC0154503-02 F
6–Configuration de RoCE
Planification pour RoCE
Tableau 6-1. Prise en charge des SE pour RoCE v1, RoCE v2,
iWARP et OFED (Suite)
Système d'exploitation
Préinstallé
OFED 3.18-3 GA
OFED-4.8-1 GA
RHEL 6.9
RoCE v1
Non
Non
RHEL 7.3
RoCE v1, RoCE v2, iSER
Non
RoCE v1, RoCE v2
RHEL 7.4
RoCE v1, RoCE v2, iSER
Non
Non
SLES 12 SP3
RoCE v1, RoCE v2, iSER
Non
Non
CentOS 7.3
RoCE v1, RoCE v2, iSER
Non
RoCE v1, RoCE v2
CentOS 7.4
RoCE v1, RoCE v2, iSER
Non
Non
Non
S/O
S/O
VMware ESXi 6.5, 6.5U1
RoCE v1, RoCE v2
S/O
S/O
VMware ESXi 6.7
RoCE v1, RoCE v2
S/O
S/O
VMware ESXi 6.0 u3
Planification pour RoCE
Lorsque vous vous préparez à implémenter RoCE, tenez compte des limitations
suivantes :

Si vous utilisez OFED préinstallé, le système d'exploitation doit être
identique sur les systèmes serveur et client. Certaines applications peuvent
fonctionner avec des systèmes d'exploitation différents, mais ce n'est pas
garanti. Il s'agit d'une limitation d'OFED.

Pour les applications OFED (généralement des applications de test des
performances (perftest)), les applications serveur et client doivent utiliser les
mêmes options et valeurs. Des problèmes peuvent surgir si le système
d'exploitation et l'application perftest utilisent des versions différentes. Pour
vérifier la version perftest, entrez la commande suivante :
# ib_send_bw --version

La construction de libqedr dans OFED préinstallé nécessite l'installation de
libibverbs-devel.

L'exécution des applications de l'espace utilisateur dans OFED préinstallé
nécessite l'installation du groupe de support InfiniBand®, par yum
groupinstall "InfiniBand Support", qui contient libibcm, libibverbs, etc.

Les applications OFED et RDMA qui dépendent de libibverbs nécessitent
également la bibliothèque d'espace utilisateur RDMA QLogic, libqedr.
Installez libqedr en utilisant les paquets libqedr RPM ou source.
57
BC0154503-02 F
6–Configuration de RoCE
Préparation de l'adaptateur

RoCE prend uniquement en charge le format Little Endian.

RoCE ne fonctionne pas sur une VF dans un environnement SR-IOV.
Préparation de l'adaptateur
Suivez les étapes suivantes pour activer DCBX et définir la priorité RoCE à l'aide
de l'application de gestion HII. Pour plus d'informations sur l'application HII, voir
Chapitre 5 Configuration de prédémarrage de l'adaptateur.
Pour préparer l'adaptateur :
1.
Sur la page de configuration principale, sélectionnez Data Center Bridging
(DCB) Settings (Paramètres Data Center Bridging (DCB)), puis cliquez sur
Finish (Terminer).
2.
Dans la fenêtre Paramètres Data Center Bridging (DCB), cliquez sur l'option
Protocole DCBX. L'adaptateur QL45212 prend en charge les protocoles CEE
et IEEE. Cette valeur doit être identique à la valeur correspondante sur le
commutateur DCB. Dans cet exemple, sélectionnez CEE ou Dynamique.
3.
Dans la zone RoCE Priority (Priorité RoCE v1), entrez une valeur de
priorité. Cette valeur doit être identique à la valeur correspondante sur le
commutateur DCB. Dans cet exemple, saisissez 5. En règle générale, 0 est
utilisé pour la classe de trafic avec perte par défaut, 3 est utilisé pour la
classe de trafic FCoE et 4 est utilisé pour la classe de trafic iSCSI-TLV sur
DCB sans perte.
4.
Cliquez sur Back (Précédent).
5.
À l'invite, cliquez sur Yes (Oui) pour enregistrer les modifications. Ces
modifications prennent effet après la réinitialisation du système.
Pour Windows, vous pouvez configurer DCBX à l'aide de la méthode HII ou
QoS. La configuration illustrée dans cette section est effectuée à l'aide de
HII. Pour QoS, reportez-vous à la section « Configuration de QoS pour
RoCE » à la page 124.
Préparation du commutateur Ethernet
Cette section explique comment configurer un commutateur Ethernet Cisco®
Nexus® 6000 et un commutateur Ethernet Dell® Z9100 pour RoCE.

Configuration du commutateur Ethernet Cisco Nexus 6000

Configuration du commutateur Ethernet Dell Z9100
58
BC0154503-02 F
6–Configuration de RoCE
Préparation du commutateur Ethernet
Configuration du commutateur Ethernet Cisco Nexus 6000
Les étapes de configuration du commutateur Ethernet Cisco Nexus 6000 pour
RoCE comprennent la configuration des adressages de classes, la configuration
des adressages de stratégies, l'application de la stratégie et l'affectation d'un
ID VLAN au port de commutateur.
Pour configurer le commutateur Cisco :
1.
Ouvrez une session de terminal de configuration de la façon suivante :
Switch# config terminal
switch(config)#
2.
Configurez l'adressage de classes de qualité de service (QoS) et définissez
la même priorité RoCE que celle de l'adaptateur (5) de la façon suivante :
switch(config)# class-map type qos class-roce
switch(config)# match cos 5
3.
Configurez les adressages de classes de mise en file d'attente de la façon
suivante :
switch(config)# class-map type queuing class-roce
switch(config)# match qos-group 3
4.
Configurez les adressages de classes de QoS réseau de la façon suivante :
switch(config)# class-map type network-qos class-roce
switch(config)# match qos-group 3
5.
Configurez les adressages de stratégies de QoS de la façon suivante :
switch(config)# policy-map type qos roce
switch(config)# class type qos class-roce
switch(config)# set qos-group 3
6.
Configurez les adressages de stratégies de mise en file d'attente pour
l'affectation de la bande passante réseau. Dans cet exemple, utilisez la
valeur 50 % :
switch(config)# policy-map type queuing roce
switch(config)# class type queuing class-roce
switch(config)# bandwidth percent 50
7.
Configurez les adressages de stratégies de QoS réseau pour définir le
contrôle de flux basé sur la priorité pour la classe de trafic « aucune perte »
(no drop) de la façon suivante :
switch(config)# policy-map type network-qos roce
switch(config)# class type network-qos class-roce
switch(config)# pause no-drop
59
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Windows Server
8.
Appliquez la nouvelle stratégie au niveau du système de la façon suivante :
switch(config)#
switch(config)#
switch(config)#
switch(config)#
switch(config)#
9.
system qos
service-policy
service-policy
service-policy
service-policy
type
type
type
type
qos input roce
queuing output roce
queuing input roce
network-qos roce
Attribuez un ID VLAN au port de commutateur, en choisissant un ID VLAN
identique à celui affecté à l'adaptateur (5).
switch(config)# interface ethernet x/x
switch(config)# switchport mode trunk
switch(config)# switchport trunk allowed vlan 1,5
Configuration du commutateur Ethernet Dell Z9100
Pour configurer le commutateur Ethernet Dell Z9100 pour RoCE, voir la
procédure à l'Annexe C Configuration du commutateur Dell Z9100.
Configuration de RoCE sur l'adaptateur pour
Windows Server
La configuration de RoCE sur l'adaptateur pour Windows Server consiste à
activer RoCE sur l'adaptateur et à vérifier la taille de MTU Network Direct.
Pour configurer RoCE sur un hôte Windows Server :
1.
Activez RoCE sur l'adaptateur.
a.
Ouvrez le gestionnaire de périphériques Windows, puis ouvrez la
fenêtre de propriétés adaptateurs QL45212 NDIS Miniport.
b.
Dans Propriétés de l'adaptateur QLogic FastLinQ, cliquez sur l'onglet
Avancé.
c.
Sur la page Avancé, configurez les propriétés énumérées au
Tableau 6-2 en sélectionnant chaque élément sous Propriété et en
choisissant une Valeur appropriée pour cet élément. Cliquez sur OK.
Tableau 6-2. Propriétés avancées pour RoCE
Propriétés
Valeur ou description
Fonctionnalité Network Direct
Activé
Taille MTU Network Direct
La taille de MTU Network Direct doit être inférieure à la
taille de paquet étendu.
60
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Windows Server
Tableau 6-2. Propriétés avancées pour RoCE (Suite)
Propriétés
Valeur ou description
Mode RDMA
RoCE v1 ou RoCE v2.
ID VLAN
Attribuez un ID de VLAN à l'interface. La valeur doit
être identique à celle attribuée sur le commutateur.
La Figure 6-1 montre un exemple de configuration d'une valeur de propriété.
Figure 6-1. Configuration des propriétés RoCE
2.
En utilisant Windows PowerShell, vérifiez que RDMA est activé sur
l'adaptateur. La commande Get-NetAdapterRdma répertorie les
adaptateurs qui prennent en charge RDMA (les deux ports sont activés).
REMARQUE
Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID de VLAN à
l'interface physique.
61
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Windows Server
PS C:\Users\Administrator> Get-NetAdapterRdma
3.
Name
InterfaceDescription
Enabled
-----
--------------------
-------
SLOT 4 3 Port 1
QLogic FastLinQ QL45212...
True
SLOT 4 3 Port 2
QLogic FastLinQ QL45212...
True
En utilisant Windows PowerShell, vérifiez que NetworkDirect est activé sur
le système d'exploitation hôte. La commande
Get-NetOffloadGlobalSetting indique que NetworkDirect est activé.
PS C:\Users\Administrators> Get-NetOffloadGlobalSetting
4.
ReceiveSideScaling
: Enabled
ReceiveSegmentCoalescing
: Enabled
Chimney
: Disabled
TaskOffload
: Enabled
NetworkDirect
: Enabled
NetworkDirectAcrossIPSubnets
: Blocked
PacketCoalescingFilter
: Disabled
Connectez un lecteur SMB (Server Message Block, bloc de message
serveur), exécutez un trafic RoCE et vérifiez les résultats.
Pour configurer et se connecter à un lecteur SMB, consultez les
informations disponibles en ligne auprès de Microsoft:
https://technet.microsoft.com/en-us/library/hh831795(v=ws.11).aspx
5.
Par défaut, Microsoft SMB Direct établit deux connexions RDMA par port, ce
qui assure de bonnes performances, y compris pour le débit de ligne avec
une taille de blocs plus élevée (par exemple, 64 Ko). Pour optimiser les
performances, vous pouvez changer le nombre de connexions RDMA par
interface à quatre (ou plus).
Pour passer à 4 connexions RDMA (ou plus), saisissez la commande
suivante dans Windows PowerShell :
PS C:\Users\Administrator> Set-ItemProperty -Path
"HKLM:\SYSTEM\CurrentControlSet\Services\LanmanWorkstation\
Parameters" ConnectionCountPerRdmaNetworkInterface -Type
DWORD -Value 4 –Force
62
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Windows Server
Affichage des compteurs RDMA
Pour afficher les compteurs RDMA pour RoCE :
1.
Lancez Performance Monitor.
2.
Ouvrez la boîte de dialogue Ajouter des compteurs. La Figure 6-2 montre un
exemple.
Figure 6-2. Boîte de dialogue Ajouter des compteurs
63
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Windows Server
3.
Sélectionnez l'un des types de compteur suivants :



4.
Contrôle de la congestion FastLinQ Cavium :

Ajout d’un incrément en cas de surcharge du réseau et lorsque
ECN est activé sur le commutateur.

Description des Paquets marqués ECN RoCE V2 et les Paquets
de notification de surcharge (CNP) envoyés et reçus avec
succès.

S’applique uniquement à RoCE v2.
Compteurs des ports FastLinQ Cavium :

Ajout d’un incrément en cas de surcharge du réseau.

Pause dans les incréments du compteur lorsque le contrôle de
débit ou la pause globale est configuré et qu’une surcharge se
produit dans le réseau.

Ajout d’un incrément aux compteurs PFC lorsque le contrôle de
débit prioritaire est configuré et qu’une surcharge se produit dans
le réseau.
Compteurs d’erreurs FastLinQ RDMA Cavium :

Ajout d'un incrément en cas d’erreur dans les opérations de
transport.

Pour plus d'informations, voir Tableau 6-3.
Sous Instances de l’objet sélectionné, sélectionnez Total, puis cliquez sur
Ajouter.
64
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Windows Server
La Figure 6-3 présente des exemples de sorties de la surveillance du
compteur.
Figure 6-3. Performance Monitor : Compteurs FastLinQ Cavium
Le Tableau 6-3 fournit des détails à propos des compteurs d’erreurs.
Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium
Compteur
d’erreurs
RDMA
Débordement
du CQ
Description
Une file d’attente d’achèvement
dans laquelle une demande de
travail RDMA est publiée. Ce
compteur spécifie la quantité des
instances dans lesquelles
l’achèvement d’une demande de
travail était dans la file d’envoi ou
de réception, mais sans espace
libre dans la file d’attente
d’achèvement associée.
65
S’applique
à RoCE ?
Oui
Dépannage
Indique un problème de
conception logicielle
provoquant une taille de
file d’attente
d’achèvement
insuffisante.
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Windows Server
Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite)
Compteur
d’erreurs
RDMA
Description
S’applique
à RoCE ?
Dépannage
Mauvaise
réponse du
demandeur
L’interlocuteur a retourné une
réponse mal formulée.
Oui
—
CQE du
demandeur
purgé avec
erreur
Des demandes de travail
publiées peuvent être purgées
par l’envoi d’un état Achevé avec
purge au CQ (sans terminer
l’exécution réelle de la demande
de travail) au cas où le QP
passerait à l’état d’erreur pour
quelque raison que ce soit et où
des demandes de travail sont en
attente. Si une demande de
travail est terminée avec un statut
d’erreur, toutes les autres
demandes d’erreur en attente
pour ce QP seront purgées.
Oui
Se produit en cas de
panne des connexions
RDMA.
Longueur
locale du
demandeur
Les message de réponse RDMA
READ contenait trop ou trop peu
de données de charge utile.
Oui
Indique généralement
un problème au niveau
des composants du
logiciel hôte.
Protection
locale du
demandeur
Le Segment de données de la
demande de travail publiée
localement ne fait pas référence à
une Région de la mémoire valide
pour l’opération demandée.
Oui
Indique généralement
un problème au niveau
des composants du
logiciel hôte.
Opération de
QP local du
demandeur
Une erreur de cohérence de QP
interne a été détectée pendant le
traitement de cette demande de
travail.
Oui
—
Accès distant
au
demandeur
Une erreur de protection s’est
produite sur un tampon de
données distant devant être lu
par une opération RDMA Read,
écrit par une opération RDMA
Write ou consultée par une
opération atomique.
Oui
—
66
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Windows Server
Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite)
Compteur
d’erreurs
RDMA
Description
S’applique
à RoCE ?
Dépannage
Demande
distante du
demandeur
non valide
Le côté distant a reçu un
message non valide sur le canal.
La demande non valide peut
porter sur un message d’envoi ou
une demande RDMA.
Oui
Les causes possibles
comprennent les
situations dans
lesquelles l’opération
n’est pas prise en
charge par cette file
d’attente de réception,
où le tampon est
insuffisant pour recevoir
une nouvelle demande
RDMA ou d’opération
atomique, ou dans
lesquelles la longueur
spécifiée dans une
demande RDMA est
supérieure à 231 octets.
Opération
distante du
demandeur
Le côté distant n’a pas pu
terminer l’opération demandée en
raison de son problème local.
Oui
Un problème logiciel du
côté distant (par
exemple, un problème
qui a provoqué une
erreur QP ou un WQE
mal formé sur le RQ) qui
a empêché
l’achèvement de
l’opération.
Nombre de
tentatives du
demandeur
dépassé.
Limite maximale du nombre de
tentatives de transport dépassée.
Oui
Le pair à distance a
peut-être cessé de
répondre, ou un
problème réseau
empêche l’accusé de
réception des
messages.
Nombre de
tentatives
RNR du
demandeur
dépassé.
Le nombre maximum de
nouvelles tentatives dues au
RNR RAK reçu a été atteint sans
succès
Oui
Le pair à distance a
peut-être cessé de
répondre, ou un
problème réseau
empêche l’accusé de
réception des
messages.
67
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Windows Server
Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite)
Compteur
d’erreurs
RDMA
Description
S’applique
à RoCE ?
Dépannage
CQE de
l’interlocuteur
purgé
Les demandes de travail publiées
(tampons reçus sur RQ) peuvent
être purgées par l’envoi d’état
Achevé avec purge au CQ au cas
où le QP passe à l’état d’erreur
pour quelque raison que ce soit et
où des tampons de réception
soient en attente sur le RQ. Si
une demande de travail est
terminée avec un statut d’erreur,
toutes les autres demandes
d’erreur en attente pour ce QP
seront purgées.
Oui
—
Longueur
locale de
l’interlocuteur
Longueur non valide des
messages entrants.
Oui
Mauvais comportement
du pair distant. Par
exemple, la longueur
des messages entrants
est supérieure à la taille
du tampon de réception.
Protection
locale de
l’interlocuteur
Le Segment de données de la
demande de travail publiée
localement ne fait pas référence à
une Région de la mémoire valide
pour l’opération demandée.
Oui
Indique un problème
logiciel au niveau de la
gestion de la mémoire.
Erreur
d’opération
QP locale de
l'interlocuteur.
Une erreur de cohérence de QP
interne a été détectée pendant le
traitement de cette demande de
travail.
Oui
Indique un problème
logiciel.
68
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Windows Server
Tableau 6-3. Compteurs d’erreurs FastLinQ RDMA Cavium (Suite)
Compteur
d’erreurs
RDMA
Demande
distante de
l'interlocuteur
non valide
Description
L’interlocuteur a détecté un
message entrant non valide sur le
canal.
69
S’applique
à RoCE ?
Oui
Dépannage
Indique un mauvais
comportement possible
de la part du pair
distant. Les causes
possibles comprennent
les situations dans
lesquelles l’opération
n’est pas prise en
charge par cette file
d’attente de réception,
où le tampon est
insuffisant pour recevoir
une nouvelle demande
RDMA, ou dans
lesquelles la longueur
spécifiée dans une
demande RDMA est
supérieure à 231 octets.
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Linux
Configuration de RoCE sur l'adaptateur pour Linux
Cette section présente la procédure de configuration de RoCE pour RHEL et
SLES. Elle décrit également la vérification de la configuration de RoCE et fournit
des indications sur l'utilisation d'ID de groupe (GID) avec les interfaces VLAN.

Configuration de RoCE pour RHEL

Configuration de RoCE pour SLES

Vérification de la configuration RoCE sous Linux

Interfaces VLAN et valeurs d'index GID

Configuration de RoCE v2 pour Linux
Configuration de RoCE pour RHEL
Pour que vous puissiez configurer RoCE sur l'adaptateur, vous devez avoir
installé et configuré OFED (Open Fabrics Enterprise Distribution) sur l'hôte RHEL.
Pour préparer OFED préinstallé pour RHEL :
1.
Pendant l'installation ou la mise à niveau du système d'exploitation,
sélectionnez les paquets de support InfiniBand® et OFED.
2.
Installez les RPM suivants à partir de l'image ISO RHEL :
libibverbs-devel-x.x.x.x86_64.rpm
(requis pour la bibliothèque libqedr)
perftest-x.x.x.x86_64.rpm
(requis pour les applications de bande passante et de latence InfiniBand)
Ou bien, avec Yum, installez OFED préinstallé :
yum groupinstall "Infiniband Support"
yum install perftest
yum install tcl tcl-devel tk zlib-devel libibverbs
libibverbs-devel
REMARQUE
Pendant l'installation, si vous avez déjà sélectionné les paquets
mentionnés ci-dessus, vous n'avez pas à les réinstaller. Les paquets
OFED préinstallé et de support peuvent varier en fonction de la
version du système d'exploitation.
3.
Installez les nouveaux pilotes Linux, comme décrit à la section « Installation
des pilotes Linux avec RDMA » à la page 15.
70
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Linux
Configuration de RoCE pour SLES
Pour que vous puissiez configurer RoCE sur l'adaptateur pour un hôte SLES,
vous devez avoir installé et configuré OFED sur l'hôte SLES.
Pour installer OFED préinstallé pour SLES Linux :
1.
Pendant l'installation ou la mise à niveau du système d'exploitation,
sélectionnez les paquets de support InfiniBand.
2.
Installez les RPM suivants à partir de l'image de kit SDK SLES
correspondante :
libibverbs-devel-x.x.x.x86_64.rpm
(requis pour l'installation de libqedr)
perftest-x.x.x.x86_64.rpm
(requis pour les applications de bande passante et de latence)
3.
Installez les pilotes Linux, comme décrit à la section « Installation des
pilotes Linux avec RDMA » à la page 15.
Vérification de la configuration RoCE sous Linux
Après avoir installé OFED et le pilote Linux, et après avoir chargé les
pilotes RoCE, vérifiez que les périphériques RoCE ont été détectés sur tous les
systèmes d'exploitation Linux.
Pour vérifier la configuration RoCE sous Linux :
1.
Arrêtez les tables de pare-feu à l'aide des commandes
service/systemctl.
2.
Pour RHEL uniquement : Si le service RDMA est installé (yum install
rdma), vérifiez que le service RDMA est démarré.
REMARQUE
Pour RHEL 6.x et SLES 11 SP4, vous devez démarrer le service
RDMA après le redémarrage. Pour RHEL 7.x et SLES 12 SPX et
version ultérieure, le service RDMA démarre automatiquement après
le redémarrage.
Sur RHEL ou CentOS : Utilisez la commande d'état service rdma pour
démarrer le service :

Si RDMA n'a pas démarré, entrez la commande suivante :
# service rdma start
71
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Linux

Si RDMA ne démarre pas, entrez l'une des commandes de
substitution suivantes :
# /etc/init.d/rdma start
ou
# systemctl start rdma.service
3.
Vérifiez que les périphériques RoCE ont été détectés, en examinant les
journaux dmesg :
# dmesg|grep qedr
[87910.988411] qedr: discovered and registered 2 RoCE funcs
4.
Vérifiez que tous les modules ont été chargés. Par exemple :
# lsmod|grep qedr
5.
qedr
89871
0
qede
96670
1 qedr
qed
2075255
ib_core
88311 16 qedr, rdma_cm, ib_cm,
ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp,
ib_ucm,ib_iser,ib_srpt,ib_umad,
ib_uverbs,rdma_ucm,ib_ipoib,ib_isert
2 qede,qedr
Configurez l'adresse IP et activez le port à l'aide d'une méthode de
configuration, comme ifconfig :
# ifconfig ethX 192.168.10.10/24 up
6.
Entrez la commande ibv_devinfo. Pour chaque fonction PCI, vous devriez
voir une entrée hca_id distincte, comme dans l'exemple suivant :
root@captain:~# ibv_devinfo
hca_id: qedr0
transport:
InfiniBand (0)
fw_ver:
8.3.9.0
node_guid:
020e:1eff:fe50:c7c0
sys_image_guid:
020e:1eff:fe50:c7c0
vendor_id:
0x1077
vendor_part_id:
5684
hw_ver:
0x0
phys_port_cnt:
1
port:
1
state:
72
PORT_ACTIVE (1)
max_mtu:
4096 (5)
active_mtu:
1024 (3)
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Linux
7.
sm_lid:
0
port_lid:
0
port_lmc:
0x00
link_layer:
Ethernet
Vérifiez la connectivité L2 et RoCE entre tous les serveurs : l'un des
serveurs joue le rôle de serveur et l'autre de client.

Vérifiez la connexion L2 avec une simple commande ping.

Vérifiez la connexion RoCE en exécutant un ping RDMA sur le serveur
ou le client :
Sur le serveur, entrez la commande suivante :
ibv_rc_pingpong -d <ib-dev> -g 0
Sur le client, entrez la commande suivante :
ibv_rc_pingpong -d <ib-dev> -g 0 <server L2 IP address>
Voici des exemples de tests ping pong réussis sur le serveur et le client :
Ping sur le serveur :
root@captain:~# ibv_rc_pingpong -d qedr0 -g 0
local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID
fe80::20e:1eff:fe50:c7c0
remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID
fe80::20e:1eff:fe50:c570
8192000 bytes in 0.05 seconds = 1436.97 Mbit/sec
1000 iters in 0.05 seconds = 45.61 usec/iter
Ping sur le client :
root@lambodar:~# ibv_rc_pingpong -d qedr0 -g 0 192.168.10.165
local address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID
fe80::20e:1eff:fe50:c570
remote address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID
fe80::20e:1eff:fe50:c7c0
8192000 bytes in 0.02 seconds = 4211.28 Mbit/sec
1000 iters in 0.02 seconds = 15.56 usec/iter

Pour afficher les statistiques RoCE, entrez les commandes suivantes, où X
est le numéro de périphérique :
> mount -t debugfs nodev /sys/kernel/debug
> cat /sys/kernel/debug/qedr/qedrX/stats
73
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Linux
Interfaces VLAN et valeurs d'index GID
Si vous utilisez des interfaces VLAN à la fois sur le serveur et sur le client, vous
devez également configurer le même ID VLAN sur le commutateur. Si vous
exécutez du trafic via un commutateur, les applications InfiniBand doivent utiliser
la valeur GID correcte, qui dépend de l'ID VLAN et de l'adresse IP VLAN.
Sur la base des résultats suivants, la valeur GID (-x 4 / -x 5) doit être utilisée pour
toutes les applications perftest.
# ibv_devinfo -d qedr0 -v|grep GID
GID[
0]: fe80:0000:0000:0000:020e:1eff:fe50:c5b0
GID[
1]: 0000:0000:0000:0000:0000:ffff:c0a8:0103
GID[
2]: 2001:0db1:0000:0000:020e:1eff:fe50:c5b0
GID[
3]: 2001:0db2:0000:0000:020e:1eff:fe50:c5b0
GID[
4]: 0000:0000:0000:0000:0000:ffff:c0a8:0b03 Adresse IP de l'interface VLAN
GID[
5]: fe80:0000:0000:0000:020e:1e00:0350:c5b0 ID VLAN 3
REMARQUE
La valeur GID par défaut est zéro (0) pour les paramètres dos à dos ou
Pause. Pour les configurations de serveur/commutateur, vous devez
identifier la valeur GID correcte. Si vous utilisez un commutateur, consultez
la documentation de configuration correspondante pour connaître les
paramètres appropriés.
Configuration de RoCE v2 pour Linux
Pour vérifier la fonctionnalité de RoCE v2, vous devez utiliser des noyaux pris en
charge par RoCE v2.
Pour configurer RoCE v2 pour Linux :
1.
Assurez-vous que vous utilisez l'un des noyaux pris en charge suivants :


2.
SLES 12 SP2 GA
RHEL 7.3 GA
Configurer RoCE v2 comme suit :
a.
Identifiez l'index GID de RoCE v2.
b.
Configurez l'adresse de routage du serveur et du client.
c.
Activez le routage L3 sur le commutateur.
74
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Linux
REMARQUE
Vous pouvez configurer RoCE v1 et RoCE v2 en utilisant des noyaux
pris en charge par RoCE v2. Ces noyaux vous permettent d'exécuter
le trafic RoCE sur le même sous-réseau, ainsi que sur des
sous-réseaux différents tels que RoCE v2 et tout environnement
routable. Seuls quelques paramètres sont requis pour RoCE v2, et
tous les autres paramètres de commutateur et d'adaptateur sont
communs pour RoCE v1 et RoCE v2.
Identification de l'index GID de RoCE v2 ou de l'adresse
Pour trouver les GID spécifiques de RoCE v1 et RoCE v2, utilisez les paramètres
sys ou class, ou exécutez les scripts RoCE du paquet source QL45212 FastLinQ.
Pour vérifier l'adresse et l'index GID de RoCE par défaut, exécutez la
commande ibv_devinfo et comparez-les aux paramètres sys ou class. Par
exemple :
#ibv_devinfo -d qedr0 -v|grep GID
GID[
0]:
fe80:0000:0000:0000:020e:1eff:fec4:1b20
GID[
1]:
fe80:0000:0000:0000:020e:1eff:fec4:1b20
GID[
2]:
0000:0000:0000:0000:0000:ffff:1e01:010a
GID[
3]:
0000:0000:0000:0000:0000:ffff:1e01:010a
GID[
4]:
3ffe:ffff:0000:0f21:0000:0000:0000:0004
GID[
5]:
3ffe:ffff:0000:0f21:0000:0000:0000:0004
GID[
6]:
0000:0000:0000:0000:0000:ffff:c0a8:6403
GID[
7]:
0000:0000:0000:0000:0000:ffff:c0a8:6403
Vérification de l'adresse et de l'index GID de RoCE v1 ou v2 à partir des
paramètres sys et class
Utilisez l'une des options suivantes pour vérifier l'adresse et l'index GID de
RoCE v1 ou RoCE v2 à partir des paramètres sys et class :

Option 1
# cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/0
IB/RoCE v1
# cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/1
RoCE v2
# cat /sys/class/infiniband/qedr0/ports/1/gids/0
fe80:0000:0000:0000:020e:1eff:fec4:1b20
# cat /sys/class/infiniband/qedr0/ports/1/gids/1
fe80:0000:0000:0000:020e:1eff:fec4:1b20
75
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Linux

Option 2
Utilisez les scripts du paquet source FastLinQ.
#/../fastlinq-8.x.x.x/add-ons/roce/show_gids.sh
DEV
PORT
INDEX
GID
IPv4
VER
DEV
---
----
------------
-----
---
---
---
qedr0
1
0
fe80:0000:0000:0000:020e:1eff:fec4:1b20
v1
p4p1
qedr0
1
1
fe80:0000:0000:0000:020e:1eff:fec4:1b20
v2
p4p1
qedr0
1
2
0000:0000:0000:0000:0000:ffff:1e01:010a
30.1.1.10
v1
p4p1
qedr0
1
3
0000:0000:0000:0000:0000:ffff:1e01:010a
30.1.1.10
v2
p4p1
qedr0
1
4
3ffe:ffff:0000:0f21:0000:0000:0000:0004
v1
p4p1
qedr0
1
5
3ffe:ffff:0000:0f21:0000:0000:0000:0004
v2
p4p1
qedr0
1
6
0000:0000:0000:0000:0000:ffff:c0a8:6403
192.168.100.3
v1
p4p1.100
qedr0
1
7
0000:0000:0000:0000:0000:ffff:c0a8:6403
192.168.100.3
v2
p4p1.100
qedr1
1
0
fe80:0000:0000:0000:020e:1eff:fec4:1b21
v1
p4p2
qedr1
1
1
fe80:0000:0000:0000:020e:1eff:fec4:1b21
v2
p4p2
REMARQUE
Vous devez spécifier les valeurs de l'index GID de RoCE v1 ou
RoCE v2 en fonction de la configuration de serveur ou de
commutateur (Pause/PFC). Utilisez l'index GID pour l'adresse IPv6,
l'adresse IPv4 ou l'adresse IPv6 locale du lien. Pour utiliser des trames
de VLAN marquées pour le trafic RoCE, vous devez spécifier des
valeurs d'index GID dérivées de l'adresse IPv4 ou IPv6 de VLAN.
Vérification de la fonctionnalité de RoCE v1 ou v2 par les applications perftest
Cette section décrit la vérification de la fonctionnalité de RoCE v1 ou RoCE v2 par
les applications perftest. Dans cet exemple, l'adresse IP de serveur et l'adresse IP
de client suivantes sont utilisées :


Adresse IP de serveur : 192.168.100.3
Adresse IP de client : 192.168.100.4
Vérification de RoCE v1
Exécutez sur le même sous-réseau, et utilisez l'index GID de RoCE v1.
Server# ib_send_bw -d qedr0 -F -x 0
Client# ib_send_bw -d qedr0 -F -x 0
76
192.168.100.3
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Linux
Vérification de RoCE v2
Exécutez sur le même sous-réseau et utilisez l'index GID de RoCE v2.
Server# ib_send_bw -d qedr0 -F -x 1
Client# ib_send_bw -d qedr0 -F -x 1
192.168.100.3
REMARQUE
Si vous exécutez via une configuration PFC de commutateur, utilisez les
GID de VLAN de RoCE v1 ou v2 via le même sous-réseau.
Vérification de RoCE v2 via des sous-réseaux différents
REMARQUE
Vous devez d'abord configurer les paramètres de routage du commutateur
et des serveurs. Sur l'adaptateur, définissez la priorité de RoCE, et le mode
DCBX en utilisant l'interface utilisateur HII ou UEFI.
Pour vérifier RoCE v2 via des sous-réseaux différents
1.
Définissez la configuration de routage du serveur et du client en utilisant la
configuration DCBX-PFC.

Paramètres système :
Adresse IP de VLAN du serveur : 192.168.100.3 et
Passerelle : 192.168.100.1
Adresse IP de VLAN du client : 192.168.101.3 et
Passerelle : 192.168.101.1

Configuration du serveur :
#/sbin/ip link add link p4p1 name p4p1.100 type vlan id 100
#ifconfig p4p1.100 192.168.100.3/24 up
#ip route add 192.168.101.0/24 via 192.168.100.1 dev p4p1.100

Configuration du client :
#/sbin/ip link add link p4p1 name p4p1.101 type vlan id 101
#ifconfig p4p1.101 192.168.101.3/24 up
#ip route add 192.168.100.0/24 via 192.168.101.1 dev p4p1.101
77
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Linux
2.
Configurez les paramètres de commutateur à l'aide de la procédure
suivante.

Utilisez une méthode quelconque de contrôle de flux (Pause,
DCBX-CEE ou DCBX-IEEE), et activez le routage IP pour RoCE v2.
Reportez-vous à « Préparation du commutateur Ethernet » à la
page 58 pour la configuration de RoCE v2, ou consultez les
documents relatifs au commutateur fournis par le fournisseur.

Si vous utilisez la configuration PFC et le routage L3, exécutez le trafic
RoCE v2 sur le VLAN en utilisant un sous-réseau différent, et utilisez
l'index GID de VLAN de RoCE v2.
Server# ib_send_bw -d qedr0 -F -x 5
Client# ib_send_bw -d qedr0 -F -x 5 192.168.100.3
Paramètres de commutateur du serveur :
Figure 6-4. Paramètres de commutateur, serveur
78
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour Linux
Paramètres de commutateur du client :
Figure 6-5. Paramètres de commutateur, client
Configuration des paramètres de RoCE v1 ou RoCE v2 pour les
applications RDMA_CM
Pour configurer RoCE, utilisez les scripts du paquet source FastLinQ suivants :
# ./show_rdma_cm_roce_ver.sh
qedr0 is configured to IB/RoCE v1
qedr1 is configured to IB/RoCE v1
# ./config_rdma_cm_roce_ver.sh v2
configured rdma_cm for qedr0 to RoCE v2
configured rdma_cm for qedr1 to RoCE v2
Paramètres du serveur :
Figure 6-6. Configuration des applications RDMA_CM : Serveur
79
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour VMware ESX
Paramètres du client :
Figure 6-7. Configuration des applications RDMA_CM : Client
Configuration de RoCE sur l'adaptateur pour
VMware ESX
Cette section fournit les procédures et les informations suivantes pour la
configuration de RoCE :

Configuration des interfaces RDMA

Configuration du MTU

Mode RoCE et statistiques

Configuration d'un périphérique RDMA paravirtuel (PVRDMA)
Configuration des interfaces RDMA
Pour configurer les interfaces RDMA :
1.
Installez les pilotes NIC et RoCE de QLogic.
2.
A l'aide du paramètre module, activez la fonction RoCE à partir du pilote NIC
en exécutant la commande suivante :
esxcfg-module -s 'enable_roce=1' qedentv
Pour appliquer la modification, rechargez le pilote de carte réseau (NIC) ou
redémarrez le système.
3.
Pour afficher une liste des interfaces NIC, entrez la commande
esxcfg-nics -l. Par exemple :
esxcfg-nics -l
Name
PCI
Vmnic0
0000:01:00.2 qedentv
Driver
Link Speed
Duplex MAC Address
Up
Full
25000Mbps
MTU
Description
a4:5d:36:2b:6c:92 1500
QLogic Corp.
a4:5d:36:2b:6c:93 1500
QLogic Corp.
QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter
Vmnic1
0000:01:00.3 qedentv
Up
25000Mbps
Full
QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter
80
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour VMware ESX
4.
Pour afficher une liste des périphériques RDMA, entrez la commande
esxcli rdma device list . Par exemple :
esxcli rdma device list
Name
Driver
State
Speed
Paired Uplink
Description
-------
-------
------
----
-------
-------------
-------------------------------
vmrdma0
qedrntv
Active
1024
25 Gbps
vmnic0
QLogic FastLinQ QL45xxx RDMA Interface
vmrdma1
qedrntv
Active
1024
25 Gbps
vmnic1
QLogic FastLinQ QL45xxx RDMA Interface
5.
MTU
Pour ajouter un nouveau commutateur virtuel, entrez la commande suivante :
esxcli network vswitch standard add -v <new vswitch name>
Par exemple :
# esxcli network vswitch standard add -v roce_vs
Cela crée un nouveau commutateur virtuel nommé roce_vs.
6.
Pour associer le port NIC QLogic au vSwitch, entrez la commande suivante :
# esxcli network vswitch standard uplink add -u <uplink
device> -v <roce vswitch>
Par exemple :
# esxcli network vswitch standard uplink add -u vmnic0 -v
roce_vs
7.
Pour ajouter un nouveau groupe de ports au vSwitch, entrez la commande
suivante :
# esxcli network vswitch standard portgroup add -p roce_pg -v
roce_vs
Par exemple :
# esxcli network vswitch standard portgroup add -p roce_pg -v
roce_vs
8.
Pour créer une interface vmknic sur ce groupe de ports et configurer
l'adresse IP, entrez la commande suivante :
# esxcfg-vmknic -a -i <IP address> -n <subnet mask> <roce port
group name>
Par exemple :
# esxcfg-vmknic -a -i 192.168.10.20 -n 255.255.255.0 roce_pg
9.
Pour configurer l'ID VLAN, entrez la commande suivante :
# esxcfg-vswitch -v <VLAN ID> -p roce_pg
81
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour VMware ESX
Pour exécuter le trafic RoCE avec l'ID VLAN, configurez l'ID VLAN sur le
groupe de ports VMkernel correspondant.
Configuration du MTU
Pour modifier l'interface MTU pour RoCE, modifiez le MTU du vSwitch
correspondant. Définissez la taille MTU de l'interface RDMA basée sur le MTU du
vSwitch en exécutant la commande suivante :
# esxcfg-vswitch -m <new MTU> <RoCE vswitch name>
Par exemple :
# esxcfg-vswitch -m 4000 roce_vs
# esxcli rdma device list
Name
Driver
State
MTU
-------
-------
------
vmrdma0
qedrntv
Active
2048
25 Gbps
vmnic0
QLogic FastLinQ QL45xxx RDMA Interface
vmrdma1
qedrntv
Active
1024
25 Gbps
vmnic1
QLogic FastLinQ QL45xxx RDMA Interface
----
Speed
Paired Uplink
Description
-------
-------------
-------------------------------
Mode RoCE et statistiques
Pour le mode RoCE, ESXi nécessite la prise en charge simultanée de RoCE v1
et v2. La décision concernant le choix du mode RoCE à utiliser est prise lors de la
création de la paire de files d'attente. Le pilote ESXi annonce les deux modes lors
de l'enregistrement et de l'initialisation. Pour afficher les statistiques d'interface,
entrez la commande suivante :
# esxcli rdma device stats get -d vmrdma0
Packets received: 0
Packets sent: 0
Bytes received: 0
Bytes sent: 0
Error packets received: 0
Error packets sent: 0
Error length packets received: 0
Error packets received: 0
Multicast packets received: 0
Unicast bytes received: 0
Multicast bytes received: 0
Unicast packets sent: 0
Multicast packets sent: 0
Unicast bytes sent: 0
Multicast bytes sent: 0
Queue pairs allocated: 0
82
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour VMware ESX
Queue pairs in RESET state: 0
Queue pairs in INIT state: 0
Queue pairs in RTR state: 0
Queue pairs in RTS state: 0
Queue pairs in SQD state: 0
Queue pairs in SQE state: 0
Queue pairs in ERR state: 0
Queue pair events: 0
Completion queues allocated: 1
Completion queue events: 0
Shared receive queues allocated: 0
Shared receive queue events: 0
Protection domains allocated: 1
Memory regions allocated: 3
Address handles allocated: 0
Memory windows allocated: 0
Configuration d'un périphérique RDMA paravirtuel (PVRDMA)
Pour configurer un PVRDMA à l'aide d’une interface vCenter :
1.
Créez et configurez un nouveau commutateur virtuel distribué comme suit :
a.
Dans le client Web vSphere VMware, cliquez avec le bouton droit de la
souris sur le noeud RoCE dans le volet gauche de la fenêtre du
Navigateur.
b.
Dans le menu Actions, placez le pointeur de la souris sur Distributed
Switch (Commutateur distribué), puis cliquez sur New Distributed
Switch (Nouveau commutateur distribué).
c.
Sélectionnez la version 6.5.0.
d.
Sous New Distributed Switch (Nouveau commutateur distribué),
cliquez sur Edit settings (Modifier les paramètres), puis effectuez la
configurations suivante :




Number of uplinks (Nombre de liaisons montantes).
Sélectionnez la valeur appropriée.
Network I/O Control (Contrôle des E/S réseau). Sélectionnez
Disabled (Désactivé).
Groupe de ports par défaut. Sélectionnez cette case à cocher.
Port group name (Nom du groupe de ports). Saisissez un nom
pour le groupe de ports.
83
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour VMware ESX
La Figure 6-8 montre un exemple.
Figure 6-8. Configuration d'un nouveau commutateur distribué
2.
3.
Configurez un commutateur virtuel distribué comme suit :
a.
Dans le client Web vSphere VMware, développez le noeud RoCE
dans le volet gauche de la fenêtre du Navigateur.
b.
Cliquez avec le bouton droit de la souris sur RoCE-VDS (VDS RoCE),
puis cliquez sur Add and Manage Hosts (Ajouter et gérer les hôtes).
c.
Sous Add and Manage Hosts (Ajouter et gérer les hôtes), effectuez la
configuration suivante :

Assign uplinks (Assigner des liaisons montantes). Effectuez
votre sélection dans la liste des liaisons montantes disponibles.

Manage VMkernel network adapters (Gérer les cartes réseau
VMkernel). Acceptez les valeurs par défaut, puis cliquez sur
Next (Suivant).

Migrate VM networking (Migration de réseau de VM). Assignez
le groupe de ports créé à l'étape 1.
Assignez un vmknic pour le PVRDMA pour une utilisation sur les hôtes ESX :
a.
Cliquez avec le bouton droit de la souris sur un hôte, puis cliquez sur
Settings (Paramètres).
b.
Dans la page Paramètres, développez le noeud System (Système),
puis cliquez sur Advanced System Settings (Paramètres système
avancés).
c.
La page Paramètres système avancés affiche la valeur de la paire de
clés et son récapitulatif. Cliquez sur Edit (Modifier).
d.
Dans la page Modifier les paramètres système avancés, filtrez sur
PVRDMA pour afficher uniquement Net.PVRDMAVmknic.
e.
Définissez la valeur de Net.PVRDMAVmknic sur vmknic ; par
exemple, vmk1.
84
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour VMware ESX
La Figure 6-9 montre un exemple.
Figure 6-9. Assignation d'un vmknic pour un PVRDMA
4.
Définissez la règle de pare-feu pour le PVRDMA :
a.
Cliquez avec le bouton droit de la souris sur un hôte, puis cliquez sur
Settings (Paramètres).
b.
Dans la page Paramètres, développez le noeud System (Système),
puis cliquez sur Security Profile (Profil de sécurité).
c.
Sur la page Récapitulatif du pare-feu, cliquez sur Edit (Modifier).
d.
Dans la boîte de dialogue Modifier le profil de sécurité sous Name
(Nom), faites défiler vers le bas, activez la case à cocher pvrdma, puis
activez la case à cocher Set Firewall (Définir le pare-feu).
La Figure 6-10 montre un exemple.
Figure 6-10. Définition de la règle de pare-feu
85
BC0154503-02 F
6–Configuration de RoCE
Configuration de RoCE sur l'adaptateur pour VMware ESX
5.
Configurez la VM pour le PVRDMA comme suit :
a.
Installez l'un des systèmes d'exploitation invités pris en charge
suivants :


RHEL 7.2
Ubuntu 14.04 (kernel version 4.0)
b.
Installez OFED-3.18.
c.
Compilez et installez le pilote invité et la bibliothèque PVRDMA.
d.
Ajoutez une nouvelle carte réseau PVRDMA à la VM comme suit :




e.
Modifiez les paramètres de la VM.
Ajoutez une nouvelle carte réseau.
Sélectionnez le groupe de ports DVS récemment ajouté en tant
que Network (Réseau).
Sélectionnez PVRDMA comme type d'adaptateur.
Après le démarrage de la VM, assurez-vous que le pilote invité
PVRDMA est chargé.
86
BC0154503-02 F
7
Configuration d'iSER
Ce chapitre fournit des procédures pour configurer les Extensions iSCSI pour
RDMA (iSER) pour Linux (RHEL et SLES) et ESXi 6.7, notamment :

Avant de commencer

Configuration d'iSER pour RHEL

« Configuration d'iSER pour SLES 12 » à la page 91

« Optimisation des performances Linux » à la page 92

« Configuration d’iSER sous ESXi 6.7 » à la page 93
Avant de commencer
Lorsque vous vous préparez à configurer iSER, tenez compte des points
suivants :

iSER est pris en charge uniquement avec OFED préinstallé pour les
systèmes d'exploitation suivants :



RHEL 7.1 et 7.2
SLES 12 et 12 SP1
CentOS 7.2

OFED non préinstallé ne prend pas en charge la configuration de
cibles iSER et aucun module ib_isert n'est disponible pour les versions
d'OFED non préinstallées.

Après la connexion aux cibles ou pendant l'exécution du trafic d'E/S, le
déchargement du pilote RoCE pour Linux qedr peut faire planter le système.

Pendant l'exécution d'E/S, la réalisation de tests d'activité/inactivité de
l'interface et de tests de traction des câbles peuvent provoquer des erreurs
des pilotes ou des modules iSER, susceptibles de faire planter le système.
Si cela se produit, redémarrez le système.
87
BC0154503-02 F
7–Configuration d'iSER
Configuration d'iSER pour RHEL
Configuration d'iSER pour RHEL
Pour configurer iSER pour RHEL :
1.
Installez OFED préinstallé, comme indiqué à la section « Configuration
de RoCE pour RHEL » à la page 70. Les versions d'OFED non préinstallées
ne sont pas prises en charge pour iSER parce que le module ib_isert n'est
pas disponible dans les versions d'OFED non préinstallées 3.18-2
GA/3.18-3 GA. Le module ib_isert de boîte de réception ne fonctionne avec
aucune version d'OFED non préinstallée.
2.
Déchargez tous les pilotes FastLinQ existants, comme indiqué à la section
« Suppression des pilotes Linux » à la page 11.
3.
Installez la dernière version des paquets libqedr et des pilotes FastLinQ,
comme il est décrit à la section « Installation des pilotes Linux avec RDMA »
à la page 15.
4.
Chargez les services RDMA comme suit :
systemctl start rdma
modprobe qedr
modprobe ib_iser
modprobe ib_isert
5.
Vérifiez que tous les modules RDMA et iSER sont chargés sur les
périphériques d'origine et cible, à l'aide des commandes lsmod | grep qed
et lsmod | grep iser.
6.
Vérifiez qu'il existe des instances hca_id séparées, en entrant la
commande ibv_devinfo comme indiqué à l'étape 6, page 72.
7.
Vérifiez la connexion RDMA sur le périphérique d'origine et le périphérique
cible.
a.
Sur le périphérique de l'initiateur, entrez la commande suivante :
rping -s -C 10 -v
b.
Sur le périphérique cible, entrez la commande suivante :
rping -c -a 192.168.100.99 -C 10 -v
88
BC0154503-02 F
7–Configuration d'iSER
Configuration d'iSER pour RHEL
La Figure 7-1 montre un exemple de ping RDMA réussi.
Figure 7-1. Ping RDMA réussi
8.
Vous pouvez utiliser une cible TCM-LIO Linux pour tester iSER. La
configuration est identique pour les cibles iSCSI, mais vous entrez la
commande enable_iser Boolean=true sur les portails concernés. Les
instances de portail sont identifiées comme iser à la Figure 7-2.
Figure 7-2. Instances de portail iSER
9.
Installez les utilitaires d'initiateur iSCSI Linux à l'aide des commandes
yum install iscsi-initiator-utils.
a.
Pour détecter la cible iSER, entrez la commande iscsiadm : Par
exemple :
iscsiadm -m discovery -t st -p 192.168.100.99:3260
89
BC0154503-02 F
7–Configuration d'iSER
Configuration d'iSER pour RHEL
b.
Pour changer le mode de transport à iSER, entrez la commande
iscsiadm. Par exemple :
iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n
iface.transport_name -v iser
c.
Pour vous connecter à la cible iSER, entrez la commande iscsiadm.
Par exemple :
iscsiadm -m node -l -p 192.168.100.99:3260 -T
iqn.2015-06.test.target1
d.
Vérifiez que la valeur de Iface Transport est iser dans la
connexion cible, comme le montre la Figure 7-3. Entrez la commande
iscsiadm. Par exemple :
iscsiadm -m session -P2
Figure 7-3. Vérification de Iface Transport
90
BC0154503-02 F
7–Configuration d'iSER
Configuration d'iSER pour SLES 12
e.
Pour vérifier un nouveau périphérique iSCSI, comme le montre la
Figure 7-4, entrez la commande lsscsi.
Figure 7-4. Vérification de nouveau périphérique iSCSI
Configuration d'iSER pour SLES 12
Étant donné que targetcli n'est pas préinstallé sur SLES 12.x, vous devez
effectuer la procédure suivante.
Pour configurer iSER pour SLES 12 :
1.
Pour installer targetcli, copiez et installez les RPM suivants depuis
l'image ISO (emplacement x86_64 et noarch) :
lio-utils-4.1-14.6.x86_64.rpm
python-configobj-4.7.2-18.10.noarch.rpm
python-PrettyTable-0.7.2-8.5.noarch.rpm
python-configshell-1.5-1.44.noarch.rpm
python-pyparsing-2.0.1-4.10.noarch.rpm
python-netifaces-0.8-6.55.x86_64.rpm
python-rtslib-2.2-6.6.noarch.rpm
python-urwid-1.1.1-6.144.x86_64.rpm
targetcli-2.1-3.8.x86_64.rpm
2.
Avant de démarrer targetcli, chargez tous les pilotes de périphérique RoCE
et modules iSER, comme suit :
# modprobe qed
# modprobe qede
# modprobe qedr
# modprobe ib_iser
(Initiateur)
# modprobe ib_isert (Cible)
3.
Avant de configurer les cibles iSER, configurez les interfaces NIC et
exécutez le trafic L2 et RoCE, comme décrit à l'étape 7 à la page 73.
91
BC0154503-02 F
7–Configuration d'iSER
Optimisation des performances Linux
4.
Démarrez l'utilitaire targetcli, puis configurez vos cibles sur le système
cible iSER.
NOTE
Les versions de targetcli ne sont pas les mêmes sous RHEL et SLES.
Veillez à utiliser les backstores correctes pour configurer vos cibles.
 RHEL utilise ramdisk.
 SLES utilise rd_mcp.
Optimisation des performances Linux
Considérez les améliorations de configuration des performances Linux suivantes
décrites dans cette section.

Configuration des UC sur le mode Performances maximales

Configuration des paramètres sysctl du noyau

Configuration des paramètres d'affinité d'IRQ

Configuration de la préparation de périphériques de traitement par blocs
Configuration des UC sur le mode Performances maximales
Configurez les performances du gestionnaire de mise à l'échelle des UC en
utilisant le script suivant pour configurer toutes les UC sur le mode Performances
maximales :
for CPUFREQ in
/sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f
$CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done
Vérifiez que les cœurs d'UC sont configurés sur le mode Performances
maximales, en entrant la commande suivante :
cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
Configuration des paramètres sysctl du noyau
Définissez les paramètres sysctl du noyau comme suit :
sysctl -w net.ipv4.tcp_mem="4194304 4194304 4194304"
sysctl -w net.ipv4.tcp_wmem="4096 65536 4194304"
sysctl -w net.ipv4.tcp_rmem="4096 87380 4194304"
sysctl -w net.core.wmem_max=4194304
sysctl -w net.core.rmem_max=4194304
sysctl -w net.core.wmem_default=4194304
sysctl -w net.core.rmem_default=4194304
92
BC0154503-02 F
7–Configuration d'iSER
Configuration d’iSER sous ESXi 6.7
sysctl -w net.core.netdev_max_backlog=250000
sysctl -w net.ipv4.tcp_timestamps=0
sysctl -w net.ipv4.tcp_sack=1
sysctl -w net.ipv4.tcp_low_latency=1
sysctl -w net.ipv4.tcp_adv_win_scale=1
echo 0 > /proc/sys/vm/nr_hugepages
Configuration des paramètres d'affinité d'IRQ
L'exemple suivant configure respectivement les cœurs d'UC 0, 1, 2 et 3 pour
interrompre les demandes (IRQ) XX, YY, ZZ et XYZ, respectivement. Effectuez
ces étapes pour chaque IRQ attribuée à un port (par défaut, huit files d'attente
par port).
systemctl disable irqbalance
systemctl stop irqbalance
cat /proc/interrupts | grep qedr Affiche les IRQ attribuées à chaque file
d'attente de port.
echo 1 > /proc/irq/XX/smp_affinity_list
echo 2 > /proc/irq/YY/smp_affinity_list
echo 4 > /proc/irq/ZZ/smp_affinity_list
echo 8 > /proc/irq/XYZ/smp_affinity_list
Configuration de la préparation de périphériques de
traitement par blocs
Définissez les paramètres de préparation de périphériques de traitement par
blocs pour chaque périphérique ou cible iSCSI comme suit :
echo noop > /sys/block/sdd/queue/scheduler
echo 2 > /sys/block/sdd/queue/nomerges
echo 0 > /sys/block/sdd/queue/add_random
echo 1 > /sys/block/sdd/queue/rq_affinity
Configuration d’iSER sous ESXi 6.7
Cette section fournit des informations sur la configuration d’iSER pour VMware
ESXi 6.7.
Avant de commencer
Avant de configurer iSER pour ESXi 6.7, assurez-vous que les éléments suivants
sont complets :
93
BC0154503-02 F
7–Configuration d'iSER
Configuration d’iSER sous ESXi 6.7

Le jeu CNA avec les pilotes NIC et RoCE est installé sur le système
ESXi 6.7 et les appareils sont répertoriés. Pour afficher les appareils RDMA,
émettez la commande suivante :
esxcli rdma device list
Name
Driver
State
Speed
Paired Uplink
Description
-------
-------
------
----
MTU
-------
-------------
--------------------------------------
vmrdma0
qedrntv
Active
1024
40 Gbps
vmnic4
QLogic FastLinQ QL45xxx RDMA Interface
vmrdma1
qedrntv
Active
1024
40 Gbps
vmnic5
QLogic FastLinQ QL45xxx RDMA Interface
[root@localhost:~] esxcfg-vmknic -l
Interface
Port Group/DVPort/Opaque Network
Netmask
Broadcast
IP Family IP Address
MAC Address
MTU
TSO MSS
Enabled Type
NetStack
vmk0
Management Network
255.255.240.0
172.28.15.255
IPv4
172.28.12.94
e0:db:55:0c:5f:94 1500
65535
true
DHCP
defaultTcpipStack
vmk0
Management Network
64
IPv6
fe80::e2db:55ff:fe0c:5f94
e0:db:55:0c:5f:94 1500
65535
true
STATIC, PREFERRED
defaultTcpipStack

La cible iSER est configurée pour communiquer avec l’initiateur iSER.
Configuration d’iSER pour ESXi 6.7
Pour configurer iSER pour ESXi 6.7 :
1.
Ajoutez les appareils iSER en émettant les commandes suivantes :
esxcli rdma iser add
esxcli iscsi adapter list
Adapter
Driver
State
UID
Description
-------
------
-------
-------------
-------------------------------------
vmhba64
iser
unbound
iscsi.vmhba64
VMware iSCSI over RDMA (iSER) Adapter
vmhba65
iser
unbound
iscsi.vmhba65
VMware iSCSI over RDMA (iSER) Adapter
2.
Désactivez le pare-feu comme suit :
esxcli network firewall set --enabled=false
esxcli network firewall unload
vsish -e set /system/modules/iscsi_trans/loglevels/iscsitrans 0
vsish -e set /system/modules/iser/loglevels/debug 4
3.
Créez un groupe de ports vSwitch VMkernel standard et attribuez
l’adresse IP :
esxcli network vswitch standard add -v vSwitch_iser1
esxcfg-nics -l
Name
PCI
Driver
vmnic0
0000:01:00.0 ntg3
Link Speed
Duplex MAC Address
Up
Full
1000Mbps
MTU
e0:db:55:0c:5f:94 1500
Description
Broadcom
Corporation NetXtreme BCM5720 Gigabit Ethernet
94
BC0154503-02 F
7–Configuration d'iSER
Configuration d’iSER sous ESXi 6.7
vmnic1
0000:01:00.1 ntg3
Down 0Mbps
Half
e0:db:55:0c:5f:95 1500
Broadcom
Half
e0:db:55:0c:5f:96 1500
Broadcom
Half
e0:db:55:0c:5f:97 1500
Broadcom
Full
00:0e:1e:d5:f6:a2 1500
QLogic Corp.
Corporation NetXtreme BCM5720 Gigabit Ethernet
vmnic2
0000:02:00.0 ntg3
Down 0Mbps
Corporation NetXtreme BCM5720 Gigabit Ethernet
vmnic3
0000:02:00.1 ntg3
Down 0Mbps
Corporation NetXtreme BCM5720 Gigabit Ethernet
vmnic4
0000:42:00.0 qedentv
Up
40000Mbps
QLogic FastLinQ QL45xxx 10/25/40/50/100 GbE Ethernet Adapter
vmnic5
0000:42:00.1 qedentv
Up
40000Mbps
Full
00:0e:1e:d5:f6:a3 1500
QLogic Corp.
QLogic FastLinQ QL45xxx 10/25/40/50/100 GbE Ethernet Adapter
esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1
esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1
esxcli network ip interface add -i vmk1 -p "rdma_group1"
esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.0 -t static
esxcfg-vswitch -p "rdma_group1" -v 4095 vSwitch_iser1
esxcli iscsi networkportal add -n vmk1 -A vmhba65
esxcli iscsi networkportal list
esxcli iscsi adapter get -A vmhba65
vmhba65
Name: iqn.1998-01.com.vmware:localhost.punelab.qlogic.com qlogic.org qlogic.com
mv.qlogic.com:1846573170:65
Alias: iser-vmnic5
Vendor: VMware
Model: VMware iSCSI over RDMA (iSER) Adapter
Description: VMware iSCSI over RDMA (iSER) Adapter
Serial Number: vmnic5
Hardware Version:
Asic Version:
Firmware Version:
Option Rom Version:
Driver Name: iser-vmnic5
Driver Version:
TCP Protocol Supported: false
Bidirectional Transfers Supported: false
Maximum Cdb Length: 64
Can Be NIC: true
Is NIC: true
Is Initiator: true
Is Target: false
Using TCP Offload Engine: true
Using ISCSI Offload Engine: true
95
BC0154503-02 F
7–Configuration d'iSER
Configuration d’iSER sous ESXi 6.7
4.
Ajoutez la cible à l’initiateur iSER comme suit :
esxcli iscsi adapter target list
esxcli iscsi adapter discovery sendtarget add -A vmhba65 -a 192.168.10.11
esxcli iscsi adapter target list
Adapter
Target
Alias
Discovery Method
Last Error
-------
------------------------
-----
----------------
----------
vmhba65
iqn.2015-06.test.target1
SENDTARGETS
No Error
esxcli storage core adapter rescan --adapter vmhba65
5.
Répertoriez la cible jointe comme suit :
esxcfg-scsidevs -l
mpx.vmhba0:C0:T4:L0
Type de périphérique : CD-ROM
Taille : 0 Mo
Nom d’affichage : Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0)
Plug-in multichemin : NMP
Périphérique de console : /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0
Chemin Devfs : /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0
Fournisseur : TSSTcorp
Niveau SCSI : 5
Modèle : DVD-ROM SN-108BB
Révision : D150
Is Pseudo: false Status: on
Is RDM Capable: false Is Removable: true
Is Local: true
Is SSD: false
Autres noms :
vml.0005000000766d686261303a343a30
Statut VAAI : unsupported
naa.6001405e81ae36b771c418b89c85dae0
Type de périphérique : Direct-Access
Taille : 512 Mo
Nom d’affichage : LIO-ORG iSCSI Disk (naa.6001405e81ae36b771c418b89c85dae0)
Plug-in multichemin : NMP
Périphérique de console :
/vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0
Chemin Devfs : /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0
Fournisseur : LIO-ORG
Niveau SCSI : 5
Model: ram1
Révision : 4,0
Is Pseudo: false Status: degraded
Is RDM Capable: true
Is Removable: false
Is Local: false Is SSD: false
Autres noms :
vml.02000000006001405e81ae36b771c418b89c85dae072616d312020
Statut VAAI : supported
naa.690b11c0159d050018255e2d1d59b612
96
BC0154503-02 F
8
Configuration de SR-IOV
Single Root Input/Output Virtualization (SR-IOV) est une spécification de PCI-SIG
qui permet à un seul périphérique PCI Express (PCIe) d'apparaître sous la forme
de plusieurs périphériques PCIe physiques distincts. SR-IOV permet d'isoler les
ressources PCIe à des fins de performance, d'interopérabilité et de gestion.
REMARQUE
Certaines fonctionnalités SR-IOV peuvent ne pas être entièrement activées
dans la version actuelle.
Ce chapitre fournit des instructions concernant :

Configuration de SR-IOV sous Windows

« Configuration de SR-IOV sous Linux » à la page 104

« Configuration de SR-IOV sous VMware » à la page 111
Configuration de SR-IOV sous Windows
Pour configurer SR-IOV sous Windows :
1.
Accédez à la configuration système du BIOS du serveur, puis cliquez sur
Paramètres BIOS système.
2.
Sur la page Paramètres BIOS système, cliquez sur Périphériques
intégrés.
3.
Sur la page Périphériques intégrés (Figure 8-1) :
a.
Définissez l'option Activation globale SR-IOV sur Activé.
b.
Cliquez sur Précédent.
97
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Windows
Figure 8-1. Configuration système pour SR-IOV : Périphériques intégrés
4.
Sur la page de configuration principale de l'adaptateur sélectionné, cliquez
sur Device Level Configuration (Configuration au niveau du périphérique).
5.
Sur la page de configuration principale – Configuration au niveau du
périphérique (Figure 8-2) :
a.
Définissez le Virtualization Mode (Mode de virtualisation) sur SR-IOV.
b.
Cliquez sur Back (Précédent).
Figure 8-2. Configuration système pour SR-IOV : Configuration au niveau
du périphérique
6.
Sur la page de configuration principale, cliquez sur Finish (Terminer).
7.
Dans la boîte de dialogue Avertissement – Enregistrement des
modifications, cliquez sur Yes (Oui) pour enregistrer la configuration.
8.
Dans la boîte de dialogue Succès – Enregistrement des modifications,
cliquez sur OK.
98
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Windows
9.
Pour activer SR-IOV sur l'adaptateur miniport :
a.
Accédez au Gestionnaire de périphériques.
b.
Ouvrez les propriétés de l'adaptateur miniport, puis cliquez sur l'onglet
Avancé.
c.
Sur la page Propriétés avancées (Figure 8-3) sous Propriété,
sélectionnez SR-IOV, puis définissez la valeur sur Activé.
d.
Cliquez sur OK.
Figure 8-3. Propriétés de l'adaptateur, Avancé : Activation de SR-IOV
10.
Pour créer un commutateur de machine virtuelle avec SR-IOV (Figure 8-4 à
la page 100) :
a.
Lancez le Gestionnaire Hyper-V.
b.
Sélectionnez Virtual Switch Manager (Gestionnaire de commutateur
virtuel).
c.
Dans la zone Name (Nom), entrez un nom pour le commutateur
virtuel.
d.
Sous Connection type (Type de connexion), sélectionnez External
network (Réseau externe).
e.
Cochez la case Enable single-root I/O virtualization (SR-IOV)
(Activer single-root I/O virtualization (SR-IOV)), puis cliquez sur Apply
(Appliquer).
99
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Windows
REMARQUE
Veillez à activer SR-IOV lorsque vous créez le vSwitch. Cette
option n'est pas disponible une fois que le vSwitch a été créé.
Figure 8-4. Gestionnaire de commutateur virtuel : Activation de SR-IOV
f.
La boîte de dialogue Appliquer les modifications réseau vous indique
que les Pending changes may disrupt network connectivity
(Modifications en attente peuvent perturber la connectivité réseau).
Pour enregistrer vos modifications et continuer, cliquez sur Yes (Oui).
100
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Windows
11.
Pour obtenir les capacités de commutateur de machine virtuelle, entrez la
commande Windows PowerShell suivante :
PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl
La sortie de la commande Get-VMSwitch comprend les capacités SR-IOV
suivantes :
12.
IovVirtualFunctionCount
: 96
IovVirtualFunctionsInUse
: 1
Pour créer une machine virtuelle (VM) et exporter la fonction virtuelle (VF)
dans la VM :
a.
Créez une machine virtuelle.
b.
Ajoutez le VMNetworkadapter à la machine virtuelle.
c.
Affectez un commutateur virtuel au VMNetworkadapter.
d.
Dans la boîte de dialogue Paramètres de la VM <VM_Name>
(Figure 8-5), page Accélération matérielle, sous Single-root I/O
virtualization (Virtualisation d'E/S d'une racine unique), cochez la
case Enable SR-IOV (Activer SR-IOV), puis cliquez sur OK.
REMARQUE
Une fois la connexion de l'adaptateur virtuel créée, le paramètre
SR-IOV peut être activé ou désactivé à tout moment (même
durant l'exécution du trafic).
101
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Windows
Figure 8-5. Paramètres de la VM : Activation de SR-IOV
13.
Installez les pilotes QLogic pour les adaptateurs détectés dans la VM.
Utilisez les pilotes les plus récents disponibles auprès du fournisseur de
votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés).
REMARQUE
Veillez à utiliser le même jeu de pilotes sur la machine virtuelle et le
système hôte. Par exemple, utilisez la même version de pilote qeVBD
et qeND sur la machine virtuelle Windows et sur l'hôte Windows
Hyper-V.
102
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Windows
Après l'installation des pilotes, l'adaptateur QLogic est répertorié dans la
VM. La Figure 8-6 montre un exemple.
Figure 8-6. Gestion de périphériques : VM avec adaptateur QLogic
14.
Pour afficher les détails de VF pour SR-IOV, entrez la commande Windows
PowerShell suivante :
PS C:\Users\Administrator> Get-NetadapterSriovVf
La Figure 8-7 montre un exemple de sortie.
Figure 8-7. Commande Windows PowerShell : Get-NetadapterSriovVf
103
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Linux
Configuration de SR-IOV sous Linux
Pour configurer SR-IOV sous Linux :
1.
Accédez au BIOS du système serveur, puis cliquez sur System BIOS
Settings (Paramètres BIOS système).
2.
Sur la page Paramètres BIOS système, cliquez sur Integrated Devices
(Périphériques intégrés).
3.
Sur la page Périphériques intégrés du système (voir Figure 8-1 à la
page 98) :
4.
a.
Définissez l'option SR-IOV Global Enable (Activation globale SR-IOV)
sur Enabled (Activé).
b.
Cliquez sur Back (Précédent).
Sur la page Paramètres BIOS système, cliquez sur Processor Settings
(Paramètres du processeur).
104
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Linux
5.
Sur la page Paramètres du processeur (Figure 8-8) :
a.
Définissez l'option Virtualization Technology (Technologie de
virtualisation) sur Enabled (Activé).
b.
Cliquez sur Back (Précédent).
Figure 8-8. Configuration du système : Paramètres du processeur pour SR-IOV
6.
Sur la page Configuration système, sélectionnez Device Settings
(Paramètres de périphérique).
7.
Sur la page Paramètres de périphérique, sélectionnez le Port 1 de
l'adaptateur QLogic.
105
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Linux
8.
Sur la page Configuration au niveau du périphérique (Figure 8-9) :
a.
Définissez le Virtualization Mode (Mode de virtualisation) sur SR-IOV.
b.
Cliquez sur Back (Précédent).
Figure 8-9. Configuration système pour SR-IOV : Périphériques intégrés
9.
Sur la page de configuration principale, cliquez sur Finish (Terminer),
enregistrez vos paramètres, puis redémarrez le système.
10.
Pour activer et vérifier la virtualisation :
a.
Ouvrez le fichier grub.conf et configurez le paramètre iommu
comme indiqué à la Figure 8-10.


Pour les systèmes Intel, ajoutez intel_iommu=on.
Pour les systèmes AMD, ajoutez amd_iommu=on.
106
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Linux
Figure 8-10. Modification du fichier grub.conf pour SR-IOV
b.
Enregistrez le fichier grub.conf et redémarrez le système.
c.
Pour vérifier que les modifications ont été appliquées, entrez la
commande suivante :
dmesg | grep
-I
iommu
Une sortie réussie de la commande IOMMU (input–output memory
management unit) devrait afficher, par exemple :
Intel-IOMMU: enabled
d.
Pour afficher les détails de VF (nombre de VF et total de VF), émettez
la commande suivante :
find /sys/|grep -I sriov
107
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Linux
11.
Pour un port spécifique, activez une quantité de VF.
a.
Exécutez la commande suivante pour activer, par exemple, 8 VF sur
l'instance PCI 04:00.0 (bus 4, périphérique 0, fonction 0) :
[root@ah-rh68 ~]# echo 8 >
/sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs
b.
Passez la sortie de la commande en revue (Figure 8-11) pour
confirmer que des VF réelles ont été créées sur le bus 4,
périphérique 2 (du paramètre 0000:00:02.0), fonctions 0 à 7. Notez
que l'ID de périphérique réel est différent sur les fonctions physiques
(8070 dans cet exemple) par rapport aux VF (9090 dans cet exemple).
Figure 8-11. Sortie de commande pour sriov_numvfs
12.
Pour afficher une liste des interfaces PF et VF, entrez la commande
suivante :
# ip link show | grep -i vf -b2
108
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Linux
La Figure 8-12 montre un exemple de sortie.
Figure 8-12. Sortie de la commande ip link show
13.
Attribuez et vérifiez les adresses MAC :
a.
Pour attribuer une adresse MAC à la VF, entrez la commande
suivante :
ip link set <pf device> vf <vf index> mac <mac address>
b.
Assurez-vous que l'interface VF est opérationnelle et exécutée avec
l'adresse MAC attribuée.
109
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous Linux
14.
Éteignez la VM et attachez la VF. (Certains systèmes d'exploitation prennent
en charge la connexion à chaud de VF à la VM).
a.
Dans la boîte de dialogue Machine virtuelle (Figure 8-13), cliquez sur
Add Hardware (Ajouter un matériel).
Figure 8-13. Machine virtuelle RHEL 68
b.
Dans le volet gauche de la boîte de dialogue Ajouter un nouveau
matériel virtuel (Figure 8-14), cliquez sur PCI Host Device
(Périphérique hôte PCI).
c.
Dans le volet droit, sélectionnez un périphérique hôte.
110
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous VMware
d.
Cliquez sur Finish (Terminer).
Figure 8-14. Ajouter un nouveau matériel virtuel
15.
Allumez la VM et entrez la commande suivante :
check lspci -vv|grep -I ether
16.
Installez les pilotes pour les adaptateurs détectés dans la VM. Utilisez les
pilotes les plus récents disponibles auprès du fournisseur de votre système
d'exploitation hôte (n'utilisez pas les pilotes préinstallés). La même version
de pilote doit être installée sur l'hôte et la machine virtuelle.
17.
Au besoin, ajoutez plus de VF dans la VM.
Configuration de SR-IOV sous VMware
Pour configurer SR-IOV sous VMware :
1.
Accédez au BIOS du système serveur, puis cliquez sur System BIOS
Settings (Paramètres BIOS système).
2.
Sur la page Paramètres BIOS système, cliquez sur Integrated Devices
(Périphériques intégrés).
3.
Sur la page Périphériques intégrés du système (voir Figure 8-1 à la
page 98) :
4.
a.
Définissez l'option SR-IOV Global Enable (Activation globale SR-IOV)
sur Enabled (Activé).
b.
Cliquez sur Back (Précédent).
Dans la fenêtre Configuration système, cliquez sur Paramètres de
périphérique.
111
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous VMware
5.
Sur la page Paramètres de périphérique, sélectionnez un port pour
l'adaptateur QL45212 25G.
6.
Sur la page Configuration au niveau du périphérique (voir Figure 8-2 à la
page 98) :
a.
Définissez le Virtualization Mode (Mode de virtualisation) sur SR-IOV.
b.
Cliquez sur Back (Précédent).
7.
Sur la page de configuration principale, cliquez sur Finish (Terminer).
8.
Enregistrez les paramètres de configuration et redémarrez le système.
9.
Pour activer la quantité de VF requise par port (dans cet exemple, 16 sur
chaque port d'une carte à double port), exécutez la commande suivante :
"esxcfg-module -s "max_vfs=16,16" qedentv"
REMARQUE
Chaque fonction Ethernet de l'adaptateur QL45212 doit disposer de sa
propre entrée.
10.
Redémarrez l'hôte.
11.
Pour vérifier que les modifications ont été appliquées au niveau du module,
entrez la commande suivante :
"esxcfg-module -g qedentv"
[root@localhost:~] esxcfg-module -g qedentv
qedentv enabled = 1 options = 'max_vfs=16,16'
12.
Pour vérifier que les VF ont été vraiment créées, entrez la commande lspci
comme suit :
[root@localhost:~] lspci | grep -i QLogic | grep -i 'ethernet\|network' | more
0000:05:00.0 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx 10/25
GbE Ethernet Adapter [vmnic6]
0000:05:00.1 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx 10/25
GbE Ethernet Adapter [vmnic7]
0000:05:02.0 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_0]
0000:05:02.1 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_1]
0000:05:02.2 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_2]
0000:05:02.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xQL45xxxxx
Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_3]
.
112
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous VMware
.
.
0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15]
0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0]
0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1]
0000:05:0e.2 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_2]
0000:05:0e.3 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_3]
.
.
.
0000:05:0f.6 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_14]
0000:05:0f.7 Network controller: QLogic Corp. QLogic FastLinQ QL45xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_15]
13.
14.
Attachez les VF à la VM comme suit :
a.
Éteignez la VM et attachez la VF. (Certains systèmes d'exploitation
prennent en charge la connexion à chaud de VF à la VM).
b.
Ajoutez un hôte à une VMware vCenter Server Virtual Appliance
(vCSA).
c.
Cliquez sur Edit Settings (Modifier les paramètres) de la VM.
Complétez la boîte de dialogue Modifier les paramètres (Figure 8-15)
comme suit :
a.
Dans la zone New Device (Nouveau périphérique), sélectionnez
Network (Réseau), puis cliquez sur Add (Ajouter).
b.
Pour le Adapter Type (Type d'adaptateur), sélectionnez SR-IOV
Passthrough (Relais SR-IOV).
c.
Pour la Physical Function (Fonction physique), sélectionnez la VF
QLogic.
113
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous VMware
d.
Pour enregistrer vos modifications de configuration et fermer cette
boîte de dialogue, cliquez sur OK.
Figure 8-15. Paramètres de modification de l'hôte VMware
114
BC0154503-02 F
8–Configuration de SR-IOV
Configuration de SR-IOV sous VMware
15.
Pour valider les VF par port, entrez la commande esxcli comme suit :
[root@localhost:~] esxcli network sriovnic vf list -n vmnic6
VF ID
Active
PCI Address
Owner World ID
-----
------
-----------
--------------
0
true
005:02.0
60591
1
true
005:02.1
60591
2
false
005:02.2
-
3
false
005:02.3
-
4
false
005:02.4
-
5
false
005:02.5
-
6
false
005:02.6
-
7
false
005:02.7
-
8
false
005:03.0
-
9
false
005:03.1
-
10
false
005:03.2
-
11
false
005:03.3
-
12
false
005:03.4
-
13
false
005:03.5
-
14
false
005:03.6
-
15
false
005:03.7
-
16.
Installez les pilotes QLogic pour les adaptateurs détectés dans la VM.
Utilisez les pilotes les plus récents disponibles auprès du fournisseur de
votre système d'exploitation hôte (n'utilisez pas les pilotes préinstallés). La
même version de pilote doit être installée sur l'hôte et la machine virtuelle.
17.
Allumez la VM, puis entrez la commande ifconfig -a pour vérifier que
l'interface réseau ajoutée est répertoriée.
18.
Au besoin, ajoutez plus de VF dans la VM.
115
BC0154503-02 F
9
Windows Server 2016
Ce chapitre fournit les informations suivantes concernant Windows Server 2016 :

Configuration des interfaces RoCE avec Hyper-V

« RoCE sur Switch Embedded Teaming » à la page 122

« Configuration de QoS pour RoCE » à la page 124

« Configuration de VMMQ » à la page 132

« Configuration de VXLAN » à la page 139

« Configuration des Espaces de stockage direct » à la page 140

« Déploiement et gestion de Nano Server » à la page 147
Configuration des interfaces RoCE avec Hyper-V
Dans Windows Server 2016, Hyper-V avec interface NDKPI (Network Direct
Kernel Provider Interface) Mode-2, cartes réseau virtuelles hôtes (NIC virtuelles
hôtes) prenant en charge RDMA.
REMARQUE
DCBX est requis pour RoCE sur Hyper-V. Pour configurer DCBX, choisissez
l'une de ces deux options :
 Configurer en utilisant l'interface utilisateur HII (voir « Préparation de
l'adaptateur » à la page 58).
 Configurer en utilisant QoS (voir « Configuration de QoS pour RoCE » à
la page 124).
Les procédures de configuration de RoCE fournies dans cette section comprennent :

Création d'un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA

Ajout d'un ID VLAN à une NIC virtuelle hôte

Vérification de l'activation de RoCE

Ajout de NIC virtuelles hôtes (ports virtuels)

Mappage du lecteur SMB et exécution du trafic RoCE
116
BC0154503-02 F
9–Windows Server 2016
Configuration des interfaces RoCE avec Hyper-V
Création d'un commutateur virtuel Hyper-V avec une NIC
virtuelle RDMA
Suivez les procédures de cette section pour créer un commutateur virtuel
Hyper-V, puis activez RDMA dans la VNIC hôte.
Pour créer un commutateur virtuel Hyper-V avec une NIC virtuelle RDMA :
1.
Lancez le Gestionnaire Hyper-V.
2.
Cliquez sur Virtual Switch Manager (Gestionnaire de commutateur virtuel)
(voir la Figure 9-1).
Figure 9-1. Activation de RDMA dans la NIC virtuelle hôte
3.
Créez un commutateur virtuel.
4.
Cochez la case Allow management operating system to share this
network adapter (Autoriser le système d'exploitation de gestion à partager
cette carte réseau).
Dans Windows Server 2016, un nouveau paramètre – Network Direct (RDMA) –
est ajouté dans la NIC virtuelle hôte.
Pour activer RDMA dans une NIC virtuelle hôte :
1.
Ouvrez la fenêtre Propriétés de la carte Ethernet virtuelle Hyper-V.
2.
Cliquez sur l'onglet Advanced (Avancé).
117
BC0154503-02 F
9–Windows Server 2016
Configuration des interfaces RoCE avec Hyper-V
3.
Sur la page Avancé (Figure 9-2) :
a.
Sous Property (Propriété), sélectionnez Network Direct (RDMA).
b.
Sous Value (Valeur), sélectionnez Enabled (Activé).
c.
Cliquez sur OK.
Figure 9-2. Propriétés de la carte Ethernet virtuelle Hyper-V
4.
Pour activer RDMA, entrez la commande Windows PowerShell suivante :
PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet
(Nouveau commutateur virtuel)"
PS C:\Users\Administrator>
Ajout d'un ID VLAN à une NIC virtuelle hôte
Pour ajouter un ID VLAN à une NIC virtuelle hôte :
1.
Pour trouver le nom de la NIC virtuelle hôte, entrez la commande Windows
PowerShell suivante :
PS C:\Users\Administrator> Get-VMNetworkAdapter -ManagementOS
118
BC0154503-02 F
9–Windows Server 2016
Configuration des interfaces RoCE avec Hyper-V
La Figure 9-3 montre la sortie de la commande.
Figure 9-3. Commande Windows PowerShell : Get-VMNetworkAdapter
2.
Pour définir l'ID VLAN sur la NIC virtuelle hôte, entrez la commande
Windows PowerShell :
PS C:\Users\Administrator> Set-VMNetworkAdaptervlan
-VMNetworkAdapterName "Nouveau commutateur virtuel" -VlanId 5
-Access -Management05
REMARQUE
Prenez note de ce qui suit concernant l'ajout d'un ID VLAN à une NIC
virtuelle hôte :
 Un ID VLAN doit être affecté à une NIC virtuelle hôte. Le même
ID VLAN doit être affecté à toutes les interfaces et sur le
commutateur.
 Assurez-vous que l'ID VLAN n'est pas affecté à l'interface
physique lors de l'utilisation d'une NIC virtuelle hôte pour RoCE.
 Si vous créez plusieurs NIC virtuelles hôte, vous pouvez affecter
un VLAN différent à chaque NIC virtuelle hôte.
Vérification de l'activation de RoCE
Pour vérifier si RoCE est activé :

Entrez la commande Windows PowerShell suivante :
Get-NetAdapterRdma
La sortie de la commande répertorie les adaptateurs compatibles RDMA
comme indiqué à la Figure 9-4.
Figure 9-4. Commande Windows PowerShell : Get-NetAdapterRdma
119
BC0154503-02 F
9–Windows Server 2016
Configuration des interfaces RoCE avec Hyper-V
Ajout de NIC virtuelles hôtes (ports virtuels)
Pour ajouter des NIC virtuelles hôtes :
1.
Pour ajouter une NIC virtuelle hôte, entrez la commande suivante :
Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name
SMB - ManagementOS
2.
Activez RDMA sur les NIC virtuelles hôtes comme indiqué à la section
« Pour activer RDMA dans une NIC virtuelle hôte : » à la page 117.
3.
Pour attribuer un ID VLAN au port virtuel, entrez la commande suivante :
Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB -VlanId 5
-Access -ManagementOS
Mappage du lecteur SMB et exécution du trafic RoCE
Pour mapper le lecteur SMB et exécuter le trafic RoCE :
1.
Lancez Performance Monitor (Perfmon).
2.
Complétez la boîte de dialogue Ajouter des compteurs (Figure 9-5) comme
suit :
a.
Sous Available counters (Compteurs disponibles), sélectionnez
RDMA Activity (Activité RDMA).
b.
Sous Instances of selected object (Instances de l'objet sélectionné),
sélectionnez l'adaptateur.
120
BC0154503-02 F
9–Windows Server 2016
Configuration des interfaces RoCE avec Hyper-V
c.
Cliquez sur Add (Ajouter).
Figure 9-5. Boîte de dialogue Ajouter des compteurs
121
BC0154503-02 F
9–Windows Server 2016
RoCE sur Switch Embedded Teaming
Si le trafic RoCE est exécuté, les compteurs apparaissent comme indiqué à
la Figure 9-6.
Figure 9-6. Performance Monitor affiche le trafic RoCE
RoCE sur Switch Embedded Teaming
Switch Embedded Teaming (SET) est la solution alternative d'association de NIC
de Microsoft qui peut être utilisée dans les environnements incluant Hyper-V et la
pile SDN (Software Defined Networking) dans Windows Server 2016 Technical
Preview. SET intègre une fonctionnalité limitée d'association de NIC dans le
commutateur virtuel Hyper-V.
Utilisez SET pour associer entre une et huit cartes réseau Ethernet physiques
dans une ou plusieurs cartes réseau virtuelles logicielles. Ces cartes offrent des
performances rapides et une tolérance de panne en cas de panne de carte
réseau. Pour être placées dans une association, les cartes réseau membres SET
doivent être toutes installées dans le même hôte physique Hyper-V.
Voici les procédures relatives à RoCE sur SET incluses dans cette section :

Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et
SET

Activation de RDMA sur SET

Attribution d'un ID VLAN sur SET

Exécution du trafic RDMA sur SET
122
BC0154503-02 F
9–Windows Server 2016
RoCE sur Switch Embedded Teaming
Création d'un commutateur virtuel Hyper-V avec des NIC virtuelles
RDMA et SET
Pour créer un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA
et SET :

Pour créer un SET, entrez la commande Windows PowerShell suivante :
PS C:\Users\Administrator> New-VMSwitch -Name SET
-NetAdapterName "Ethernet 2","Ethernet 3"
-EnableEmbeddedTeaming $true
La Figure 9-7 montre la sortie de la commande.
Figure 9-7. Commande Windows PowerShell : New-VMSwitch
Activation de RDMA sur SET
Pour activer RDMA sur SET :
1.
Pour afficher le SET sur l'adaptateur, entrez la commande Windows
PowerShell suivante :
PS C:\Users\Administrator> Get-NetAdapter "vEthernet (SET)"
La Figure 9-8 montre la sortie de la commande.
Figure 9-8. Commande Windows PowerShell : Get-NetAdapter
2.
Pour activer RDMA sur SET, entrez la commande Windows PowerShell
suivante :
PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet
(SET)"
Attribution d'un ID VLAN sur SET
Pour attribuer un ID VLAN sur SET :

Pour attribuer un ID VLAN sur SET, entrez la commande Windows
PowerShell suivante :
PS C:\Users\Administrator> Set-VMNetworkAdapterVlan
-VMNetworkAdapterName "SET" -VlanId 5 -Access -ManagementOS
123
BC0154503-02 F
9–Windows Server 2016
Configuration de QoS pour RoCE
REMARQUE
Prenez note de ce qui suit lors de l'ajout d'un ID VLAN à une NIC virtuelle
hôte :
 Assurez-vous que l'ID VLAN n'est pas affecté à l'interface physique lors
de l'utilisation d'une NIC virtuelle hôte pour RoCE.
 Si vous créez plusieurs NIC virtuelles hôte, vous pouvez affecter un
VLAN différent à chaque NIC virtuelle hôte.
Exécution du trafic RDMA sur SET
Pour plus d'informations sur l'exécution du trafic RDMA sur SET, consultez :
https://technet.microsoft.com/en-us/library/mt403349.aspx
Configuration de QoS pour RoCE
Voici les deux méthodes de configuration de la qualité de service (QoS) :

Configuration de QoS en désactivant DCBX sur l'adaptateur

Configuration de QoS en activant DCBX sur l'adaptateur
Configuration de QoS en désactivant DCBX sur l'adaptateur
Il faut effectuer toute la configuration sur tous les systèmes utilisés avant de
configurer la qualité de service en désactivant DCBX sur l'adaptateur. La
configuration du contrôle de flux basé sur la priorité (PFC), des services de
transition améliorés (ETS) et des classes de trafic doivent être identiques sur le
commutateur et le serveur.
Pour configurer QoS en désactivant DCBX :
1.
Désactivez DCBX sur l'adaptateur.
2.
En utilisant HII, définissez la RoCE Priority (Priorité RoCE) sur 0.
3.
Pour installer le rôle DCB sur l'hôte, entrez la commande Windows
PowerShell suivante :
PS C:\Users\Administrators> Install-WindowsFeature
Data-Center-Bridging
4.
Pour définir le mode DCBX Willing sur False (Faux), entrez la commande
Windows PowerShell suivante :
PS C:\Users\Administrators> set-NetQosDcbxSetting -Willing 0
124
BC0154503-02 F
9–Windows Server 2016
Configuration de QoS pour RoCE
5.
Activez QoS sur le miniport comme suit :
a.
Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced
(Avancé).
b.
Sur la page Propriétés avancées de l'adaptateur (Figure 9-9), sous
Property (Propriété), sélectionnez Quality of Service (Qualité de
service), puis définissez la valeur sur Enabled (Activé).
c.
Cliquez sur OK.
Figure 9-9. Propriétés avancées : Activer QoS
6.
Attribuez un ID VLAN à l'interface comme suit :
a.
Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced
(Avancé).
b.
Sur la page Propriétés avancées de l'adaptateur (Figure 9-10), sous
Property (Propriété), sélectionnez ID VLAN, puis définissez la valeur.
c.
Cliquez sur OK.
125
BC0154503-02 F
9–Windows Server 2016
Configuration de QoS pour RoCE
REMARQUE
L'étape précédente est requise pour le contrôle de flux basé sur la
priorité (PFC).
Figure 9-10. Propriétés avancées : Configuration d'ID VLAN
7.
Pour activer le contrôle de flux basé sur la priorité pour RoCE pour une
priorité spécifique, entrez la commande suivante :
PS C:\Users\Administrators> Enable-NetQoSFlowControl
-Priority 4
REMARQUE
Si vous configurez RoCE sur Hyper-V, n'attribuez pas d'ID VLAN à
l'interface physique.
126
BC0154503-02 F
9–Windows Server 2016
Configuration de QoS pour RoCE
8.
Pour désactiver le contrôle de flux basé sur la priorité pour toute autre
priorité, entrez les commandes suivantes :
PS C:\Users\Administrator> Disable-NetQosFlowControl 0,1,2,3,5,6,7
PS C:\Users\Administrator> Get-NetQosFlowControl
Priority
Enabled
PolicySet
IfIndex IfAlias
--------
-------
---------
------- -------
0
False
Global
1
False
Global
2
False
Global
3
False
Global
4
True
Global
5
False
Global
6
False
Global
7
False
Global
9.
Pour configurer QoS et attribuer la priorité pertinente à chaque type de
trafic, entrez les commandes suivantes (où la Priorité 4 correspond à RoCE
et la Priorité 0 correspond à TCP) :
PS C:\Users\Administrators> New-NetQosPolicy "SMB"
-NetDirectPortMatchCondition 445 -PriorityValue8021Action 4 -PolicyStore
ActiveStore
PS C:\Users\Administrators> New-NetQosPolicy "TCP" -IPProtocolMatchCondition
TCP -PriorityValue8021Action 0 -Policystore ActiveStore
PS C:\Users\Administrator> Get-NetQosPolicy -PolicyStore activestore
Name
: tcp
Owner
: PowerShell / WMI
NetworkProfile : Tous
Precedence
: 127
JobObject
:
IPProtocol
: TCP
PriorityValue
: 0
Name
: smb
Owner
: PowerShell / WMI
NetworkProfile : Tous
Precedence
: 127
JobObject
:
NetDirectPort
: 445
PriorityValue
: 4
127
BC0154503-02 F
9–Windows Server 2016
Configuration de QoS pour RoCE
10.
Pour configurer ETS pour toutes les classes de trafic définies à l'étape
précédente, entrez les commandes suivantes :
PS C:\Users\Administrators> New-NetQosTrafficClass -name "RDMA class"
-priority 4 -bandwidthPercentage 50 -Algorithm ETS
PS C:\Users\Administrators> New-NetQosTrafficClass -name "TCP class" -priority
0 -bandwidthPercentage 30 -Algorithm ETS
PS C:\Users\Administrator> Get-NetQosTrafficClass
Name
Algorithm Bandwidth(%) Priority
----
--------- ------------ --------
PolicySet
---------
[Default]
ETS
20
2-3,5-7
Global
RDMA class
ETS
50
4
Global
TCP class
ETS
30
0
Global
11.
IfIndex IfAlias
------- -------
Pour afficher la QoS de l'adaptateur réseau à partir de la configuration
précédente, entrez la commande Windows PowerShell suivante :
PS C:\Users\Administrator> Get-NetAdapterQos
Name
: SLOT 4 Port 1
Enabled
: True
Capabilities
:
Hardware
Current
--------
-------
MacSecBypass
: NotSupported NotSupported
DcbxSupport
: None
NumTCs(Max/ETS/PFC) : 4/4/4
OperationalTrafficClasses
OperationalFlowControl
: TC TSA
Bandwidth Priorities
-- ---
--------- ----------
0 ETS
20%
2-3,5-7
1 ETS
50%
4
2 ETS
30%
0
4/4/4
: Priority 4 Enabled
OperationalClassifications : Protocol
Port/Type Priority
--------
--------- --------
12.
None
Default
0
NetDirect 445
4
Créez un script de démarrage pour que les paramètres persistent lorsque le
système redémarre.
128
BC0154503-02 F
9–Windows Server 2016
Configuration de QoS pour RoCE
13.
Exécutez le trafic RDMA et vérifiez comme décrit à la section
« Configuration de RoCE » à la page 56.
Configuration de QoS en activant DCBX sur l'adaptateur
Toute la configuration doit être effectuée sur tous les systèmes utilisés. La
configuration de PFC, d'ETS et des classes de trafic doivent être identiques sur le
commutateur et le serveur.
Pour configurer QoS en activant DCBX :
1.
Activez DCBX (IEEE, CEE ou Dynamique).
2.
En utilisant HII, définissez la RoCE Priority (Priorité RoCE) sur 0.
3.
Pour installer le rôle DCB sur l'hôte, entrez la commande Windows
PowerShell suivante :
PS C:\Users\Administrators> Install-WindowsFeature
Data-Center-Bridging
REMARQUE
Pour cette configuration, configurez le Protocole DCBX sur CEE.
4.
Pour définir le mode DCBX Willing sur True (Vrai), entrez la commande
PowerShell suivante :
PS C:\Users\Administrators> set-NetQosDcbxSetting -Willing 1
129
BC0154503-02 F
9–Windows Server 2016
Configuration de QoS pour RoCE
5.
Activez QoS sur le miniport comme suit :
a.
Sur la page Propriétés avancées de l'adaptateur (Figure 9-11), sous
Property (Propriété), sélectionnez Quality of Service (Qualité de
service), puis définissez la valeur sur Enabled (Activé).
b.
Cliquez sur OK.
Figure 9-11. Propriétés avancées : Activation de QoS
6.
Attribuez un ID VLAN à l'interface (requis pour PFC) comme suit :
a.
Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced
(Avancé).
b.
Sur la page Propriétés avancées de l'adaptateur (Figure 9-12), sous
Property (Propriété), sélectionnez ID VLAN, puis définissez la valeur.
c.
Cliquez sur OK.
130
BC0154503-02 F
9–Windows Server 2016
Configuration de QoS pour RoCE
Figure 9-12. Propriétés avancées : Configuration d'ID VLAN
7.
Pour configurer le commutateur, exécutez la commande Windows
PowerShell suivante :
PS C:\Users\Administrators> Get-NetAdapterQoS
Name
: Ethernet 5
Enabled
: True
Capabilities
:
Hardware
Current
--------
-------
MacSecBypass
: NotSupported NotSupported
DcbxSupport
: CEE
NumTCs(Max/ETS/PFC) : 4/4/4
OperationalTrafficClasses
OperationalFlowControl
: TC TSA
Bandwidth Priorities
-- ---
--------- ----------
0 ETS
5%
0-3,5-7
1 ETS
95%
4
CEE
4/4/4
: Priority 4 Enabled
OperationalClassifications : Protocol
Port/Type Priority
--------
--------- --------
NetDirect 445
131
4
BC0154503-02 F
9–Windows Server 2016
Configuration de VMMQ
RemoteTrafficClasses
: TC TSA
Bandwidth Priorities
-- ---
--------- ----------
0 ETS
5%
0-3,5-7
1 ETS
95%
4
RemoteFlowControl
: Priority 4 Enabled
RemoteClassifications
: Protocol
Port/Type Priority
--------
--------- --------
NetDirect 445
4
REMARQUE
L'exemple précédent correspond à un port de l'adaptateur connecté à un
commutateur Arista® 7060X. Dans cet exemple, le PFC du commutateur est
activé sur la Priorité 4. Les TLV d'application RoCE sont définis. Les deux
classes de trafic sont définies comme TC0 et TC1, où TC1 est définie pour
RoCE. Le mode de Protocole DCBX est défini sur CEE. Pour la
configuration du commutateur Arista, reportez-vous à la section
« Préparation du commutateur Ethernet » à la page 58. Lorsque l'adaptateur
est en mode Willing, il accepte la Configuration à distance, qu'il montre en
tant que Operational Parameters (Paramètres opérationnels).
Configuration de VMMQ
Les informations de configuration de VMMQ (Virtual machine multiqueue)
comprennent :

Activation de VMMQ sur l'adaptateur

Configuration du port virtuel par défaut et non par défaut de paires de files
d'attente (QP) max VMMQ

Création d'un commutateur de machine virtuelle avec ou sans SR-IOV

Activation de VMMQ sur le commutateur de machine virtuelle

Obtention de la fonction de commutateur de machine virtuelle

Création d'une machine virtuelle et activation de VMMQ sur les
VMNetworkadapters dans la VM

NIC virtuelle VMMQ par défaut et maximum

Activation et désactivation de VMMQ sur une NIC de gestion

Surveillance des statistiques de trafic
132
BC0154503-02 F
9–Windows Server 2016
Configuration de VMMQ
Activation de VMMQ sur l'adaptateur
Pour activer VMMQ sur l'adaptateur :
1.
Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced (Avancé).
2.
Sur la page Propriétés avancées de l'adaptateur (Figure 9-13), sous
Property (Propriété), sélectionnez Virtual Switch RSS (RSS de
commutateur virtuel), puis définissez la valeur sur Enabled (Activé).
3.
Cliquez sur OK.
Figure 9-13. Propriétés avancées : Activation de RSS de commutateur virtuel
Configuration du port virtuel par défaut et non par défaut de
paires de files d'attente (QP) max VMMQ
Pour configurer le port virtuel par défaut et non par défaut de paires de files
d'attente (QP) maximum VMMQ :
1.
Ouvrez la fenêtre miniport, et cliquez sur l'onglet Advanced (Avancé).
2.
Sur la page Propriétés avancées, sous Property (Propriété), sélectionnez
l'une des options suivantes :

QP max VMMQ – Port virtuel par défaut

QP max VMMQ – Port virtuel non par défaut
133
BC0154503-02 F
9–Windows Server 2016
Configuration de VMMQ
3.
S'il y a lieu, ajustez la Value (Valeur) pour la propriété sélectionnée.
4.
Cliquez sur OK.
Création d'un commutateur de machine virtuelle avec ou sans
SR-IOV
Pour créer un commutateur de machine virtuelle avec ou sans SR-IOV :
1.
Lancez le Gestionnaire Hyper-V.
2.
Sélectionnez Virtual Switch Manager (Gestionnaire de commutateur
virtuel) (voir la Figure 9-14).
3.
Dans la zone Name (Nom), entrez un nom pour le commutateur virtuel.
134
BC0154503-02 F
9–Windows Server 2016
Configuration de VMMQ
4.
Sous Connection type (Type de connexion) :
a.
Cliquez sur External network (Réseau externe).
b.
Cochez la case Allow management operating system to share this
network adapter (Autoriser le système d'exploitation de gestion à
partager cette carte réseau).
Figure 9-14. Gestionnaire de commutateur virtuel
5.
Cliquez sur OK.
135
BC0154503-02 F
9–Windows Server 2016
Configuration de VMMQ
Activation de VMMQ sur le commutateur de machine virtuelle
Pour activer VMMQ sur le commutateur de machine virtuelle :

Entrez la commande Windows PowerShell suivante :
PS C:\Users\Administrators> Set-VMSwitch -name q1
-defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4
Obtention de la fonction de commutateur de machine virtuelle
Pour obtenir la fonction de commutateur de machine virtuelle :

Entrez la commande Windows PowerShell suivante :
PS C:\Users\Administrator> Get-VMSwitch -Name ql | fl
La Figure 9-15 montre un exemple de sortie.
Figure 9-15. Commande Windows PowerShell : Get-VMSwitch
136
BC0154503-02 F
9–Windows Server 2016
Configuration de VMMQ
Création d'une machine virtuelle et activation de VMMQ sur
les VMNetworkadapters dans la VM
Pour créer une machine virtuelle et activer VMMQ sur les
VMNetworkadapters dans la VM :
1.
Créez une VM.
2.
Ajoutez le VMNetworkadapter à la VM.
3.
Affectez un commutateur virtuel au VMNetworkadapter.
4.
Pour activer VMMQ sur la VM, entrez la commande Windows PowerShell
suivante :
PS C:\Users\Administrators> set-vmnetworkadapter -vmname vm1
-VMNetworkAdapterName "network adapter" -vmmqenabled $true
-vmmqqueuepairs 4
REMARQUE
Pour un commutateur virtuel compatible avec SR-IOV : si SR-IOV est
activé sur le commutateur de VM et l'accélération matérielle, vous
devez créer 10 VM avec 8 NIC virtuelles chacune pour utiliser VMMQ.
Cette exigence est due au fait que SR-IOV a préséance sur VMMQ.
Voici un exemple de sortie de 64 fonctions virtuelles et 16 VMMQ :
PS C:\Users\Administrator> get-netadaptervport
Name
---Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
.
.
.
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
3
3
3
3
3
3
3
3
3
3
3
3
ID
-0
1
2
3
4
5
6
7
8
9
10
11
3
3
3
3
3
64
65
66
67
68
MacAddress
---------00-15-5D-36-0A-FB
00-0E-1E-C4-C0-A4
00-15-5D-36-0A-04
00-15-5D-36-0A-05
00-15-5D-36-0A-06
VID
---
ProcMask
-------0:0
0:8
0:0
0:0
0:0
0:0
0:0
0:0
0:0
0:0
0:0
0:0
FID
--PF
PF
0
1
2
3
4
5
6
7
8
9
State
----Activated
Activated
Activated
Activated
Activated
Activated
Activated
Activated
Activated
Activated
Activated
Activated
ITR
--Unknown
Adaptive
Unknown
Unknown
Unknown
Unknown
Unknown
Unknown
Unknown
Unknown
Unknown
Unknown
QPairs
-----4
4
1
1
1
1
1
1
1
1
1
1
0:0
0:0
0:16
1:0
0:0
62
63
PF
PF
PF
Activated
Activated
Activated
Activated
Activated
Unknown
Unknown
Adaptive
Adaptive
Adaptive
1
1
4
4
4
137
BC0154503-02 F
9–Windows Server 2016
Configuration de VMMQ
Name
---Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
Ethernet
3
3
3
3
3
3
3
3
3
3
3
3
ID
-69
70
71
72
73
74
75
76
77
78
79
80
MacAddress
---------00-15-5D-36-0A-07
00-15-5D-36-0A-08
00-15-5D-36-0A-09
00-15-5D-36-0A-0A
00-15-5D-36-0A-0B
00-15-5D-36-0A-F4
00-15-5D-36-0A-F5
00-15-5D-36-0A-F6
00-15-5D-36-0A-F7
00-15-5D-36-0A-F8
00-15-5D-36-0A-F9
00-15-5D-36-0A-FA
VID
---
ProcMask
-------0:8
0:16
1:0
0:0
0:8
0:16
1:0
0:0
0:8
0:16
1:0
0:0
FID
--PF
PF
PF
PF
PF
PF
PF
PF
PF
PF
PF
PF
State
----Activated
Activated
Activated
Activated
Activated
Activated
Activated
Activated
Activated
Activated
Activated
Activated
ITR
--Adaptive
Adaptive
Adaptive
Adaptive
Adaptive
Adaptive
Adaptive
Adaptive
Adaptive
Adaptive
Adaptive
Adaptive
QPairs
-----4
4
4
4
4
4
4
4
4
4
4
4
PS C:\Users\Administrator> get-netadaptervmq
Name
InterfaceDescription
---Ethernet 4
-------------------QLogic FastLinQ QL45212
Enabled BaseVmqProcessor MaxProcessors NumberOfReceive
Queues
------- ---------------- ------------- --------------False
0:0
16
1
NIC virtuelle VMMQ par défaut et maximum
Selon la mise en œuvre actuelle, une quantité maximale de 4 VMMQ est
disponible par NIC virtuelle ; c'est-à-dire, jusqu'à 16 NIC virtuelles.
Quatre files d'attente par défaut sont disponibles comme précédemment défini à
l'aide des commandes Windows PowerShell. La file d'attente par défaut maximum
peut actuellement être définie sur 8. Pour vérifier la file d'attente par défaut
maximum, utilisez la fonction VMswitch.
Activation et désactivation de VMMQ sur une NIC de gestion
Pour activer et désactiver VMMQ sur une NIC de gestion :

Pour activer VMMQ sur une NIC de gestion, entrez la commande suivante :
PS C:\Users\Administrator> Set-VMNetworkAdapter –ManagementOS
–vmmqEnabled $true
La VNIC du système d'exploitation de gestion (MOS) dispose de quatre
VMMQ.

Pour désactiver VMMQ sur une NIC de gestion, entrez la commande
suivante :
PS C:\Users\Administrator> Set-VMNetworkAdapter –ManagementOS
–vmmqEnabled $false
Un VMMQ sera également disponible pour le protocole MOSPF (Multicast
Open Shortest Path First).
138
BC0154503-02 F
9–Windows Server 2016
Configuration de VXLAN
Surveillance des statistiques de trafic
Pour surveiller le trafic de fonction virtuelle dans une machine virtuelle, entrez la
commande Windows PowerShell suivante :
PS C:\Users\Administrator> Use get-netadapterstatistics | fl
Configuration de VXLAN
Les informations de configuration de VXLAN comprennent :

Activation du déchargement VXLAN sur l'adaptateur

Déploiement d'un réseau défini par logiciel
Activation du déchargement VXLAN sur l'adaptateur
Pour activer le déchargement VXLAN sur l'adaptateur :
1.
Ouvrez la fenêtre miniport, puis cliquez sur l'onglet Advanced (Avancé).
2.
Sur la page Propriétés avancées (Figure 9-16), sous Property (Propriété),
sélectionnez VXLAN Encapsulated Task Offload (Déchargement de
tâches d'encapsulation VXLAN).
Figure 9-16. Propriétés avancées : Activation de VXLAN
3.
Définissez la Value (Valeur) sur Enabled (Activé).
4.
Cliquez sur OK.
139
BC0154503-02 F
9–Windows Server 2016
Configuration des Espaces de stockage direct
Déploiement d'un réseau défini par logiciel
Pour profiter du déchargement de tâches d'encapsulation VXLAN sur les
machines virtuelles, vous devez déployer une pile de réseau défini par logiciel
(SDN, Software-Defined Network) qui utilise un contrôleur réseau Microsoft.
Pour plus de détails, reportez-vous au lien de Microsoft TechNet suivant sur les
réseaux définis par logiciel :
https://technet.microsoft.com/en-us/windows-server-docs/networking/sdn/
software-defined-networking--sdn-
Configuration des Espaces de stockage direct
Windows Server 2016 présente la fonction Espaces de stockage direct, qui
permet de créer des systèmes de stockage hautement disponibles et évolutifs à
partir du stockage local.
Pour plus d'informations, reportez-vous au lien de Microsoft TechNet suivant :
https://technet.microsoft.com/en-us/windows-server-docs/storage/storage-spaces
/storage-spaces-direct-windows-server-2016
Configuration du matériel
La Figure 9-17 montre un exemple de configuration matérielle.
Figure 9-17. Exemple de configuration matérielle
140
BC0154503-02 F
9–Windows Server 2016
Configuration des Espaces de stockage direct
REMARQUE
Les disques utilisés dans cet exemple sont des disques NVMe ™ 400 G x4
et SSD 200 G x12.
Déploiement d'un système hyper-convergé
Cette section comprend les instructions pour installer et configurer les
composants d'un système hyper-convergé à l'aide de Windows Server 2016. Le
déploiement d'un système hyper-convergé peut se diviser en trois phases
globales :

Déploiement du système d'exploitation

Configuration du réseau

Configuration des Espaces de stockage direct
Déploiement du système d'exploitation
Pour déployer le système d'exploitation :
1.
Installez le système d'exploitation.
2.
Installez les rôles de serveur Windows (Hyper-V).
3.
Installez les fonctionnalités suivantes :



4.
Reprise
Cluster
Data center bridging (DCB)
Connectez les nœuds au domaine et ajoutez des comptes de domaine.
Configuration du réseau
Pour déployer la fonction Espaces de stockage direct, le commutateur Hyper-V
doit être déployé avec des NIC virtuelles hôte avec RDMA activé.
REMARQUE
La procédure suivante suppose qu'il existe quatre ports NIC RDMA.
141
BC0154503-02 F
9–Windows Server 2016
Configuration des Espaces de stockage direct
Pour configurer le réseau sur chaque serveur :
1.
Configurez le commutateur réseau physique comme suit :
a.
Connectez toutes les NIC de l'adaptateur au port du commutateur.
REMARQUE
Si votre adaptateur de test possède plusieurs ports NIC, vous
devez connecter les deux ports au même commutateur.
b.
Activez le port du commutateur et assurez-vous que le port du
commutateur prend en charge le mode d'association indépendante du
commutateur et fait également partie de plusieurs réseaux VLAN.
Exemple de configuration de commutateur Dell :
no ip address
mtu 9416
portmode hybrid
switchport
dcb-map roce_S2D
protocol lldp
dcbx version cee
no shutdown
2.
Activez la Network Quality of Service (Qualité de service réseau).
REMARQUE
La qualité de service réseau sert à s'assurer que le système de
stockage défini par logiciel a suffisamment de bande passante pour
communiquer entre les nœuds afin d'assurer la résilience et les
performances. Pour configurer la qualité de service (QoS) sur
l'adaptateur, voir « Configuration de QoS pour RoCE » à la page 124.
3.
Créez un commutateur virtuel Hyper-V avec des NIC virtuelles RDMA et
SET comme suit :
a.
Pour identifier les cartes réseau, entrez la commande suivante :
Get-NetAdapter | FT
Name,InterfaceDescription,Status,LinkSpeed
b.
Pour créer le commutateur virtuel connecté à toutes les cartes réseau
physiques, puis activer l'association intégrée de commutateur, entrez
la commande suivante :
142
BC0154503-02 F
9–Windows Server 2016
Configuration des Espaces de stockage direct
New-VMSwitch -Name SETswitch -NetAdapterName
"<port1>","<port2>","<port3>","<port4>"
–EnableEmbeddedTeaming $true
c.
Pour ajouter des NIC virtuelles hôtes au commutateur virtuel, entrez
les commandes suivantes :
Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_1
–managementOS
Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_2
–managementOS
REMARQUE
Les commandes précédentes configurent la NIC virtuelle à partir
du commutateur virtuel que vous venez de configurer pour le
système d'exploitation de gestion à utiliser.
d.
Pour configurer la NIC virtuelle hôte pour utiliser un VLAN, entrez les
commandes suivantes :
Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_1"
-VlanId 5 -Access -ManagementOS
Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_2"
-VlanId 5 -Access -ManagementOS
REMARQUE
Ces commandes peuvent être sur des VLAN identiques ou
différents.
e.
Pour vérifier que l'ID VLAN est défini, entrez la commande suivante :
Get-VMNetworkAdapterVlan -ManagementOS
f.
Pour désactiver et activer chaque carte NIC virtuelle hôte afin que le
VLAN soit actif, entrez la commande suivante :
Disable-NetAdapter "vEthernet (SMB_1)"
Enable-NetAdapter "vEthernet (SMB_1)"
Disable-NetAdapter "vEthernet (SMB_2)"
Enable-NetAdapter "vEthernet (SMB_2)"
g.
Pour activer RDMA sur les cartes NIC virtuelles hôtes, entrez la
commande suivante :
Enable-NetAdapterRdma "SMB1","SMB2"
143
BC0154503-02 F
9–Windows Server 2016
Configuration des Espaces de stockage direct
h.
Pour vérifier les capacités RDMA, entrez la commande suivante :
Get-SmbClientNetworkInterface | where RdmaCapable -EQ
$true
Configuration des Espaces de stockage direct
La configuration des Espaces de stockage direct dans Windows Server 2016
comprend les étapes suivantes :

Étape 1. Exécution d’un outil de validation de cluster

Étape 2. Création d'un cluster

Étape 3. Configuration d'un témoin de cluster

Étape 4. Disques de nettoyage utilisés pour les Espaces de stockage direct

Étape 5. Activation des Espaces de stockage direct

Étape 6. Création de disques virtuels

Étape 7. Création ou déploiement de machines virtuelles
Étape 1. Exécution d’un outil de validation de cluster
Exécutez l'outil de validation de cluster pour vous assurer que les nœuds de
serveur sont correctement configurés pour créer un cluster à l'aide des Espaces
de stockage direct.
Entrez la commande Windows PowerShell suivante pour valider un ensemble de
serveurs à utiliser comme cluster d'Espaces de stockage direct :
Test-Cluster -Node <MachineName1, MachineName2, MachineName3,
MachineName4> -Include "Storage Spaces Direct", Inventory,
Network, "System Configuration"
Étape 2. Création d'un cluster
Créez un cluster avec les quatre nœuds (qui a été validé pour la création de
cluster) à l'Étape 1. Exécution d’un outil de validation de cluster.
Pour créer un cluster, entrez la commande Windows PowerShell suivante :
New-Cluster -Name <ClusterName> -Node <MachineName1, MachineName2,
MachineName3, MachineName4> -NoStorage
Le paramètre -NoStorage est obligatoire. S'il n'est pas inclus, les disques sont
automatiquement ajoutés au cluster et vous devez les supprimer avant d'autoriser
les Espaces de stockage direct. Sinon, ils ne seront pas inclus dans le pool de
stockage des Espaces de stockage direct.
144
BC0154503-02 F
9–Windows Server 2016
Configuration des Espaces de stockage direct
Étape 3. Configuration d'un témoin de cluster
Vous devez configurer un témoin pour le cluster, afin que ce système à quatre
nœuds puisse résister à la défaillance ou à l'indisponibilité de deux nœuds. Avec
ces systèmes, vous pouvez configurer un témoin de partage de fichiers ou un
témoin de cloud.
Pour plus d'informations, consultez le site :
https://blogs.msdn.microsoft.com/clustering/2014/03/31/configuring-a-file-sharewitness-on-a-scale-out-file-server/
Étape 4. Disques de nettoyage utilisés pour les Espaces de stockage
direct
Les disques destinés à être utilisés pour les Espaces de stockage direct doivent
être vides et sans partitions ou autres données. Si un disque comporte des
partitions ou d'autres données, il ne sera pas inclus dans le système d'Espaces
de stockage direct.
La commande Windows PowerShell suivante peut être placée dans un fichier de
script Windows PowerShell (.PS1) et exécutée à partir du système de gestion
dans une console Windows PowerShell (ou Windows PowerShell ISE) ouverte
avec privilèges d'administrateur.
REMARQUE
L'exécution de ce script permet d'identifier les disques sur chaque nœud qui
peuvent être utilisés pour les Espaces de stockage direct et supprime toutes
les données et partitions de ces disques.
icm (Get-Cluster -Name HCNanoUSClu3 | Get-ClusterNode) {
Update-StorageProviderCache
Get-StoragePool |? IsPrimordial -eq $false | Set-StoragePool
-IsReadOnly:$false -ErrorAction SilentlyContinue
Get-StoragePool |? IsPrimordial -eq $false | Get-VirtualDisk |
Remove-VirtualDisk -Confirm:$false -ErrorAction SilentlyContinue
Get-StoragePool |? IsPrimordial -eq $false | Remove-StoragePool
-Confirm:$false -ErrorAction SilentlyContinue
Get-PhysicalDisk | Reset-PhysicalDisk -ErrorAction
SilentlyContinue
Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne
$true |? PartitionStyle -ne RAW |% {
$_ | Set-Disk -isoffline:$false
$_ | Set-Disk -isreadonly:$false
145
BC0154503-02 F
9–Windows Server 2016
Configuration des Espaces de stockage direct
$_ | Clear-Disk -RemoveData -RemoveOEM -Confirm:$false
$_ | Set-Disk -isreadonly:$true
$_ | Set-Disk -isoffline:$true
}
Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne
$true |? PartitionStyle -eq RAW | Group -NoElement -Property
FriendlyName
} | Sort -Property PsComputerName,Count
Étape 5. Activation des Espaces de stockage direct
Après avoir créé le cluster, utilisez l'applet de commande
Enable-ClusterStorageSpacesDirect Windows PowerShell. L'applet de
commande met le système de stockage en mode Espaces de stockage direct et
effectue automatiquement ce qui suit :

Crée un grand pool unique doté d'un nom tel que S2D sur Cluster1.

Configure le cache des Espaces de stockage direct. S'il existe plusieurs
types de support disponibles pour l'utilisation d'Espaces de stockage direct,
il configure le type le plus efficace en tant que périphériques de cache (dans
la plupart des cas, lecture et écriture).

Crée deux niveaux – Capacity (Capacité) et Performance – comme
niveaux par défaut. L'applet de commande analyse les périphériques et
configure chaque niveau avec le mélange de types de périphériques et
résilience.
Étape 6. Création de disques virtuels
Si les Espaces de stockage direct étaient activés, il crée un pool unique à partir de
tous les disques. Il nomme également le pool (par exemple S2D sur Cluster1),
avec le nom du cluster spécifié dans le nom.
La commande Windows PowerShell suivante crée un disque virtuel avec
résilience de miroir et parité sur le pool de stockage :
New-Volume -StoragePoolFriendlyName "S2D*" -FriendlyName
<VirtualDiskName> -FileSystem CSVFS_ReFS -StorageTierfriendlyNames
Capacity,Performance -StorageTierSizes <Size of capacity tier in
size units, example: 800GB>, <Size of Performance tier in size
units, example: 80GB> -CimSession <ClusterName>
Étape 7. Création ou déploiement de machines virtuelles
Vous pouvez provisionner les machines virtuelles sur les nœuds du cluster S2D
hyper-convergé. Stockez les fichiers de la machine virtuelle sur l'espace de noms
CSV du système (par exemple, c:\ClusterStorage\Volume1), à l'instar des
machines virtuelles en cluster sur les clusters de basculement.
146
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
Déploiement et gestion de Nano Server
Windows Server 2016 offre Nano Server comme nouvelle option d'installation.
Nano Server est un système d'exploitation de serveur administré à distance,
optimisé pour les clouds privés et les centres de données. Il est similaire à
Windows Server en mode Server Core, mais est significativement plus petit, n'a
pas de fonction d'ouverture de session locale et prend en charge uniquement les
applications, outils et agents 64 bits. Nano Server prend moins d'espace disque,
se configure rapidement et nécessite moins de mises à jour et de redémarrages
que Windows Server. Quand il redémarre, il redémarre beaucoup plus
rapidement.
Rôles et fonctionnalités
Le Tableau 9-1 montre les rôles et les fonctionnalités disponibles dans cette
version de Nano Server, ainsi que les options Windows PowerShell qui
installeront les paquets correspondants. Certains paquets sont installés
directement avec leurs propres options Windows PowerShell (par exemple
-Compute). D'autres sont installés en tant qu'extensions de l'option -Packages,
que vous pouvez combiner dans une liste séparée par des virgules.
Tableau 9-1. Rôles et fonctionnalités de Nano Server
Rôle ou fonctionnalité
Article
Rôle Hyper-V
-Compute
Clusters de basculement
-Clustering
Pilotes invités Hyper-V pour héberger Nano Server
en tant que machine virtuelle
-GuestDrivers
Pilotes de base pour diverses cartes réseau et
contrôleurs de stockage. Il s'agit du même
ensemble de pilotes inclus dans une installation
Server Core de Windows Server 2016 Technical
Preview.
-OEMDrivers
Rôle de serveur de fichiers et autres composants
de stockage
-Storage
Windows Defender Antimalware, y compris un
fichier de signature par défaut
-Defender
Redirecteurs inverses pour la compatibilité des
applications. Par exemple, des infrastructures
d'application courantes telles que Ruby, Node.js,
etc.
-ReverseForwarders
147
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
Tableau 9-1. Rôles et fonctionnalités de Nano Server (Suite)
Rôle ou fonctionnalité
Article
Rôle de serveur DNS
-Packages Microsoft-NanoServer-DNSsource
Configuration d'état souhaité (DSC)
-Packages Microsoft-NanoServer-DSCsource
Internet Information Server (IIS)
-Packages Microsoft-NanoServer-IISsource
Prise en charge des conteneurs Windows par
l'hôte
-Containers
Agent System Center Virtual Machine Manager
-Packages Microsoft-Windows-ServerSCVMM-Package
-Packages Microsoft-Windows-ServerSCVMM-Compute-Package
Remarque : Utilisez ce paquet uniquement si vous
surveillez Hyper-V. Si vous installez ce paquet,
n'utilisez pas l'option -Compute pour le rôle
Hyper-V ; utilisez plutôt l'option -Packages pour
installer -Packages
Microsoft-NanoServer-Compute-Package,
Microsoft-Windows-Server-SCVMMCompute-Package.
Service de diagnostic de performance réseau
(NPDS)
-Packages Microsoft-NanoServer-NPDSsource
Data Center Bridging
-Packages Microsoft-NanoServer-DCBsource
Les sections suivantes décrivent la configuration d'une image de Nano Server
avec les paquets requis et l'ajout des pilotes de périphériques supplémentaires
propres aux périphériques QLogic. Elles expliquent également comment utiliser la
console de récupération Nano Server, comment gérer Nano Server à distance et
comment exécuter le trafic Ntttcp à partir de Nano Server.
Déploiement de Nano Server sur un serveur physique
Suivez ces étapes pour créer un disque dur virtuel (VHD) Nano Server, qui
s'exécutera sur un serveur physique à l'aide des pilotes de périphériques
préinstallés.
148
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
Pour déployer Nano Server :
1.
Téléchargez l'image du SE Windows Server 2016.
2.
Montez l'image ISO.
3.
Copiez les fichiers suivants du dossier NanoServer sur un dossier de votre
disque dur :


NanoServerImageGenerator.psm1
Convert-WindowsImage.ps1
4.
Démarrez Windows PowerShell en tant qu'administrateur.
5.
Changez le répertoire au dossier dans lequel vous avez copié les fichiers à
l'étape 3.
6.
Importez le script NanoServerImageGenerator en entrant la commande
suivante :
Import-Module .\NanoServerImageGenerator.psm1 -Verbose
7.
Pour créer un VHD qui définit un nom d'ordinateur et comprend les pilotes
OEM et Hyper-V, entrez la commande Windows PowerShell suivante :
REMARQUE
Cette commande vous demande un mot de passe administrateur pour
le nouveau VHD.
New-NanoServerImage –DeploymentType Host –Edition
<Standard/Datacenter> -MediaPath <path to root of media>
-BasePath
.\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd
-ComputerName
<computer name> –Compute -Storage -Cluster -OEMDrivers
–Compute
-DriversPath “<Path to Qlogic Driver sets>”
Exemple :
New-NanoServerImage –DeploymentType Host –Edition Datacenter
-MediaPath C:\tmp\TP4_iso\Bld_10586_iso
-BasePath ".\Base" -TargetPath
"C:\Nano\PhysicalSystem\Nano_phy_vhd.vhd" -ComputerName
"Nano-server1" –Compute -Storage -Cluster -OEMDrivers
-DriversPath
"C:\Nano\Drivers"
149
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
Dans l'exemple précédent, C:\Nano\Drivers est le chemin d'accès des
pilotes QLogic. Cette commande met environ 10 à 15 minutes pour créer un
fichier VHD. Voici un exemple de sortie de cette commande :
Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10
Copyright (C) Microsoft Corporation.
All rights reserved.
Version 10.0.14300.1000.amd64fre.rs1_release_svc.160324-1723
INFO
: Looking for the requested Windows image in the WIM file
INFO
: Image 1 selected (ServerDatacenterNano)...
INFO
: Creating sparse disk...
INFO
: Mounting VHD...
INFO
: Initializing disk...
INFO
: Creating single partition...
INFO
: Formatting windows volume...
INFO
: Windows path (I:) has been assigned.
INFO
: System volume location: I:
INFO
: Applying image to VHD. This could take a while...
INFO
: Image was applied successfully.
INFO
: Making image bootable...
INFO
: Fixing the Device ID in the BCD store on VHD...
INFO
: Drive is bootable.
INFO
: Dismounting VHD...
INFO
: Closing Windows image...
INFO
: Done.
Cleaning up...
Done. The log is at:
C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log
8.
Connectez-vous en tant qu'administrateur sur le serveur physique sur lequel
vous souhaitez exécuter le VHD Nano Server.
9.
Pour copier le VHD sur le serveur physique et le configurer pour démarrer à
partir du nouveau VHD :
a.
Accédez à Gestion de l'ordinateur > Stockage > Gestion des
disques.
b.
Cliquez avec le bouton droit sur Gestion des disques et sélectionnez
Attacher un disque dur virtuel.
c.
Indiquez le chemin d'accès au fichier du VHD
d.
Cliquez sur OK.
e.
Exécutez bcdboot d:\windows.
150
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
REMARQUE
Dans cet exemple, le VHD est attaché sous D:\.
f.
Cliquez avec le bouton droit sur Gestion des disques et sélectionnez
Détacher un disque dur virtuel.
10.
Redémarrez le serveur physique sur le VHD Nano Server.
11.
Connectez-vous à la console de récupération en utilisant l'administrateur et
le mot de passe que vous avez fournis lors de l'exécution du script à
l'étape 7.
12.
Obtenez l'adresse IP de l'ordinateur de Nano Server.
13.
Utilisez l'outil d'accès à distance Windows PowerShell (ou un autre outil de
gestion à distance) pour vous connecter et gérer le serveur à distance.
Déploiement de Nano Server sur une machine virtuelle
Pour créer un disque dur virtuel (VHD) Nano Server pour s'exécuter dans
une machine virtuelle :
1.
Téléchargez l'image du SE Windows Server 2016.
2.
Accédez au dossier NanoServer à partir du fichier téléchargé à l'étape 1.
3.
Copiez les fichiers suivants du dossier NanoServer sur un dossier de votre
disque dur :

NanoServerImageGenerator.psm1

Convert-WindowsImage.ps1
4.
Démarrez Windows PowerShell en tant qu'administrateur.
5.
Changez le répertoire au dossier dans lequel vous avez copié les fichiers à
l'étape 3.
6.
Importez le script NanoServerImageGenerator en entrant la commande
suivante :
Import-Module .\NanoServerImageGenerator.psm1 -Verbose
7.
Exécutez la commande Windows PowerShell suivante pour créer un VHD
qui définit un nom d'ordinateur et inclut les pilotes invités Hyper-V :
REMARQUE
La commande suivante vous demande un mot de passe
administrateur pour le nouveau VHD.
151
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
New-NanoServerImage –DeploymentType Guest –Edition
<Standard/Datacenter> -MediaPath <path to root of media>
-BasePath
.\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd
-ComputerName
<computer name> –GuestDrivers
Exemple :
New-NanoServerImage –DeploymentType Guest –Edition Datacenter
-MediaPath C:\tmp\TP4_iso\Bld_10586_iso
-BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.vhd
-ComputerName
Nano-VM1 –GuestDrivers
La commande précédente met environ 10 à 15 minutes pour créer un fichier
VHD. Voici un exemple de sortie de cette commande :
PS C:\Nano> New-NanoServerImage –DeploymentType Guest –Edition
Datacenter -MediaPath
C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath
.\Nano1\VM_NanoServer.vhd -ComputerName Nano-VM1 –GuestDrivers
cmdlet New-NanoServerImage at command pipeline position 1
Supply values for the following parameters:
Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10
Copyright (C) Microsoft Corporation.
All rights reserved.
Version 10.0.14300. 1000.amd64fre.rs1_release_svc.160324-1723
INFO
: Looking for the requested Windows image in the WIM file
INFO
: Image 1 selected (ServerTuva)...
INFO
: Creating sparse disk...
INFO
: Attaching VHD...
INFO
: Initializing disk...
INFO
: Creating single partition...
INFO
: Formatting windows volume...
INFO
: Windows path (G:) has been assigned.
INFO
: System volume location: G:
INFO
: Applying image to VHD. This could take a while...
INFO
: Image was applied successfully.
INFO
: Making image bootable...
INFO
: Fixing the Device ID in the BCD store on VHD...
INFO
: Drive is bootable.
INFO
: Closing VHD...
INFO
: Deleting pre-existing VHD : Base.vhd...
INFO
: Closing Windows image...
152
Cleaning up...
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
INFO
: Done.
Done. The log is at:
C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log
8.
Créez une nouvelle machine virtuelle dans le Gestionnaire Hyper-V, et
utilisez le VHD créé à l'étape 7.
9.
Démarrez la machine virtuelle.
10.
Connectez-vous à la machine virtuelle dans le Gestionnaire Hyper-V.
11.
Connectez-vous à la console de récupération en utilisant l'administrateur et
le mot de passe que vous avez fournis lors de l'exécution du script à
l'étape 7.
12.
Obtenez l'adresse IP de l'ordinateur de Nano Server.
13.
Utilisez l'outil d'accès à distance Windows PowerShell (ou un autre outil de
gestion à distance) pour vous connecter et gérer le serveur à distance.
Gestion à distance de Nano Server
Les options de gestion à distance de Nano Server comprennent : Windows
PowerShell, Windows Management Instrumentation (WMI), Windows Remote
Management et Emergency Management Services (EMS). Cette section décrit
comment accéder à Nano Server à l'aide de l'accès à distance Windows
PowerShell.
Gestion de Nano Server avec l'accès à distance Windows PowerShell
Pour gérer Nano Server avec l'accès à distance Windows PowerShell :
1.
Ajoutez l'adresse IP de Nano Server à la liste des hôtes de confiance de
votre ordinateur de gestion.
REMARQUE
Utilisez la console de récupération pour trouver l'adresse IP du
serveur.
2.
Ajoutez le compte que vous utilisez aux administrateurs de Nano Server.
3.
(Facultatif) Activez CredSSP, s'il y a lieu.
Ajout de Nano Server à une liste d'hôtes de confiance
À une invite Windows PowerShell avec élévation de privilèges, ajoutez Nano
Server à la liste des hôtes de confiance en entrant la commande suivante :
Set-Item WSMan:\localhost\Client\TrustedHosts "<IP address of Nano
Server>"
153
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
Exemples :
Set-Item WSMan:\localhost\Client\TrustedHosts "172.28.41.152"
Set-Item WSMan:\localhost\Client\TrustedHosts "*"
REMARQUE
La commande précédente définit tous les serveurs hôtes comme des hôtes
de confiance.
Démarrer la session Windows PowerShell à distance
À partir d'une session Windows PowerShell locale avec élévation de privilèges,
démarrez la session Windows PowerShell à distance en entrant les commandes
suivantes :
$ip = "<IP address of Nano Server>"
$user = "$ip\Administrator"
Enter-PSSession -ComputerName $ip -Credential $user
Vous pouvez maintenant exécuter les commandes Windows PowerShell sur
Nano Server comme d'habitude. Cependant, toutes les commandes Windows
PowerShell ne sont pas disponibles dans cette version de Nano Server. Pour
connaître les commandes disponibles, entrez la commande Get-Command
-CommandType Cmdlet. Pour arrêter la session distante, entrez la commande
Exit-PSSession.
Pour plus de détails sur Nano Server, rendez-vous sur :
https://technet.microsoft.com/en-us/library/mt126167.aspx
Gestion des adaptateurs QLogic sur Windows Nano Server
Pour gérer les adaptateurs QLogic dans les environnements Nano Server,
reportez-vous aux outils de gestion de l'interface graphique Windows
QConvergeConsole et de l'interface CLI Windows QLogic Control Suite et à la
documentation associée, disponibles sur le site Web de Cavium.
Configuration de RoCE
Pour gérer Nano Server avec l'accès à distance Windows PowerShell :
1.
Connectez-vous à Nano Server via l'accès à distance Windows PowerShell
à partir d'une autre machine. Par exemple :
PS C:\Windows\system32> $1p="172.28.41.152"
PS C:\Windows\system32> $user="172.28.41.152\Administrator"
PS C:\Windows\system32> Enter-PSSession -ComputerName $ip
-Credential $user
154
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
REMARQUE
Dans l'exemple précédent, l'adresse IP de Nano Server est
172.28.41.152 et le nom d'utilisateur est Administrator.
Si Nano Server se connecte avec succès, le message suivant est renvoyé :
[172.28.41.152]: PS C:\Users\Administrator\Documents>
2.
Pour déterminer si les pilotes sont installés et que la liaison est établie,
entrez la commande Windows PowerShell suivante :
[172.28.41.152]: PS C:\Users\Administrator\Documents>
Get-NetAdapter
La Figure 9-18 montre un exemple de sortie.
Figure 9-18. Commande Windows PowerShell : Get-NetAdapter
3.
Pour vérifier si RDMA est activé sur l'adaptateur, entrez la commande
Windows PowerShell suivante :
[172.28.41.152]: PS C:\Users\Administrator\Documents>
Get-NetAdapterRdma
La Figure 9-19 montre un exemple de sortie.
Figure 9-19. Commande Windows PowerShell : Get-NetAdapterRdma
4.
Pour attribuer une adresse IP et un ID VLAN à toutes les interfaces de
l'adaptateur, entrez les commandes Windows PowerShellsuivantes :
[172.28.41.152]: PS C:\> Set-NetAdapterAdvancedProperty
-InterfaceAlias "slot 1 port 1" -RegistryKeyword vlanid
-RegistryValue 5
155
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
[172.28.41.152]: PS C:\> netsh interface ip set address
name="SLOT 1 Port 1" static 192.168.10.10 255.255.255.0
5.
Pour créer un SMBShare sur Nano Server, entrez la commande Windows
PowerShell suivante :
[172.28.41.152]: PS C:\Users\Administrator\Documents>
New-Item -Path c:\ -Type Directory -Name smbshare -Verbose
La Figure 9-20 montre un exemple de sortie.
Figure 9-20. Commande Windows PowerShell : New-Item
[172.28.41.152]: PS C:\> New-SMBShare -Name "smbshare" -Path
c:\smbshare -FullAccess Everyone
La Figure 9-21 montre un exemple de sortie.
Figure 9-21. Commande Windows PowerShell : New-SMBShare
6.
Pour mapper le SMBShare en tant que lecteur réseau dans la machine
client, entrez la commande Windows PowerShell suivante :
REMARQUE
L'adresse IP d'une interface sur Nano Server est 192.168.10.10.
PS C:\Windows\system32> net use z: \\192.168.10.10\smbshare
This command completed successfully.
7.
Pour accéder en lecture-écriture au SMBShare et vérifier les statistiques
RDMA sur le Nano Server, entrez la commande Windows PowerShell
suivante :
[172.28.41.152]: PS C:\>
(Get-NetAdapterStatistics).RdmaStatistics
156
BC0154503-02 F
9–Windows Server 2016
Déploiement et gestion de Nano Server
La Figure 9-22 montre la sortie de la commande.
Figure 9-22. Commande Windows PowerShell : Get-NetAdapterStatistics
157
BC0154503-02 F
10
Dépannage
Ce chapitre fournit les informations de dépannage suivantes :

Liste de vérification pour le dépannage

« Vérification du chargement des pilotes à jour » à la page 159

« Vérification de la connectivité du réseau » à la page 160

« Virtualisation Microsoft avec Hyper-V » à la page 161

« Problèmes propres à Linux » à la page 161

« Problèmes divers » à la page 162

« Collecte des données de débogage » à la page 162
Liste de vérification pour le dépannage
PRÉCAUTION
Avant d'ouvrir l'armoire du serveur pour ajouter ou retirer l'adaptateur,
consultez la section « Mesures de sécurité » à la page 6.
La liste de vérification suivante recense les mesures recommandées pour
résoudre les problèmes éventuels lors de l'installation de l'adaptateur QL45212 ou
de son exécution sur votre système.

Examinez tous les câbles et les connexions. Vérifiez que les câbles
connectés à l'adaptateur réseau et au commutateur sont correctement
branchés.

Vérifiez l'installation de l'adaptateur en vous référant à la section
« Installation de l'adaptateur » à la page 7. Assurez-vous que l'adaptateur
est correctement positionné dans le logement. Vérifiez que le matériel ne
présente pas de problèmes, tels que la détérioration évidente de
composants de l'adaptateur ou du connecteur de bord PCI.

Vérifiez les paramètres de configuration et modifiez-les en cas de conflit
avec un autre périphérique.

Vérifiez que votre serveur utilise le BIOS le plus récent.
158
BC0154503-02 F
10–Dépannage
Vérification du chargement des pilotes à jour

Essayez d'insérer l'adaptateur dans un autre logement. Si cette nouvelle
position assure son fonctionnement, il se peut que le logement d'origine de
votre système soit défectueux.

Remplacez l'adaptateur défectueux par un adaptateur en bon état de
fonctionnement. Si le deuxième adaptateur fonctionne dans le logement où
le premier ne marchait pas, ce premier adaptateur est probablement
défectueux.

Installez l'adaptateur dans un autre système qui fonctionne, puis exécutez
de nouveau les tests. Si l'adaptateur réussit les tests dans le nouveau
système, le système d'origine est peut-être défectueux.

Retirez tous les autres adaptateurs du système et exécutez de nouveau les
tests. Si l'adaptateur subit les tests avec succès, il se peut que les autres
adaptateurs causent le conflit.
Vérification du chargement des pilotes à jour
Assurez-vous que les pilotes à jour sont chargés pour votre système Windows,
Linux ou VMware.
Vérification des pilotes dans Windows
Voir le Gestionnaire de périphériques pour afficher des informations essentielles
sur l'adaptateur, l'état de la liaison et la connectivité réseau.
Vérification des pilotes dans Linux
Pour vérifier que le pilote qed.ko est chargé correctement, utilisez la commande
suivante :
# lsmod | grep -i <module name>
Si le pilote est chargé, la sortie de cette commande affiche la taille du pilote en
octets. L'exemple suivant montre les pilotes chargés pour le module qed :
# lsmod | grep -i qed
qed
qede
199238
1
1417947
0
Si vous redémarrez après le chargement d'un nouveau pilote, vous pouvez utiliser
la commande suivante pour vérifier que le pilote actuellement chargé est bien la
version correcte.
modinfo qede
Sinon, vous pouvez utiliser la commande suivante :
[root@test1]# ethtool -i eth2
driver: qede
159
BC0154503-02 F
10–Dépannage
Vérification de la connectivité du réseau
version: 8.4.7.0
firmware-version: mfw 8.4.7.0 storm 8.4.7.0
bus-info: 0000:04:00.2
Si vous avez chargé un nouveau pilote mais que vous n'avez pas encore
redémarré, la commande modinfo n'affiche pas d'informations à jour sur le pilote.
Entrez plutôt la commande dmesg suivante pour afficher les journaux. Dans cet
exemple, la dernière entrée identifie le pilote qui sera actif au redémarrage.
# dmesg | grep -i "Cavium" | grep -i "qede"
[
10.097526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[
23.093526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[
34.975396] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[
34.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[ 3334.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
Vérification des pilotes dans VMware
Pour vérifier que les pilotes VMware ESXi sont chargés, entrez la commande
suivante :
# esxcli software vib list
Vérification de la connectivité du réseau
Cette section fournit les procédures pour tester la connectivité réseau dans les
environnements Windows et Linux.
REMARQUE
Lorsque vous utilisez des vitesses de liaison forcées, assurez-vous que
l'adaptateur et le commutateur sont forcés à la même vitesse.
Test de la connectivité réseau pour Windows
Testez la connectivité réseau à l'aide de la commande ping.
Pour déterminer si la connexion réseau fonctionne :
1.
Cliquez sur Démarrer, puis sur Exécuter.
2.
Dans la boîte de dialogue Ouvrir, saisissez cmd, puis cliquez sur OK.
3.
Pour afficher les connexions du réseau à tester, utilisez les commandes
suivantes :
ipconfig /all
160
BC0154503-02 F
10–Dépannage
Virtualisation Microsoft avec Hyper-V
4.
Utilisez la commande suivante puis appuyez sur ENTRÉE.
ping <ip_address>
Les statistiques ping affichées indiquent si la connectivité réseau fonctionne.
Test de la connectivité réseau pour Linux
Pour vérifier que l'interface Ethernet est opérationnelle :
1.
Pour vérifier l'état de l'interface Ethernet, entrez la commande ifconfig.
2.
Pour vérifier les statistiques de l'interface Ethernet, entrez la commande
netstat -i.
Pour vérifier que la connexion a été établie :
1.
Envoyez un ping à une adresse IP hôte sur le réseau. À partir de la ligne de
commande, entrez la commande suivante :
ping <ip_address>
2.
Appuyez sur ENTRÉE.
Les statistiques ping affichées indiquent si la connectivité réseau fonctionne.
La vitesse de liaison de l'adaptateur peut être forcée à 10 Gbits/s ou à 25 Gbits/s
à l'aide de l'outil d'interface graphique (GUI) du système d'exploitation ou avec la
commande ethtool –s ethX speed SSSS Configurez les deux ports de
l'adaptateur QL45212 à la même vitesse, à 10 Gbits/s ou à 25 Gbits/s
simultanément.
Virtualisation Microsoft avec Hyper-V
La virtualisation Microsoft est un système de virtualisation avec hyperviseur pour
Windows Server 2012 R2. Pour plus d'informations sur Hyper-V, rendez-vous sur :
https://technet.microsoft.com/en-us/library/Dn282278.aspx
Problèmes propres à Linux
Problème :
Des erreurs surviennent lors de la compilation du code source du
pilote.
Solution :
Certaines installations de distributions Linux n'installent pas les
outils de développement ni les kernel-sources (sources du noyau)
par défaut. Avant de compiler le code source du pilote, vérifiez que
les outils de développement de la distribution Linux que vous
utilisez sont installés.
161
BC0154503-02 F
10–Dépannage
Problèmes divers
Problèmes divers
Problème :
L'adaptateur QL45212 s'est arrêté et un message d'erreur
s'affiche, indiquant une défaillance de son ventilateur.
Solution :
L'adaptateur adaptateur QL45212 peut s'arrêter intentionnellement
afin d'éviter d'endommager le matériel de manière irréversible.
Contactez le support technique Cavium pour obtenir de l'aide.
Collecte des données de débogage
Utilisez les commandes du Tableau 10-1 pour collecter les données de débogage.
Tableau 10-1. Commandes de collecte des données de débogage
Données de
débogage
Description
demesg-T
Journaux du noyau
ethtool-d
Vidage de registre
sys_info.sh
Informations système ; celles-ci sont disponibles
dans le groupe de pilotes.
162
BC0154503-02 F
A
Voyants de l'adaptateur
Le Tableau A-1 répertorie les voyants d'état de liaison et d'activité de port de
l'adaptateur.
Tableau A-1. Voyants de liaison et d'activité de port de l'adaptateur
Voyant de port
Voyant de liaison
Voyant d'activité
État du voyant
État du réseau
Désactivé
Pas de liaison (câble déconnecté)
Allumé (sans clignotement)
Liaison
Désactivé
Aucune activité de port
Clignotement
Activité de port
163
BC0154503-02 F
B
Câbles et modules optiques
Cette annexe fournit les informations suivantes concernant les câbles et les
modules optiques pris en charge :

Spécifications prises en charge

« Câbles et modules optiques testés » à la page 165

« Commutateurs testés » à la page 166
Spécifications prises en charge
Les adaptateurs QL45212 prennent en charge divers câbles et modules optiques
conformes à SFF8024. Voici la conformité en matière de facteur de forme
spécifique :



SFP :

SFF8472 (pour la carte mémoire)

SFF8419 ou SFF8431 (signaux à faible vitesse et alimentation)
QSFP (Quad small form factor pluggable) :

SFF8636 (pour la carte mémoire)

SFF8679 ou SFF8436 (signaux à faible vitesse et alimentation)
Entrées/sorties électriques des modules optiques, câbles en cuivre actifs
(ACC) et câbles optiques actifs (AOC) :

10 G – SFF8431 Interface de limitation

25 G – IEEE802.3by Annexe 109B (25GAUI)
164
BC0154503-02 F
B–Câbles et modules optiques
Câbles et modules optiques testés
Câbles et modules optiques testés
Cavium ne garantit pas que tous les câbles ou modules optiques qui satisfont aux
exigences de conformité fonctionneront avec les adaptateurs QL45212.
L'adaptateur QL45212 prend en charge les DAC 3 m et les AOC 30 m, mais il ne
prend pas en charge les optiques 25G SR. Cavium a testé l'adaptateur QL45212
pour l'interopérabilité avec les câbles répertoriés dans le Tableau B-1.
Tableau B-1. Câbles et modules optiques testés
Vitesse/
Facteur
de forme
Fabricant
Référence
Type
Longueur Calibre
de câble a
Câbles
Dell
DAC
10 G b
Cisco
HP®
Amphenol®
DAC 25 G
HP
407-BBBK
Câble Twinax SFP 10G
1
30
407-BBBI
Câble Twinax SFP 10G
3
26
COPQAA4JAA
Câble Twinax SFP 10G
1
30
COPQAA6JAA
Câble Twinax SFP 10G
3
26
2074260-2
Câble Twinax SFP 10G
1
26
AP784A
Câble Twinax SFP 10G
3
26
NDCCGF0001
SFP28 à SFP28
1
30
NDCCGF0003
SFP28 à SFP28
3
30
NDCCGJ0003
SFP28 à SFP28
3
26
844474-B21
SFP28 à SFP28
1
26
844477-B21
SFP28 à SFP28
3
26
Solutions optiques
10G AOC c
Dell
470-ABLV
SFP 10G AOC
2
S/O
470-ABLZ
SFP 10G AOC
3
S/O
470-ABLT
SFP 10G AOC
5
S/O
470-ABML
SFP 10G AOC
7
S/O
470-ABLU
SFP 10G AOC
10
S/O
470-ABMD
SFP 10G AOC
15
S/O
470-ABMJ
SFP 10G AOC
15
S/O
165
BC0154503-02 F
B–Câbles et modules optiques
Commutateurs testés
Tableau B-1. Câbles et modules optiques testés (Suite)
Vitesse/
Facteur
de forme
Fabricant
25G AOC
InnoLight
Référence
Type
Longueur
Calibre
de câble a
TF-PY003-N00
SFP28 AOC
3
S/O
TF-PY020-N00
SFP28 AOC
20
S/O
a
La longueur de câble est indiquée en mètres.
b
DAC est un câble d'attache directe.
c
AOC est un câble optique actif.
Commutateurs testés
Le Tableau B-2 répertorie les commutateurs qui ont été testés pour
l'interopérabilité avec les adaptateurs QL45212. Cette liste est basée sur les
commutateurs disponibles au moment de la publication du produit et est
susceptible de changer avec le temps lorsque de nouveaux commutateurs sont
commercialisés ou lorsque des commutateurs existants sont abandonnés.
Tableau B-2. Commutateurs testés pour l'interopérabilité
Fabricant
Arista
Modèle de commutateur Ethernet
7060X
7160
Nexus 3132
Nexus 3232C
Cisco
Nexus 5548
Nexus 5596T
Nexus 6000
Dell EMC
HPE
Mellanox®
S6100
Z9100
FlexFabric 5950
SN2410
SN2700
166
BC0154503-02 F
C
Configuration du
commutateur Dell Z9100
Les adaptateurs QL45212 prennent en charge les connexions avec le
commutateur Ethernet Dell Z9100. Cependant, tant que le processus de
négociation automatique n'est pas standardisé, le commutateur doit être
explicitement configuré pour se connecter à l'adaptateur à 25 Gbits/s.
Pour configurer un port de commutateur Dell Z9100 pour la connexion à
l'adaptateur QL45212 à 25 Gbits/s :
1.
Établissez une connexion de port série entre votre station de travail de
gestion et le commutateur.
2.
Ouvrez une session de ligne de commande et connectez-vous au
commutateur comme suit :
Login: admin (Connexion commutateur : admin)
Password: admin (Connexion commutateur : admin)
3.
Activez la configuration du port du commutateur :
Dell> enable
Password: xxxxxx
Dell# config
4.
Identifiez le module et le port à configurer. Dans l'exemple suivant, le
module 1, port 5 est utilisé :
Dell(conf)#stack-unit 1 port 5 ?
portmode
Set portmode for a module
Dell(conf)#stack-unit 1 port 5 portmode ?
dual
Enable dual mode
quad
Enable quad mode
single
Enable single mode
Dell(conf)#stack-unit 1 port 5 portmode quad ?
speed
Each port speed in quad mode
Dell(conf)#stack-unit 1 port 5 portmode quad speed ?
10G
Quad port mode with 10G speed
167
BC0154503-02 F
C–Configuration du commutateur Dell Z9100
25G
Quad port mode with 25G speed
Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G
Pour plus d'informations sur le changement de la vitesse de liaison de
l'adaptateur, voir « Vérification de la connectivité du réseau » à la page 160.
5.
Vérifiez que le port fonctionne à 25 Gb/s :
Dell# Dell#show running-config | grep "port 5"
stack-unit 1 port 5 portmode quad speed 25G
6.
Pour désactiver la négociation automatique sur le port de commutateur 5,
procédez comme suit :
a.
Identifiez l'interface de port de commutateur (module 1, port 5,
interface 1) et confirmez l'état de la négociation automatique :
Dell(conf)#interface tw 1/5/1
Dell(conf-if-tf-1/5/1)#intf-type cr4 ?
autoneg
b.
Enable autoneg
Désactivez la négociation automatique :
Dell(conf-if-tf-1/5/1)#no intf-type cr4 autoneg
c.
Vérifiez que la négociation automatique est désactivée.
Dell(conf-if-tf-1/5/1)#do show run interface tw 1/5/1
!
interface twentyFiveGigE 1/5/1
no ip address
mtu 9416
switchport
flowcontrol rx on tx on
no shutdown
no intf-type cr4 autoneg
Pour plus d'informations sur la configuration du commutateur Dell Z9100,
reportez-vous au Guide de configuration du commutateur Dell Z9100 sur le site
Web de support Dell :
support.dell.com
168
BC0154503-02 F
Glossaire
ARI
Alternative Routing-ID Interpretation. La
fonction ARI PCI-SIG offre un mécanisme
qui permet à un seul périphérique PCIe de
prendre en charge jusqu'à 256 fonctions
physiques (PF). Les systèmes
d'exploitation actuels autorisent l'utilisation
d'un maximum de 16 fonctions physiques
(PF) par périphérique lorsqu'ARI est activé
dans le BIOS système, et d'un maximum
de 8 PF par périphérique si ARI est
désactivé.
ACPI
La unitalicize Advanced Configuration and
Power Interface (ACPI) fournit une norme
ouverte pour la gestion de l'alimentation et
la configuration unifiées de périphériques
axées sur le système d'exploitation. ACPI
définit des interfaces indépendantes de la
plateforme pour la détection, la
configuration, la gestion de l'alimentation
et la surveillance de matériel. La
spécification est au cœur de la gestion de
l'alimentation et de la configuration
dirigées par le système d'exploitation
(OSPM), un terme utilisé pour décrire un
système mettant en œuvre ACPI, qui
enlève ainsi les responsabilités de gestion
de périphériques aux interfaces de
micrologiciel existantes.
bande passante
Mesure du volume de données pouvant
être transmises à une vitesse de
transmission donnée. Un port Fibre
Channel 1 Gb/s ou 2 Gb/s peut effectuer
des transmissions/réceptions à des
vitesses nominales d'1 ou 2 Gb/s en
fonction du périphérique auquel il est
connecté. Cela correspond à des valeurs
de bande passante réelle de 106 Mo et
212 Mo.
adaptateur
Carte d'interface entre le système hôte et
les périphériques cibles. Le terme
Adaptateur est synonyme de Bus
d'adaptateur hôte (HBA), adaptateur hôte
et carte.
BAR
Base address register. Sert à conserver
les adresses mémoire utilisées par un
périphérique ou les décalages des
adresses de port. En règle générale, les
BAR d'adresses mémoire doivent être
situés dans la RAM physique, tandis que
les BAR d'espace d'E/S peuvent résider à
n'importe quelle adresse mémoire (même
au-delà de la mémoire physique).
Advanced Configuration and Power
Interface
Voir ACPI.
169
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
base address register
Voir BAR.
data center bridging
Voir DCB.
BIOS
Système d'entrées/sorties de base. En
règle générale dans la PROM Flash,
programme (ou utilitaire) qui sert
d'interface entre le matériel et le système
d'exploitation, et permet l'amorçage à
partir de l'adaptateur au démarrage.
data center bridging exchange
Voir DCBX.
DCB
Data center bridging. Apporte des
améliorations aux spécifications de
pont 802.1 afin de satisfaire les exigences
des protocoles et applications du centre
de données. Comme les centres de
données hautes performances actuels
comprennent généralement plusieurs
réseaux propres à une application
exécutés avec différentes technologies de
couche de liaison (Fibre Channel pour le
stockage, Ethernet pour la gestion réseau
et la connectivité LAN), DCB permet
d'utiliser des ponts 802.1 pour le
déploiement d'un réseau convergent où
toutes les applications peuvent être
exécutées sur une seule infrastructure
physique.
carte réseau
Voir NIC.
cible
Point final de périphérique de stockage
d'une session SCSI. Les initiateurs
demandent des données à partir de cibles.
Les cibles sont généralement des lecteurs
de disque, des lecteurs de bande ou
d'autres périphériques multimédias. En
règle générale, un périphérique SCSI est
la cible, mais un adaptateur peut, dans
certains cas, être une cible. Une cible peut
contenir plusieurs LUN.
Une cible est un périphérique qui répond à
une requête d'un initiateur (le système
hôte). Les périphériques sont des cibles,
mais pour certaines commandes (par
exemple, une commande SCSI COPY), le
périphérique peut agir comme initiateur.
DCBX
Data center bridging exchange. Protocole
utilisé par les périphériques DCB pour
échanger des informations de
configuration avec leurs homologues en
connexion directe. Ce protocole peut
également être utilisé pour la détection
des erreurs de configuration et pour la
configuration de l'homologue.
Couche 2
Se réfère à la couche de liaison de
données du modèle de communication
multicouches OSI (Open Systems
Interconnection). La fonction de la couche
de liaison de données consiste à déplacer
des données sur les liaisons physiques
d'un réseau, où un commutateur redirige
les messages de données au niveau de la
couche 2 à l'aide de l'adresse MAC de
destination pour déterminer la destination
du message.
DHCP
Dynamic host configuration protocol.
Permet aux ordinateurs situés sur un
réseau IP d'extraire leur configuration des
serveurs qui ont des informations sur
l'ordinateur uniquement après leur
requête.
Dynamic Host Configuration Protocol
Voir DHCP.
170
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
Ethernet
Technologie LAN la plus utilisée qui
transmet des informations entre des
ordinateurs, typiquement à des vitesses
de 10 et 100 millions de bits par seconde
(Mbits/s).
eCore
Une couche entre le système
d'exploitation et le matériel et le
micrologiciel. Elle est propre au
périphérique et indépendante du SE.
Lorsque le code eCore nécessite des
services de SE (par exemple, pour
l'allocation de mémoire, l'accès à l'espace
de configuration PCI, etc.), il appelle une
fonction SE abstraite implémentée dans
des couches spécifiques au SE. Les flux
eCore peuvent être gérés par le matériel
(par exemple, via une interruption) ou par
la partie spécifique du SE du pilote (par
exemple, charger et décharger le
chargement et le déchargement).
Ethernet écoénergétique
Voir EEE.
ETS
Enhanced transmission selection. Norme
qui spécifie l'amélioration de la sélection
d'émission afin de prendre en charge
l'allocation de bande passante parmi les
classes de trafic Lorsque la charge offerte
d'une classe de trafic n'utilise pas toute la
bande passante allouée, la sélection
d'émission améliorée (ETS) permet aux
autres classes de trafic d'utiliser la bande
passante disponible. Les priorités
d'allocation de bande passante coexistent
avec les priorités strictes. ETS comprend
des objets gérés pour prendre en charge
l'allocation de bande passante. Pour plus
d'informations, reportez-vous à :
http://ieee802.org/1/pages/802.1az.html
EEE
Ethernet écoénergétique. Un ensemble
d'améliorations de la gamme Ethernet à
paires torsadées et de fond de panier de
normes de mise en réseau d'ordinateurs
qui permet d'obtenir une consommation
électrique moindre pendant les périodes
de faible activité de données. L'objectif
était de réduire la consommation
électrique de 50 pour cent ou plus, tout en
conservant la compatibilité totale avec
l'équipement existant. L'Institute of
Electrical and Electronics Engineers
(IEEE), par le biais du groupe de travail
IEEE 802.3az, a développé la norme.
extensible firmware interface
Voir EFI.
FCoE
Fibre Channel over Ethernet. Une nouvelle
technologie définie par l'organisme de
normalisation T11, qui permet au trafic
réseau de stockage Fibre Channel
traditionnel de se déplacer sur une liaison
Ethernet en encapsulant les trames Fibre
Channel dans des trames Ethernet de
couche 2. Pour plus d'informations,
rendez-vous sur www.fcoe.com.
EFI
Extensible firmware interface.
Spécification qui définit une interface
logicielle entre un système d'exploitation et
le micrologiciel de plateforme. EFI
remplace l'ancienne interface de
micrologiciel BIOS présente sur tous les
ordinateurs personnels compatibles
IBM PC.
Fibre Channel over Ethernet (FCoE)
Voir FCoE.
enhanced transmission selection
Voir ETS.
171
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
IQN
iSCSI qualified name. Nom de nœud
iSCSI basé sur le fabricant de l'initiateur
et une section de nom de périphérique
unique.
file transfer protocol
Voir FTP.
FTP
File transfer protocol. Protocole de réseau
standard servant à transférer des fichiers
d'un hôte à un autre sur un réseau TCP, tel
que Internet. FTP est requis pour les
chargements hors bande de micrologiciel
qui s'effectueront plus rapidement que des
chargements de micrologiciel intrabande.
iSCSI
Internet small computer system interface.
Protocole qui encapsule les données dans
des paquets IP à envoyer sur des
connexions Ethernet.
iSCSI qualified name
Voir IQN.
HII
Human interface infrastructure.
Spécification (qui fait partie de la norme
UEFI 2.1) utilisée pour la gestion des
saisies utilisateur, des chaînes localisées,
des polices et des formulaires, qui permet
aux OEM de développer des interfaces
graphiques pour la configuration de
préamorçage.
large send offload
Voir LSO.
Link Layer Discovery Protocol (Protocole
de découverte de couche liaison)
Voir LLDP.
LLDP
Un protocole de Couche 2 neutre quant au
fournisseur qui permet à un périphérique
réseau de publier son identité et ses
capacités sur le réseau local. Ce protocole
supplante des protocoles exclusifs comme
le Cisco Discovery Protocol, l'Extreme
Discovery Protocol et le Nortel Discovery
Protocol (également connu sous le nom
SONMP).
Les informations récoltées avec le
protocole LLDP sont stockées dans le
périphérique et peuvent être interrogées à
l'aide de SNMP. La topologie d'un réseau
à capacité LLDP peut être détectée en
analysant les hôtes et en interrogeant
cette base de données.
human interface infrastructure
Voir HII.
IEEE
Institute of Electrical and Electronics
Engineers. Organisation internationale à
but non lucratif dédiée aux progrès des
technologies liées à l'électricité.
interface virtuelle
Voir VI.
Internet small computer system interface
Voir iSCSI.
IP
Internet protocol. Méthode par laquelle les
données sont envoyées d'un ordinateur à
l'autre sur Internet. IP spécifie le format
des paquets, également appelés
datagrammes et le schéma d'adressage.
172
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
LSO
Large send offload. Fonction d'adaptateur
Ethernet qui permet à la pile de réseau
TCP\IP de construire un grand message
TCP (jusqu'à 64 Ko) avant de l'envoyer à
l'adaptateur. Le matériel de l'adaptateur
segmente le message en petits paquets
de données (trames) à envoyer sur le
câble : jusqu'à 1 500 octets pour les
trames Ethernet standard et jusqu'à
9 000 octets pour les trames Ethernet
étendues. La procédure de segmentation
libère l'UC du serveur d'avoir à segmenter
les grands messages TCP en petits
paquets adaptés à la taille de trame prise
en charge.
MSI-X (définie dans PCI 3.0) permet à un
périphérique d'allouer un nombre
quelconque d'interruptions entre 1 et 2 048
et donne à chaque interruption des
registres d'adresses et de données
séparés. Les fonctions facultatives de MSI
(adressage 64 bits et masquage
d'interruption) sont obligatoires avec
MSI-X.
MTU
Maximum transmission unit. Désigne la
taille (en octets) du plus grand paquet
(datagramme IP) qu'une couche de
protocole de communication spécifiée
peut transférer.
NIC
Carte réseau Carte d'ordinateur installée
pour permettre une connexion réseau
dédiée.
lternative Routing-ID Interpretation
Voir ARI.
machine virtuelle
Voir VM.
NPAR
partitionnement NIC. Division d'un port
NIC en plusieurs partitions ou fonctions
physiques, dotées chacune d'une bande
passante et d'une personnalité (type
d'interface) configurables par l'utilisateur.
Les personnalités comprennent NIC,
FCoE et iSCSI.
maximum transmission unit
Voir MTU.
mémoire à accès aléatoire non volatile
Voir NVRAM.
message signaled interrupts
Voir MSI, MSI-X.
NVRAM
Mémoire à accès aléatoire non volatile. Un
type de mémoire qui conserve les
données (paramètres de configuration)
même en cas de coupure de
l'alimentation. Vous pouvez configurer
manuellement les paramètres NVRAM ou
les restaurer à partir d'un fichier.
MSI, MSI-X
Message signaled interrupts. L'une de
deux extensions définies par PCI pour
prendre en charge les interruptions
signalées par des messages (MSI), dans
PCI 2.2 et versions ultérieures et PCI
Express. Les MSI constituent une autre
façon de générer une interruption par
l'intermédiaire de messages spéciaux qui
permettent l'émulation d'une assertion ou
désassertion de pin.
OFED™
OpenFabrics Enterprise Distribution. Un
logiciel libre pour des applications RDMA
et de contournement de noyau.
173
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
partitionnement NIC
Voir NPAR.
QoS
Qualité de service. Fait référence aux
méthodes utilisées pour éviter les goulets
d'étranglement et pour garantir la
continuité des activités lors de la
transmission de données sur des ports
virtuels, en définissant des priorités et en
allouant de la bande passante.
PCI Express (PCIe)
Norme d'E/S de troisième génération qui
permet des performances réseau Ethernet
optimisées au-delà de celles des
logements d'ordinateurs de bureau et de
serveur PCI (peripheral component
interconnect) et PCI-X (PCI extended).
qualité de service
Voir QoS.
PCI™
Peripheral component interface.
Spécification de bus local 32 bits introduite
par Intel®.
RDMA
Remote direct memory access. Capacité
d'un nœud à écrire directement dans la
mémoire d'un autre (avec sémantique
d'adresse et de taille) sur un réseau. Cette
capacité est une fonction essentielle des
réseaux d'interface virtuelle (VI).
périphérique
Une cible, généralement un lecteur de
disque. Matériel tel qu'un lecteur de
disque, un lecteur de bande, une
imprimante ou un clavier installé sur ou
connecté à un système. Dans Fibre
Channel, un périphérique cible.
RDMA over Converged Ethernet
Voir RoCE.
reduced instruction set computer
Voir RISC.
PF
Fonction physique.
remote direct memory access
Voir RDMA.
pilote
Logiciel d'interface entre le système de
fichiers et un périphérique physique de
stockage de données ou un support de
réseau.
réseau logique virtuel
Voir VLAN.
RISC
Reduced instruction set computer.
Microprocesseur informatique qui exécute
des instructions informatiques de moins de
types, fonctionnant ainsi à des vitesses
plus élevées.
port d'adaptateur
Port sur la carte adaptateur.
Protocole Internet
Voir IP.
174
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
RoCE
RDMA over Converged Ethernet.
Protocole réseau qui permet l'accès
mémoire direct à distance (RDMA) sur un
réseau Ethernet convergent ou non. RoCE
est un protocole de couche de liaison qui
permet les communications entre deux
hôtes d'un même domaine de
diffusion Ethernet.
SR-IOV
Single root input/output virtualization.
Spécification de PCI-SIG qui permet à un
périphérique PCIe d'apparaître sous la
forme de plusieurs périphériques PCIe
physiques distincts. SR-IOV permet
d'isoler les ressources PCIe à des fins de
performance, d'interopérabilité et de
gestion.
SCSI
Small computer system interface. Interface
haut débit utilisée pour connecter des
périphériques, tels que des disques durs,
des lecteurs de CD, des imprimantes et
des scanners, à un ordinateur. SCSI peut
connecter de nombreux périphériques à
l'aide d'un seul contrôleur. Chaque
périphérique est identifié par un numéro
d'identification individuel sur le bus du
contrôleur SCSI.
système d'entrées/sorties de base
Voir BIOS.
TCP
Transmission control protocol. Ensemble
de règles pour envoyer des données en
paquets sur IP.
TCP/IP
Transmission control protocol/Internet
protocol. Langage de communication de
base d'Internet.
SerDes
Serializer/deserializer. Paire de blocs
fonctionnels couramment utilisés au cours
des communications à haute vitesse pour
compenser l'entrée/sortie limitée. Ces
blocs convertissent les données entre les
données série et les interfaces parallèles
dans chaque direction.
TLV
Type-length-value. Informations
facultatives pouvant être codées en tant
qu'élément à l'intérieur du protocole. Les
champs de type et de longueur sont de
taille fixe (en règle générale, 1-4 octets) et
le champ de valeur est de taille variable.
Ces champs sont utilisés comme suit :
 Type : code numérique qui indique le
type de champ que représente cette
partie du message.
 Longueur : taille du champ de valeur
(généralement en octets).
 Valeur : ensemble d'octets de taille
variable qui contient les données de
cette partie du message.
serializer/deserializer
Voir SerDes.
single root input/output virtualization
Voir SR-IOV.
small computer system interface
Voir SCSI.
175
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
unified extensible firmware interface
Voir UEFI.
trames étendues
Grandes trames IP utilisées dans les
réseaux haute performance pour
augmenter les performances sur de
longues distances. Les trames étendues
correspondent généralement à
9 000 octets pour Gigabit Ethernet, mais
peuvent se référer à tout ce qui dépasse la
MTU IP, qui est égale à 1 500 octets sur un
réseau Ethernet.
user datagram protocol
Voir UDP.
VF
Fonction virtuelle.
VI
Interface virtuelle. Système d'accès
mémoire direct à distance sur
Fibre Channel et autres protocoles de
communication. Utilisé pour les clusters et
les messages.
transmission control protocol
Voir TCP.
transmission control protocol/Internet
protocol
Voir TCP/IP.
VLAN
Réseau logique virtuel. Groupe d'hôtes
dotés d'un ensemble commun d'exigences
qui communiquent comme s'ils étaient
attachés au même câble, quel que soit
leur emplacement physique. Bien qu'un
VLAN ait les mêmes attributs qu'un LAN
physique, il permet de regrouper des
stations finales même si celles-ci ne sont
pas situées sur le même segment de LAN.
Les VLAN permettent de reconfigurer le
réseau via un logiciel, au lieu de déplacer
physiquement les périphériques.
type-length-value
Voir TLV.
UDP
User datagram protocol. Protocole de
transport sans connexion qui n'offre
aucune garantie de séquence ou livraison
des paquets. Il fonctionne directement sur
IP.
UEFI
Unified extensible firmware interface.
Spécification qui détaille une interface
servant à transmettre le contrôle du
système pour l'environnement de
préamorçage (après l'allumage du
système, mais avant le démarrage du
système d'exploitation) à un système
d'exploitation, comme Windows ou Linux.
UEFI fournit une interface « propre » entre
les systèmes d'exploitation et le
micrologiciel de plateforme lors de
l'amorçage, et prend en charge un
mécanisme indépendant de l'architecture
pour l'initialisation des cartes d'extension.
VM
Machine virtuelle. Mise en œuvre logicielle
d'une machine (ordinateur) qui exécute
des programmes comme une machine
réelle.
Wake on LAN
Voir WoL.
176
BC0154503-02 F
Guide d’utilisation—Adaptateur Ethernet intelligent
QL45212
WoL
Wake on LAN. Norme de réseau
informatique Ethernet qui permet à un
ordinateur d'être allumé ou réveillé à
distance par un message réseau envoyé
généralement par un simple programme
exécuté sur un autre ordinateur du réseau.
177
BC0154503-02 F
Siège social
Cavium, Inc.
2315 N. First Street
San Jose, CA 95131
408-943-7100
Bureaux internationaux Royaume-Uni | Irlande | Allemagne | France | Inde | Japon | Chine | Hong Kong | Singapour | Taïwan |
Israël
Copyright © 2015–2018 Cavium, Inc. Tous droits réservés dans le monde entier. QLogic Corporation est une filiale à part entière de Cavium, Inc. Cavium, FastLinQ, QConvergeConsole, QLogic
et SmartAN sont des marques déposées de Cavium, Inc. Tous les autres noms de marque et de produit sont des marques commerciales ou des marques déposées de leurs propriétaires respectifs.
Ce document est fourni uniquement à titre informatif et peut contenir des erreurs. Cavium se réserve le droit de modifier ce document ou la conception ou les spécifications du produit sans avis
préalable. Cavium rejette toute garantie de quelque sorte que ce soit, expresse ou implicite, et ne garantit pas que vous obtiendrez un quelconque résultat ou performance décrit dans ce
document. Toutes les déclarations concernant les futures direction et intention de Cavium sont sujettes à modification ou annulation sans préavis et ne représentent que des buts et objectifs.

Manuels associés