Dell Intel PRO Family of Adapters Manuel utilisateur

Ajouter à Mes manuels
227 Des pages
Dell Intel PRO Family of Adapters Manuel utilisateur | Fixfr
Appareils et cartes Ethernet Intel®
Guide de l'utilisateur
Présentation
Bienvenue sur le Guide de l'utilisateur des cartes et périphériques Ethernet Intel®. Ce guide couvre l'installation du
matériel et du logiciel, les procédures de configuration et contient des conseils de dépannage pour les cartes réseau
Intel®, les connexions et d'autres périphériques.
Installation de la carte réseau
Si vous installez une carte réseau, commencez à l’étape 1.
Si vous mettez à niveau le logiciel pilote, commencez à l'étape 4.
REMARQUE : si vous mettez à jour le microprogramme, le pilote doit aussi être de la même version.
1. Consultez la configuration minimale requise.
2. Insérez la carte PCI Express, la carte mezzanine ou la carte fille réseau dans votre serveur.
3. Connectez soigneusement le ou les câbles réseau en cuivre, le ou les câbles réseau à fibre optique ou les
câbles directs.
4. Installation des pilotes réseau et d'autres logiciels
l
Instructions sous Windows
l
Instructions sous Linux
5. Test de la carte réseau.
Avant de commencer
Périphériques pris en charge
Cartes réseau 40 Gigabit prises en charge
l
l
Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Carte réseau convergent Ethernet Intel® XL710-Q2
REMARQUE : le débit total pris en charge par la carte réseau Intel® XL710 est de 40 Gbit/s, même lorsqu'elle
est associée à deux connexions de 40 Gbit/s.
Cartes réseau 25 Gigabit prises en charge
l
l
Carte mezzanine Ethernet Intel® 25G 2P XXV710
Carte réseau Ethernet Intel® 25G 2P XXV710
Cartes réseau 10 Gigabit prises en charge
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
Carte réseau Ethernet Intel® 10G 2P X520
Carte réseau Ethernet Intel® 10G X520 LOM
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Carte réseau Ethernet Intel® 10G 2P X540-t
Carte réseau Ethernet Intel® 10G 2P X550-t
Carte réseau Ethernet Intel® 10G 4P X550 rNDC
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC
Carte Ethernet Intel® 10G 4P X520/I350 rNDC
Carte réseau Ethernet Intel® 10G 2P X520-k bNDC
Carte réseau Ethernet Intel® 10G 4P X710-k bNDC
Carte réseau Ethernet Intel® 10G 2P X710-k bNDC
Carte réseau Ethernet Intel® 10G X710-k bNDC
Carte réseau convergent Ethernet Intel® X710
Carte réseau convergent Ethernet Intel® X710-T
Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC
Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC
Carte réseau Ethernet Intel® 10G X710 rNDC
Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP
REMARQUE : le premier port d'une carte réseau X710 et XXV710 affiche la chaîne de marquage correcte. Tous
les autres ports du même périphérique affichent une chaîne de marquage générique.
Cartes réseau Gigabit et périphériques pris en charge
l
l
l
l
l
l
l
l
l
l
l
l
l
Carte Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P X550/I350 rNDC
Carte Intel® Gigabit 4P I350-t rNDC
Carte Intel® Gigabit 4P X540/I350 rNDC
Carte Intel® Gigabit 4P X520/I350 rNDC
Carte mezzanine Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P X710/l350 rNDC
Carte Intel® Gigabit 4P I350 bNDC
Fond de panier Connexion Ethernet Intel® I354 1.0 GbE
Carte Intel® Gigabit 2P I350-t LOM
Carte Intel® Gigabit I350-t LOM
Carte Intel® Gigabit 2P I350 LOM
Remarques de compatibilité
Pour qu'une carte reposant sur le contrôleur XL710 atteigne son plein potentiel, vous devez l'installer dans un emplacement PCIe x8 de troisième génération. L'installation dans un emplacement plus court ou dans un emplacement de
première ou deuxième génération limitera le débit de la carte.
Systèmes d’exploitation pris en charge
Systèmes d’exploitation d’architecture Intel® 64 pris en charge
l
l
l
l
l
l
Microsoft* Windows Server* 2012 R2
Microsoft Windows Server 2016
Microsoft Windows Server 2016 Nano Server
VMWare* ESXi* 6.0 U3
Red Hat* Enterprise Linux* (RHEL) 6.9
Novell* SUSE* Linux Enterprise Server (SLES) 12 SP3
REMARQUE : les périphériques suivants prennent également en charge Microsoft Windows 7 x64, Windows
8.1 x64, Windows 10 x64, RHEL 7.3 x64 et SLES 12 SP2 x64. Les systèmes d'exploitation Microsoft Windows
32 bits ne sont pas pris en charge dans cette version.
l
Carte Intel® Gigabit 4P I350-t rNDC
l
Carte Intel® Gigabit 4P X550/I350 rNDC
l
Carte Intel® Gigabit 4P X710/I350 rNDC
l
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
l
Carte réseau Ethernet Intel® 10G 4P X710/I350 rNDC (non pris en charge sur Windows 8.1 x64)
Compatibilité matérielle
Avant d'installer la carte, vérifiez que le système répond aux exigences suivantes :
l
Dernière version du BIOS de votre système
l
Un emplacement PCI Express ouvert (voir les spécifications de votre carte pour connaître la compatibilité des
emplacements)
Spécifications des câbles
Cartes réseau Intel Gigabit
Câbles à fibres optiques
l
l
Longueur d'onde du laser : 850 nanomètres (invisible).
Type de câble SC :
l
Fibre optique multimode à cœur de 50 microns de diamètre, d'une longueur maximale de 550 mètres.
l
Fibre optique multimode à cœur de 62,5 microns de diamètre, d'une longueur maximale de 275 mètres.
l
Type de connecteur : SC.
Câbles en cuivre
l
1000BASE-T ou 100BASE-TX avec câble en cuivre à 4 paires torsadées de catégorie 5 ou 5e :
l
Veillez à utiliser des câbles de catégorie 5 conformes aux spécifications de câblage de la norme TIA568. Pour obtenir de plus amples informations sur ces spécifications, visitez le site Web de l’association
Telecommunications Industry Association : www.tiaonline.org.
l
La longueur maximale est de 100 mètres.
l
Le câblage de catégorie 3 ne fonctionne qu’à 10 Mbit/s.
Cartes réseau Intel 10 Gigabit
Câbles à fibres optiques
l
l
Longueur d'onde du laser : 850 nanomètres (invisible).
Type de câble SC :
l
Fibre optique multimode à cœur de 50 microns de diamètre, d'une longueur maximale de 550 mètres.
l
Fibre optique multimode à cœur de 62,5 microns de diamètre, d'une longueur maximale de 275 mètres.
l
Type de connecteur : SC.
Câbles en cuivre
l
l
Les longueurs maximales pour les cartes Intel® 10 Gigabit pour serveurs et les connexions qui utilisent
10GBASE-T sur des câbles en cuivre à quatre paires torsadées de catégories 6, 6a ou 7 sont les suivantes :
l
La longueur maximale pour la catégorie 6 est de 55 mètres.
l
La longueur maximale pour la catégorie 6a est 100 mètres.
l
La longueur maximale pour la catégorie 7 est de 100 mètres.
l
Pour garantir la conformité avec la norme CISPR 24 et la norme de l'Union européenne EN55024, les
cartes Intel® 10 Gigabit pour serveurs et les connexions devraient être utilisées uniquement avec des
câbles blindés de catégorie 6a dotés de terminaisons correctes conformément aux recommandations
de la norme EN50174-2.
10 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax)
l
La longueur maximale est de 10 mètres.
Cartes Intel 40 Gigabit
Câbles à fibres optiques
l
l
l
Longueur d'onde du laser : 850 nanomètres (invisible).
Type de câble SC :
l
Fibre optique multimode à cœur de 50 microns de diamètre, d'une longueur maximale de 550 mètres.
l
Fibre optique multimode à cœur de 62,5 microns de diamètre, d'une longueur maximale de 275 mètres.
l
Type de connecteur : SC.
Type de câble LC :
l
l
l
Fibre optique multimode à cœur de 50 microns de diamètre, d'une longueur maximale de 550 mètres.
Fibre optique multimode à cœur de 62,5 microns de diamètre, d'une longueur maximale de 275 mètres.
Type de connecteur : LC.
Câbles en cuivre
l
40 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax)
l
La longueur maximale est de 7 mètres.
Présentation de l’installation
Installation de la carte réseau
1.
2.
3.
4.
Mettez l’ordinateur hors tension et débranchez le cordon d’alimentation.
Retirez le panneau de l’ordinateur et le panneau du connecteur de carte correspondant à votre carte.
Insérez le connecteur au bord de la carte dans l'emplacement et attachez solidement le support sur le châssis.
Replacez le couvercle de l’ordinateur et branchez le cordon d’alimentation.
REMARQUE : pour savoir comment identifier les emplacements PCI Express qui accueillent vos cartes réseau,
reportez-vous au guide de votre système Dell EMC.
Installation des pilotes et des logiciels
Systèmes d’exploitation Windows*
Vous devez disposer des droits d’administration sur le système d’exploitation pour installer les pilotes.
1. Téléchargez le dernier Dell EMC Update Package (DUP) sur le site de l'assistance client.
2. Exécutez le fichier DUP et cliquez sur le bouton Install (Installer).
3. Suivez les instructions affichées à l’écran.
Installation des pilotes Linux* à partir du code source
1.
2.
3.
4.
Téléchargez le fichier tar du pilote de base et décompressez-le.
Compilez le module du pilote.
Installez le module à l'aide de la commande modprobe.
Attribuez une adresse IP à l'aide de la commande ifconfig.
Reportez-vous à la section Linux de ce guide pour des informations plus spécifiques.
Autres systèmes d’exploitation
Pour installer d’autres pilotes, consultez le site Web d’assistance à la clientèle : http://www.support.dell.com.
Optimisation des performances
Vous pouvez configurer les paramètres avancés de la carte réseau Intel pour optimiser la performance du serveur.
Les exemples ci-dessous fournissent des instructions pour trois modèles d’utilisation de serveur :
l
Optimisation pour une réponse rapide et une faible latence – utile pour les serveurs vidéo, audio et HPCC
(High Performance Computing Cluster)
l
Optimisation du débit – utile pour les serveurs de sauvegarde/récupération de données et les serveurs de
fichiers
l
Optimisation du processeur – utile pour les serveurs d’applications, Web, de messagerie et de bases de données
REMARQUES :
l
Les recommandations ci-dessous sont des consignes et doivent être traitées en tant que telles. Des fac-
l
l
teurs additionnels tels que les applications installées, le type de bus, la topologie du réseau et le système d’exploitation affectent également la performance du système.
Ces réglages doivent être faits par un administrateur réseau très compétent. Il n’est pas garanti qu’ils
améliorent les performances. Tous les paramètres présentés ici ne sont pas nécessairement disponibles
à partir de la configuration du pilote réseau, du système d'exploitation ou du BIOS système. Les utilisateurs de Linux doivent consulter le fichier README du package de pilotes Linux pour connaître les
détails de l’amélioration des performances spécifiques à Linux.
Si vous utilisez un logiciel de test de performance, consultez la documentation de ce logiciel pour obtenir des résultats optimaux.
Optimisation générale
l
Installez la carte dans un emplacement approprié.
REMARQUE :certains emplacements PCIe x8 sont en fait configurés comme des emplacements x4. Ces
emplacements ont une bande passante insuffisante pour les débits de ligne avec des périphériques à
deux ports. Le pilote peut détecter cette situation et écrit le message suivant dans le journal système :
« PCI Express bandwidth available for this card is not sufficient for optimal performance. For optimal performance a x8 PCI-Express slot is required" (La bande passante PCI-Express disponible pour cette carte
est insuffisante pour obtenir des performances optimales. Pour des performances optimales, un connecteur PCI-Express x8 est exigé).Si cette erreur se produit, placez la carte dans un véritable connecteur x8
pour résoudre le problème.
l
l
l
l
l
l
l
Pour qu'une carte réseau reposant sur le contrôleur Intel® X710/XL710 atteigne son plein potentiel, vous devez
l'installer dans un emplacement PCIe 3e génération x8. L'installation dans un emplacement plus court ou dans
un emplacement de première ou deuxième génération affectera le débit de la carte.
Utilisez les câbles adaptés à votre appareil.
Activez les paquets étendus, s’il est possible de configurer aussi les autres composants du réseau pour ce paramètre.
Augmentez le nombre de ressources TCP et socket par rapport à la valeur par défaut. Pour les systèmes sous
Windows, nous n’avons identifié aucun paramètre système autre que la taille de fenêtre TCP pour améliorer
réellement les performances.
Augmentez la taille d’allocations des ressources du pilote (descripteurs d’émission/de réception). Cependant la
plupart des schémas de trafic TCP fonctionnent mieux avec la description d’émission à sa valeur par défaut et
le descripteur de réception à sa valeur minimale.
Lorsque le trafic passe par plusieurs ports réseau utilisant une application d'E/S qui s'exécute sur tous ou
presque tous les cœurs de votre système, envisagez de configurer l'affinité du CPU de cette application sur
moins de cœurs. Cette action devrait réduire l'utilisation du CPU et dans certains cas, et améliorer le débit de
l'appareil. Les cœurs sélectionnés pour l'affinité du CPU doivent être en local sur le nœud/groupe de processeurs de l'appareil réseau concerné. Vous pouvez utiliser la commande PowerShell Get-NetAdapterRSS
pour indiquer les cœurs en local sur un appareil. Vous aurez peut-être à augmenter le nombre de cœurs assignés à l'application pour optimiser le débit. Consultez la documentation de votre système d'exploitation pour
obtenir plus d'informations sur la configuration de l'affinité du CPU.
Si plusieurs ports 10 Gbit/s (ou plus rapides) sont installés sur un système, les files d'attente RSS de chaque
port de carte peuvent être réglées de manière à utiliser un ensemble de processeurs ne se chevauchant pas
au sein du nœud/socket NUMA local de la carte. Modifiez le numéro du processeur RSS de base de chaque
port de carte réseau, de sorte que la combinaison du processeur de base et du nombre maximal de processeurs RSS garantisse le non-chevauchement des cœurs.
1. Déterminez les ports de carte à régler et inspectez leur paramètre RssProcessorArray à l'aide de la cmdlet PowerShell Get-NetAdapterRSS.
2. Déterminez les processeurs dont la distance NUMA est de 0. Il s'agit des cœurs du nœud/socket NUMA
local de la carte qui fourniront les meilleures performances.
3. Réglez le processeur RSS de base de chaque port de sorte à utiliser un ensemble de processeurs ne
se chevauchant pas au sein de l'ensemble local de processeurs. Vous pouvez le faire manuellement ou
en utilisant la commande PowerShell suivante :
Set-NetAdapterAdvancedProperty -Name <Nom de la carte> -DisplayName "RSS Base
Processor Number" -DisplayValue <Valeur du Proc RSS de base>
4. Utilisez la cmdlet Get-NetAdpaterAdvancedproperty pour vérifier que les valeurs adéquates ont été
définies :
Get-NetAdpaterAdvancedproperty -Name <Nom de la carte>
Par exemple, pour une carte à quatre ports avec des processeurs locaux 0, 2, 4, 6, 8, 10, 12, 14, 16, 18,
20, 22, 24, 26, 28, 30 et un nombre maximal de processeurs RSS de 8, configurez les processeurs RSS
de base sur 0, 8, 16 et 24.
Optimisation pour une réponse rapide et une faible latence
l
l
l
l
l
l
Minimisez ou désactivez le taux de gestion des interruptions.
Désactivez le délestage de la segmentation TCP.
Désactivez les paquets étendus.
Augmentez les descripteurs de transmission.
Augmentez les descripteurs de réception.
Augmentez les files RSS
Optimisation du débit
l
l
l
l
Activez les paquets étendus.
Augmentez les descripteurs de transmission.
Augmentez les descripteurs de réception.
Sur les systèmes qui prennent en charge NUMA, paramétrez le nœud NUMA privilégié (Preferred NUMA Node)
sur chaque carte pour parvenir à un meilleur dimensionnement sur l’ensemble de ces nœuds.
Optimisation du processeur
l
l
l
l
Maximisez le taux de gestion des interruptions.
Conservez le nombre de descripteurs de réception par défaut ; évitez de configurer un grand nombre de descripteurs de réception.
Diminuez les files RSS.
En environnement Hyper-V, diminuez le nombre Maxi de processeurs RSS.
Stockage à distance
La fonction de stockage à distance vous permet d'accéder à un SAN (Storage Area Network) ou à autre dispositif de
stockage en réseau utilisant les protocoles Ethernet. Cela comprend les protocoles DCB (pontage de centre de données ou Data Center Bridging), iSCSI over DCB et FCoE (Fibre Channel over Ethernet).
DCB (Pontage de centre de données)
Le pontage de centre de données (DCB) est une collection d’extensions basées sur des normes à l’Ethernet classique. Il fournit une couche de transport sans perte pour les centres de données. Celle-ci autorise la convergence des
LAN et SAN sur une infrastructure Unified Fabric unique.
De plus, le Pontage de centre de données (DCB) assure la qualité de service de la configuration du matériel. Il utilise
la balise de priorité VLAN (802.1p) pour filtrer le trafic. De ce fait, le trafic peut être classé en 8 priorités différentes. Il
active également le contrôle du flux basé sur les priorités (802.1Qbb) susceptibles de limiter ou d'éliminer la perte de
paquets lors des pics de réseau. Il est possible d'allouer de la bande passante à chacune de ces priorités, avec une
mise en application au niveau du matériel (802.1Qaz).
Le microprogramme de la carte met en œuvre les agents de protocole LLDP et DCBX, selon 802.1AB et 802.1Qaz respectivement. L'agent DCBX basé sur le microprogramme fonctionne uniquement en mode « Willing » et peut accepter
les paramètres issus d'un pair équipé de DCBX. La configuration logicielle des paramètres DCBX via dcbtool/lldptool
n'est pas prise en charge.
REMARQUE : sur les appareils reposant sur le contrôleur X710 et exécutant Microsoft Windows, le pontage de
centre de données (DCB) est uniquement pris en charge par les microprogrammes versions 17.0.12 et supérieures. Les versions antérieures de NVM doivent être mises à jour pour que la carte puisse prendre en charge
DCB sous Windows.
Périphériques pris en charge
Les cartes suivantes prennent en charge le stockage à distance en utilisant iSCSI sur DCB et FCoE sur DCB.
l
Carte réseau Ethernet Intel® 10G 2P X520
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Carte réseau Ethernet Intel® 4P X520/I350 rNDC
Carte réseau Ethernet Intel® 10G X520 LOM
Carte réseau Ethernet Intel® 10G 2P X520-k bNDC
Carte réseau Ethernet Intel® 10G 2P X540-t
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC (ports I350 uniquement)
Carte réseau Ethernet Intel® 10G 2P X550-t
Carte réseau Ethernet Intel® 10G 4P X550 rNDC‡
l
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC‡
l
Carte réseau Ethernet Intel® 10G 4P X710-k bNDC‡
l
Carte réseau Ethernet Intel® 10G 2P X710-k bNDC‡
l
Carte réseau Ethernet Intel® 10G X710-k bNDC‡
l
Carte réseau convergent Ethernet Intel® X710‡
l
Carte réseau convergent Ethernet Intel® X710-T‡
l
Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC‡
l
Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC‡
l
Carte réseau Ethernet Intel® 10G X710 rNDC‡
l
Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP‡
l
Carte réseau Ethernet Intel® 25G 2P XXV710‡
l
Carte mezzanine Ethernet Intel® 25G 2P XXV710‡
l
Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC‡
l
Carte réseau convergent Ethernet Intel® XL710-Q2‡
l
l
l
l
l
l
l
l
‡ Ce périphérique ne prend pas en charge FCoE sur DCB.
REMARQUE : quand une carte réseau Intel® série 710 est en mode NPar, vous ne pouvez configurer DCB que
depuis la Configuration système/le BIOS.
iSCSI Over DCB
Les cartes Ethernet Intel® prennent en charge les initiateurs de logiciel iSCSI natifs sur le système d’exploitation sousjacent. Dans le cas de Windows, l’initiateur du logiciel Microsoft iSCSI permet de connecter un hôte Windows à une batterie de disque de stockage externe iSCSI en utilisant une carte Intel Ethernet.
Dans le cas de distributions Open Source, pratiquement toutes les distributions prennent en charge un initiateur de
logiciel iSCSI ouvert et les cartes Ethernet Intel® les prennent en charge. Consultez la documentation traitant de votre
distribution pour obtenir plus de détails de configuration sur chaque initiateur iSCSI ouvert.
Les cartes Intel® avec chipset 82599 et X540 prennent en charge l'iSCSI dans un nuage de Pontage de centre de données. Utilisée avec les commutateurs et les cibles prenant en charge la fonction TVL de l’application iSCSI/DCB, cette
solution peut garantir la bande passante minimum pour le trafic iSCSI entre l’hôte et la cible. Cette solution permet aux
administrateurs de stockage de segmenter le trafic iSCSI du trafic du réseau local, de la même façon qu’ils peuvent
actuellement segmenter le FCoE à partir du trafic du réseau local. Auparavant, le trafic iSCSI dans un environnement
pris en charge par DCB était considéré comme un trafic de réseau local par les fournisseurs de commutateur. Consultez votre fournisseur de commutateurs et de cibles pour vérifier qu’il prend en charge la fonction TVL de
l’application iSCSI/DCB.
Intel® Ethernet FCoE (Fibre Channel over Ethernet)
Fibre Channel over Ethernet (FCoE) est défini comme l’encapsulation des trames du protocole Fibre Channel (FC)
standard comme données contenues dans les trames Ethernet standard. Cette encapsulation au niveau du lien, associée à une passerelle Ethernet-to-FC fonctionnant avec FCoE, agit comme une extension d’une matrice FC pour
inclure la connectivité de l’hôte Ethernet. La spécification FCoE se concentre sur l’encapsulation des trames FC spécifiques au trafic de classe de stockage, telle que définie par la spécification Fibre Channel FC-4 FCP.
REMARQUE : la prise en charge de nouveaux systèmes d'exploitation ne sera pas ajoutée à FCoE. Les dernières versions de systèmes d'exploitation prenant en charge FCoE sont les suivantes :
l
l
l
Microsoft* Windows Server* 2012 R2
SLES 11 SP4
VMware* ESX 6.0 U3
Trames Jumbo
Le pilote de base prend en charge les mini trames Jumbo de FCoE (2,5 Ko) indépendamment des paramètres de
trames Jumbo du LAN.
Prise en charge de FCoE VN to VN (VN2VN)
FCoE VN to VN (également nommé VN2VN) est une norme permettant de connecter deux nœuds d'extrémité (ENode)
directement en utilisant FCoE. Un nœud ENode peut créer une liaison VN2VN virtuelle avec un autre nœud ENode
sans se connecter à des commutateurs FC ou FCoE (FCF) entre les deux, afin qu'aucun zonage de port ni service
avancé Fibre Channel ne soit nécessaire. Le logiciel de stockage contrôle l'accès aux unités logiques et leur sécurité
en utilisant un masquage des unités logiques. La matrice VN2VN peut posséder un commutateur Ethernet sans pertes
entre les nœuds ENode. Cela permet à plusieurs nœuds ENode de participer en créant plusieurs liaisons VN2VN virtuelles dans la matrice VN2VN. VN2VN possède deux modes de fonctionnement : Point à point (PT2PT) et Multipoint.
REMARQUE : le mode de fonctionnement est utilisé uniquement lors de l'initialisation.
Mode PT2PT (point à point)
En mode Point à Point, il n'existe que deux ENodes qui sont connectés soit directement, soit via un commutateur Ethernet sans perte :
Mode MultiPoint
Si plus de deux nœuds ENode sont détectés dans la matrice VN2VN, tous les nœuds doivent fonctionner en mode
Multipoint :
Activation de VN2VN dans Microsoft Windows
Pour activer VN2VN dans Microsoft Windows :
1. Ouvrez le Gestionnaire de périphériques Windows.
2. Ouvrez la feuille de propriétés du miniport FCoE approprié (en général sous Contrôleurs de stockage) et cliquez sur l'onglet Avancé.
3. Sélectionnez le paramètre VN2VN et choisissez "Activer".
Démarrage à distance
Le démarrage à distance vous permet de démarrer un système en utilisant uniquement une carte Ethernet. Vous vous
connectez à un serveur qui contient une image du système d'exploitation et l'utilise pour démarrer votre système local.
Intel® Boot Agent
Intel® Boot Agent est un logiciel qui permet à un ordinateur client de démarrer à l'aide d'une image de code de programme fournie par un serveur à distance. Conforme aux spécifications de la version 2.1 de l'environnement Pre-boot
eXecution Environment (PXE). Compatible avec les environnements de Boot Agent existants utilisant le protocole
BOOTP.
Périphériques pris en charge
Vous pouvez utiliser BootUtil pour activer la ROM flash sur la plupart des cartes Intel pour serveurs. Cependant, pour
les cartes suivantes, PXE est activé au moyen de l'environnement uEFI et il est impossible d'utiliser BootUtil pour
mettre à jour l'image de démarrage.
l
Carte Intel® Gigabit 2P I350-t
l
Carte réseau Intel® Gigabit 4P I350-t
l
Carte Intel® Gigabit 4P I350-t rNDC
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
Carte Intel® Gigabit 2P I350-t LOM
Carte Intel® Gigabit I350-t LOM
Carte Intel® Gigabit 2P I350 LOM
Carte mezzanine Intel® Gigabit 4P I350-t
Carte réseau Ethernet Intel® 10G 2P X520
Carte réseau Ethernet Intel® 10G 2P X520-k bNDC
Carte réseau Ethernet Intel® 4P X520/I350 rNDC
Carte Intel® Gigabit 4P I350 bNDC
Carte réseau Ethernet Intel® 10G X520 LOM
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Carte réseau Ethernet Intel® 10G 2P X540-t
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC
Carte réseau Ethernet Intel® 10G 2P X550-t
Carte réseau Ethernet Intel® 10G 4P X550 rNDC
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
Carte réseau convergent Ethernet Intel® X710
Carte réseau Ethernet Intel® 10G 4P X710-k bNDC
Carte réseau Ethernet Intel® 10G 2P X710-k bNDC
Carte réseau Ethernet Intel® 10G X710-k bNDC
Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC
Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC
Carte réseau Ethernet Intel® 10G X710 rNDC
Carte réseau convergent Ethernet Intel® X710-T
Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP
Carte réseau Ethernet Intel® 25G 2P XXV710
Carte mezzanine Ethernet Intel® 25G 2P XXV710
Carte réseau convergent Ethernet Intel® XL710-Q2
Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Intel® Ethernet iSCSI Boot
Le démarrage iSCSI Ethernet Intel® permet le démarrage à partir d'une unité de disque iSCSI distante se trouvant sur
un SAN (Storage Area Network) basé sur la norme iSCSI.
Périphériques pris en charge
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
Carte Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P I350-t rNDC
Carte Intel® Gigabit 4P I350 bNDC
Carte Intel® Gigabit 2P I350-t LOM
Carte Intel® Gigabit I350-t LOM
Carte Intel® Gigabit 2P I350 LOM
Carte mezzanine Intel® Gigabit 4P I350-t
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Carte réseau Ethernet Intel® 10G 2P X520
Carte réseau Ethernet Intel® 10G 2P X520-k bNDC
Carte réseau Ethernet Intel® 10G X520 LOM
Carte réseau Ethernet Intel® 4P X520/I350 rNDC
Carte réseau Ethernet Intel® 10G 2P X540-t
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC
Carte réseau Ethernet Intel® 10G 2P X550-t
Carte réseau convergent Ethernet Intel® XL710-Q2
Carte réseau Ethernet Intel® 10G 4P X550 rNDC
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
Carte réseau convergent Ethernet Intel® X710
Carte réseau Ethernet Intel® 10G 2P X710-k bNDC
Carte réseau Ethernet Intel® 10G 4P X710-k bNDC
l
l
l
l
l
l
l
l
l
Carte réseau Ethernet Intel® 10G X710-k bNDC
Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC
Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC
Carte réseau Ethernet Intel® 10G X710 rNDC
Carte réseau convergent Ethernet Intel® X710-T
Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP
Carte réseau Ethernet Intel® 25G 2P XXV710
Carte mezzanine Ethernet Intel® 25G 2P XXV710
Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Intel® Ethernet FCoE Boot
Le démarrage FCoE Ethernet Intel® permet le démarrage à partir d'une unité de disque distante se trouvant sur un
SAN (Storage Area Network) fibre.
Utilisation d’Intel® PROSet pour le Gestionnaire de périphériques Windows
Deux méthodes permettent d'atteindre les propriétés FCoE dans le Gestionnaire de périphériques Windows : en utilisant l'onglet « Data Center » sur la feuille de propriétés de la carte, ou en utilisant la feuille de propriétés Intel® «
Ethernet Virtual Storage Miniport Driver for FCoE Storage Controllers ».
Périphériques pris en charge
Intel® FCoE est pris en charge sur les cartes réseau Intel® suivantes :
l
Carte réseau Ethernet Intel® 10G 2P X520
l
Carte réseau Ethernet Intel® 10G 2P X520-k bNDC
l
Carte réseau Ethernet Intel® 4P X520/I350 rNDC
l
Carte réseau Ethernet Intel® 10G X520 LOM
l
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
l
Carte réseau Ethernet Intel® 10G 2P X540-t
l
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC (ports X540 uniquement)
l
Carte réseau Ethernet Intel® 10G 2P X550-t
REMARQUES :
l
lors de l'utilisation d'un démarrage FCoE avec une carte réseau Intel, aucune carte de bus hôte (HBA)
Brocade ne doit être installée sur le système.
l
Tous les systèmes d'exploitation ne sont pas pris en charge sur toutes les cartes.
Infos sur la virtualisation
La virtualisation permet l'exécution simultanée de plusieurs systèmes d'exploitation sur un même système physique en
tant que machines virtuelles. Cette possibilité autorise la consolidation de plusieurs serveurs en un seul, même s’ils
sont gérés sous des systèmes d’exploitation différents. Les cartes réseau Intel® fonctionnent avec et au sein des
machines virtuelles, avec leurs pilotes et logiciels standards.
REMARQUES :
l
Certaines options de virtualisation ne sont pas disponibles sur certaines combinaisons de carte/système
d’exploitation.
l
Le paramètre Jumbo Frame à l'intérieur d'une machine virtuelle doit être identique ou inférieur au
réglage du port physique.
l
Lors de la liaison d'une machine virtuelle à un réseau superposé locataire par le biais de ports de carte
réseau virtuels sur un commutateur virtuel, les en-têtes d'encapsulation augmentent la taille de l'unité de
transmission maximale (MTU) sur le port virtuel. La fonction d'en-tête d'encapsulation règle automatiquement la taille de l'unité de transmission maximale du port physique pour compenser cette augmentation.
l
Pour en savoir plus sur l’utilisation des cartes réseau Intel en environnements virtualisés, consultez le
site http://www.intel.com/technology/advanced_comm/virtualization.htm.
Utilisation des cartes réseau Intel® dans un environnement
Microsoft* Hyper-V*
Lorsqu’une interface réseau Hyper-V (VNIC) est créée dans la partition mère, la carte adopte l’adresse MAC de la
carte physique sous-jacente. Il en va de même lorsqu’une carte réseau est créée pour une association de cartes ou un
réseau VLAN. Comme une carte utilise l’adresse MAC de l’interface sous-jacente, toute opération qui modifie cette
adresse (paramétrer LAA sur l’interface, modifier la carte principale d’une association, etc.) lui fera perdre sa connectivité. Pour empêcher cet inconvénient, Intel® PROSet ne vous permet pas de modifier des paramètres qui changent
l’adresse MAC.
REMARQUES :
l
Si FCoE/DCB est présent sur le port, la configuration du périphérique en mode VMQ + DCB réduit le
nombre de VPorts VMQ disponible pour les systèmes d’exploitation invités. Cela ne s'applique pas aux
périphériques à base de contrôleur Ethernet Intel® X710.
l
Lorsqu’ils sont expédiés depuis l’intérieur d’une machine virtuelle, les paquets LLDP et LACP peuvent
représenter un risque pour la sécurité. Le pilote Intel® Virtual Function bloque l’envoi de ces paquets.
l
Le paramètre Virtualisation de l’onglet Avancé de la feuille des propriétés Gestionnaire de périphériques de la carte réseau n’est pas disponible si le rôle Hyper-V n’est pas installé.
l
Avant de configurer les fonctionnalités Microsoft* Hyper-V, les pilotes des cartes réseau Intel® doivent
être installés par le Dell EMC Update Package. Si la fonction Microsoft* Hyper-V est configurée sur une
partition de carte réseau non prise en charge sur les périphériques Intel® X710 avant l'exécution du Dell
EMC Update Package pour installer les pilotes de carte réseau Intel®, l'installation des pilotes peut
échouer. Pour résoudre le problème, vous devez désinstaller Microsoft* Hyper-V, désinstaller "Connexions réseau Intel®" de "Programmes et fonctionnalités", et exécuter le Dell EMC Update Package
pour installer les pilotes de carte réseau Intel®.
Le commutateur de machines virtuelles
Le commutateur de machines virtuelles fait partie du chemin de données des E/S réseaux. Il se situe entre la carte physique et les interfaces des machines virtuelles et achemine les paquets vers l’adresse MAC voulue. L’activation du
déchargement VMQ (Virtual Machine Queue) dans Intel® PROSet active automatiquement la file VMQ dans le commutateur de machines virtuelles. Pour les installations du pilote uniquement, il faut activer manuellement la file VMQ
dans le commutateur de machines virtuelles.
Utilisation de VLAN ANS
Si vous créez des réseaux locaux virtuels ANS dans la partition parente puis que vous créez une interface de carte
réseau virtuelle Hyper-V sur un réseau local virtuel ANS, l’interface de la carte réseau virtuelle doit avoir le même ID
de réseau local virtuel que le réseau local virtuel ANS. Si l’ID de réseau local virtuel est différent ou s’il n’est pas défini
dans l’interface de la carte réseau virtuelle, cette interface perd ses communications.
La liaison des commutateurs virtuels sur un réseau local virtuel ANS aura la même adresse MAC que le VLAN, qui
aura la même adresse que la carte réseau virtuelle ou l’association sous-jacente. Si vous avez plusieurs VLAN liés à
une association et qu’un commutateur virtuel est lié à chaque VLAN, tous les commutateurs virtuels auront la même
adresse MAC. Le groupage des commutateurs virtuels entraîne une erreur de réseau dans l’outil de validation du cluster Microsoft. Dans certains cas, il n’y aura aucun impact sur la performance du cluster si cette erreur est ignorée.
Cependant, ce genre de cluster n’est pas pris en charge par Microsoft. L’utilisation du Gestionnaire de périphérique
pour donner à chaque commutateur virtuel une adresse unique permet de résoudre ce problème. Reportez-vous à
l'article Microsoft TechNet Configure MAC Address Spoofing for Virtual Network Adapters pour plus de détails.
VMQ et SR-IOV ne peuvent pas être activés sur une interface de carte réseau virtuelle Hyper-V liée à un VLAN configuré à l’aide de l’onglet VLAN du Gestionnaire de périphériques Windows.
Utilisation d'une association ou d'un VLAN ANS comme carte réseau virtuelle
Pour utiliser une association ou un réseau local virtuel comme carte réseau virtuelle, suivez ces étapes :
REMARQUES :
l
Ceci est applicable uniquement aux cartes réseau virtuelles créées sur une association ou un réseau
local virtuel. Les cartes réseau virtuelles créées sur une carte physique ne nécessitent pas ces étapes.
l
Le mode RLB (Receive Load Balancing) n’est pas pris en charge dans Hyper-V. Désactivez le mode
RLB lorsque vous utilisez Hyper-V.
1.
2.
3.
4.
5.
Utilisez Intel® PROSet pour créer l’association ou le réseau local virtuel.
Ouvrez le Panneau de configuration Réseau.
Ouvrez l’association ou le réseau local virtuel.
Dans l’onglet Général, désélectionnez toutes les liaisons de protocole et cliquez sur OK.
Créez la carte réseau virtuelle. (Si vous cochez la case "Allow management operating system to share the network adapter" (Permettre au système d’exploitation d’administration de partager la carte réseau), l’étape suivante peut être réalisée dans la partition parente.)
6. Ouvrez le Panneau de configuration Réseau de la carte réseau virtuelle.
7. Dans l’onglet Général, cochez les liaisons de protocole souhaitées.
REMARQUE ; cette étape n’est pas nécessaire pour l’association. Lorsque la carte réseau virtuelle est
créée, ses protocoles sont liés correctement.
Ligne de commande pour Microsoft Windows Server* Core
Microsoft Windows Server* Core ne possède pas d’interface utilisateur graphique. Pour utiliser une association ANS
ou un réseau VLAN comme carte d'interface réseau virtuelle, vous devez utiliser Microsoft* Windows PowerShell* pour
procéder à la configuration. Utilisez Windows PowerShell pour créer l'association ou le réseau local virtuel.
Voici un exemple de configuration en utilisant Microsoft* Windows PowerShell*.
1. Répertoriez toutes les cartes du système et stockez-les dans une variable.
$a = Get-IntelNetAdapter
2. Créez une association en référençant les index de la baie des cartes stockées.
New-IntelNetTeam -TeamMembers $a[1],$a[2] -TeamMode
VirtualMachineLoadBalancing -TeamName “Team1”
Délestage de la file d’attente d’une machine virtuelle
L'activation du délestage du filtrage VMQ améliore les performances de réception et de transmission, car la carte informatique peut traiter ces tâches plus rapidement que le système d'exploitation. Le délestage permet également de libérer des ressources du processeur. Le filtrage est basé sur les filtres MAC et/ou des VLAN. Pour les périphériques qui le
prennent en charge, le délestage VMQ est activé sur la partition hôte de la feuille des propriétés Gestionnaire de périphériques de la carte réseau (section Virtualisation de l’onglet Avancé).
Chaque carte réseau Ethernet Intel® dispose d’un pool de ports virtuels qui se répartissent entre les diverses
fonctionnalités : délestage VMQ, SR-IOV, Data Center Bridging (DCB) et Fibre Channel over Ethernet (FCoE).
L’augmentation du nombre de ports virtuels utilisées pour une fonctionnalité diminue d’autant le nombre utilisable par
les autres fonctionnalités. Sur les périphériques qui le permettent, l'activation de DCB réduit à 32 le pool total disponible pour les autres fonctionnalités. L'activation de FCoE fait tomber ce nombre à 24.
REMARQUE : ceci ne s'applique pas aux dispositifs basés sur les contrôleurs Ethernet Intel® X710 ou XL710.
Intel® PROSet affiche le nombre de ports virtuels disponibles pour les fonctions virtuelles (propriétés Virtualisation
dans l’onglet Avancé du périphérique). Il permet également de définir la manière dont les ports virtuels disponibles
sont répartis entre VMQ et SR-IOV.
Remarques concernant les associations
l
l
l
Si la fonctionnalité VMQ n’est pas activée sur toutes les cartes d’une association, elle sera désactivée sur cette
association.
Si une carte ne prenant pas en charge la fonctionnalité VMQ est ajoutée à l’association, la fonctionnalité VMQ
sera désactivée sur l’association.
Les cartes réseau virtuelles ne peuvent pas être créées sur une association sur laquelle l’équilibrage de la
charge de réception est activé. L’équilibrage de la charge de réception est automatiquement désactivé si vous
l
créez une carte réseau virtuelle sur l’association.
Si une association est liée à une carte réseau virtuelle Hyper-V, vous ne pouvez pas changer la carte principale ou la carte secondaire.
Files d'attente multiples de machines virtuelles
Les files d'attente multiples de machines virtuelles (VMMQ) activent Receive Side Scaling (RSS) pour les ports virtuels
liés à un port physique. Cela permet d'utiliser RSS en conjonction avec SR-IOV et à l'intérieur d'une machine virtuelle
VMQ, ainsi que de délester le traitement RSS sur la carte réseau. Cette fonctionnalité reçoit le trafic sur plusieurs processeurs ou cœurs de processeurs. ce paramètre est sans effet si le système ne comporte d’un processeur.
Vue d’ensemble de SR-IOV
Single Root IO Virtualization (SR-IOV) est une spécification PCI SIG permettant aux périphériques PCI Express
d’apparaître sous la forme de plusieurs périphériques PCI Express physiques distincts. SR-IOV permet un partage efficace des périphériques PCI entre des machines virtuelles (VM). Il gère et transporte les données sans passer par un
hyperviseur en fournissant un espace mémoire indépendant, des interruptions et des flux DMA pour chaque machine
virtuelle.
L’architecture SR-IOV comprend deux fonctions :
l
La fonction physique (PF) est une fonction PCI Express totalement fonctionnelle qui peut être détectée, gérée et
configurée comme n’importe quel autre périphérique PCI Express.
l
La fonction virtuelle (VF) est semblable à PF, mais elle ne peut être configurée et elle a comme seule capacité
celle de transférer des données en entrée et en sortie. La VF est affectée à une machine virtuelle.
REMARQUES :
l
SR-IOV doit être activé dans le BIOS.
l
Si SR-IOV n'est pas activé dans la configuration du système en appuyant sur F2 lorsque vous installez
Intel® PROSet pour le Gestionnaire de périphériques Windows, la disponibilité des ports virtuels ne
s'affiche pas dans la boîte de dialogue de virtualisation. Activez SR-IOV dans le BIOS système et réinstallez Intel® PROSet pour le Gestionnaire de périphériques Windows afin de corriger l'affichage.
l
Si vous prévoyez d'affecter directement des périphériques à une machine virtuelle sous Linux*, vous
devez activer la prise en charge de l'unité de gestion de mémoire d'E/S (I/O Memory Management Unit,
IOMMU) afin de garantir le bon fonctionnement de SR-IOV. Utilisez les paramètres d'amorçage du noyau
"intel_iommu=on" et "iommu=pt" pour activer la prise en charge d'IOMMU. Pour optimiser la protection
de la mémoire, utilisez "intel_iommu=on". Pour optimiser les performances, utilisez les deux paramètres
("intel_iommu=on iommu=p"). Ces paramètres peuvent être ajoutés à l'entrée CMDLINE__GRUB LINUX
du fichier de configuration /etc/default/grub. Pour les systèmes utilisant le mode d'amorçage UEFI, exécutez grub2-mkconfig -o /etc/grub2-efi.cfg. Pour les systèmes amorcés en mode BIOS existant, exécutez grub2-mkconfig -o /boot/grub2/grub.cfg.
Partitionnement NIC
Le partitionnement de carte réseau (NIC) (NPar) permet aux administrateurs réseau de créer plusieurs partitions pour
chaque port physique d'une carte réseau, et de définir différentes allocations de bande passante sur chaque partition.
Pour le réseau et le système d'exploitation, chaque partition apparaît comme un port physique distinct sur la carte. Ceci
facilite la réduction du nombre de ports de commutation et la complexité du câblage tout en préservant la segmentation et l'isolation du réseau. De plus, l'allocation flexible de bande passante par partition permet une utilisation
efficace de la liaison.
NPar est disponible sous Linux et ESXi, ainsi que sous Windows Server et sous les versions de Windows Server Core
à partir de 2012 R2.
Les cartes réseau suivantes prennent en charge NPar. Veuillez noter que NPar prend en charge jusqu'à 8 partitions
par contrôleur.
l
Carte réseau Ethernet Intel® 25G 2P XXV710
l
Carte Ethernet Intel® 10G 4P X710/I350 rNDC
l
Carte réseau Ethernet Intel® 10G 4P X710-k bNDC
l
Carte réseau Ethernet Intel® 10G 4P X710 rNDC
l
Carte réseau Ethernet Intel® 10G 2P X710-k bNDC
l
Carte réseau Ethernet Intel® 10G X710-k bNDC
l
Carte réseau convergent Ethernet Intel® X710
l
Carte réseau convergent Ethernet Intel® X710-T
l
Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP
REMARQUES :
l
Les cartes réseau prennent en charge NPar en mode NIC (LAN) uniquement.
l
Les technologies suivantes ne fonctionnent que sur la première partition de chaque port :
l
PXE Boot
l
iSCSIboot
l
Paramètres de vitesse de liaison et de duplex
l
Contrôle de flux
l
Options de gestion de l’alimentation
l
SR-IOV
l
Traitement des NVGRE
l
Les limitations de ressources sous Microsoft Windows peuvent affecter le nombre de ports affichés. Si
plusieurs cartes sont installées sur un système et que NPar ou NParEP est activé sur ces cartes, le Gestionnaire de périphériques Windows peut ne pas afficher tous les ports.
l
La bande passante minimale peut ne pas être répartie équitablement sur les partitions NIC lors de la
modification des modes NPAR/NPAR EP. Les valeurs minimales de la bande passante peuvent être
modifiées après la modification des modes NPAR/NPAR EP.
l
Le délestage iSCSI n'est pas pris en charge sur les partitions NIC des appareils reposant sur le
contrôleur Intel X710. Les cartes X710 affichent, de manière erronée, la valeur 'True' (Vrai) en regard de
l'option 'iSCSI Offload Support' (Prise en charge du délestage iSCSI). L'activation de l'option 'iSCSI
Offload Mode' (Mode de délestage iSCSI) sur la page [NIC Partitioning Configuration] active la partition
du trafic de stockage iSCSI.
l
Le test de bouclage n'est pas pris en charge lorsque les appareils sont en mode NPAR.
l
Lors de la configuration du système pour un système d'exploitation Microsoft Windows, n'activez pas le
mode de délestage iSCSI lors de la configuration des partitions des appareils Intel X710 directement
dans le BIOS via HII, ni au moyen d'une configuration à distance telle que racadm ou WSMAN.
l
Si le mode NPAR est activé, veillez à ce que le paramètre avancé 'RSS load balancing profile' (Profil
d'équilibrage de la charge RSS) soit configuré sur NUMAScalingStatic.
l
Le paramètre NVGRE n'est pas pris en charge lorsque l'appareil est en mode NPAR. Si le mode NPAR
est activé sur votre appareil, le paramètre NVGRE (Délestage de tâche encapsulée de l'onglet Avancé
du Gestionnaire de périphériques Windows) n'est pas pris en charge.
Mode NParEP
Le mode NParEP est une combinaison de NPar et de PCIe ARI. Il augmente le nombre maximum de partitions à 16
par contrôleur.
Prise en charge de la plate-forme NParEP
Connecteur PCI Express
Plateforme
Dell EMC
Carte mezzanine pour
OCP
Emplacement
pour carte fille
réseau pour rack
C4130
C4140
C6420
non
oui
1
2
3
oui
oui
oui
non oui
4
5
6
7
8
9
10
11
12
13
oui
R230
non non
R330
non non
R430
oui
oui
R440
oui
oui
oui
R530
oui
oui
oui
R530XD
oui
oui
non
R540
oui
oui
oui
non non
oui
oui
non
R630
oui
oui
oui
oui
R640
oui
oui
oui
oui
R730
oui
oui
oui
oui
oui
oui
oui
R730XD
oui
oui
oui
oui
oui
oui
oui
R740
oui
oui
oui
oui
oui
oui
oui
R830
oui
oui
oui
oui
oui
oui
oui
R840
oui
oui
oui
oui
oui
oui
oui
oui oui oui oui
R930
oui
oui
oui
oui
oui
oui
oui
oui oui oui oui
R940
oui
oui
oui
oui
oui
oui
oui
oui oui oui oui oui oui oui
oui
oui
oui oui
T130
non non non non
T330
non non non oui
T430
non non oui
oui
oui
T440
non oui
oui
oui
oui
T630
oui
non oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui oui
T640
oui
oui
Connecteur mezzanine
Plate-forme Dell EMC Emplacement pour carte fille réseau lame B
C
FC430
FC630
oui
FC830
oui
M630
oui
M630 pour VRTX
oui
M640
oui
M640 pour VRTX
oui
M830
oui
M830 pour VRTX
oui
MX740c
oui
oui
oui
MX840c
oui
oui
oui
Les plates-formes ou connecteurs pris en charge sont indiqués par un "oui". Mention « non » : non pris en charge. Cellule vide : non applicable.
Configuration du mode NPar
Configuration du mode NPar depuis le gestionnaire de démarrage
Lorsque vous démarrez le système, appuyez sur la touche F2 pour afficher le menu System Setup (Configuration du
système). Sélectionnez Device Settings (Paramètres du périphérique) dans la liste sous le menu principal Configuration du système, puis sélectionnez votre carte réseau dans la liste pour accéder au menu de configuration du
périphérique. Sélectionnez Device Level Configuration (configuration du niveau du périphérique) dans la liste sous la
page de configuration principale. Ceci affiche les paramètres de Virtualisation sous Device Level Configuration
(configuration du niveau du périphérique).
Il existe quatre options dans la liste déroulante Virtualization Mode (mode de virtualisation).
l
None : la carte fonctionne normalement
l
NPar : autorise jusqu'à 8 partitions sur la carte. Si vous sélectionnez le mode de virtualisation NPar, vous voyez
alors l'option d'activer le mode NParEP, qui étend le nombre de partitions par carte au total de 16 en associant
NPar avec PCIe ARI.
REMARQUES :
l
Lorsqu'une carte réseau fonctionne en mode NPar, elle est limitée à 8 partitions au total. Une
carte à deux ports disposera de quatre partitions par port. Une carte à quatre ports disposera de
deux partitions par port.
l
Le mode NParEP ne peut être activé que lorsque le mode NPar a été lui-même activé.
l
Lorsqu'une carte réseau fonctionne en mode NParEP, elle est limitée à 16 partitions au total. Une
carte à deux ports disposera de huit partitions par port. Une carte à quatre ports disposera de
quatre partitions par port.
l
l
SR-IOV : active SR-IOV sur le port
NPar+SR-IOV : autorise jusqu'à 8 partitions (fonctions physiques) pour la carte et active SR-IOV.
REMARQUES :
l
SR-IOV est limité à la partition racine de chaque port.
l
Lorsqu'une carte fonctionne en mode NPar, les paramètres de virtualisation (SR-IOV)
s'appliquent à tous les ports de la carte et à toutes les partitions de chaque port. Les modifications apportées aux paramètres de virtualisation sur un port sont appliqués à tous les ports de
la carte.
Lorsque vous avez terminé la sélection, cliquez sur le bouton Back (Retour) pour retourner à la page de Configuration principale. Cliquez sur le nouvel élément intitulé NIC Partitioning Configuration (Configuration des partitions de carte d'interface réseau) dans la liste de configuration pour passer à la page de Configuration des partitions
de la carte réseau, qui affiche la liste des partitions NPar (ou NParEP) de la carte.
La page Global Bandwidth Allocation permet de spécifier l'allocation de bande passante minimale et maximale garantie pour chaque partition d'un port. Minimum TX Bandwidth est la bande passante de transmission de données minimale garantie que la partition se verra allouer, en pourcentage de la vitesse totale de liaison du port physique. La
bande passante allouée n'est jamais inférieure au niveau spécifié ici. La plage de valeurs valides s'étend de :
1 à ((100 moins le nombre de partitions sur le port physique) plus 1).
Par exemple, si un port physique comporte 4 partitions, la plage serait :
1 à ((100 - 4) + 1 = 97)
La bande passante maximale représente la bande passante de transmission maximale de la partition sous la forme
d'un pourcentage de la vitesse totale de liaison du port physique. La plage des valeurs acceptable va de 0 à 100.
Cette valeur peut être utilisée comme limiteur si vous choisissez qu'une partition donnée ne pourra pas consommer la
totalité de la bande passante disponible d'un port. La somme de toutes les valeurs de bande passante maximale n'est
pas limitée, parce qu'il est impossible d'utiliser plus de 100 % de la bande passante d'un port.
REMARQUE :
l
Si la somme des pourcentages de bande passante minimale n'est pas égale à 100, les paramètres
seront automatiquement ajustés de sorte qu'elle soit égale à 100.
l
Si le pourcentage de bande passante maximale d'une partition est défini sur une valeur inférieure au
pourcentage de bande passante minimale de la partition, le pourcentage de bande passante maximale
sera automatiquement réglé sur la valeur du pourcentage de la bande passante minimale.
l
Lorsque vous tentez de définir les valeurs du pourcentage de bande passante minimale en utilisant
iDRAC avec le contrôleur de cycle de vie (Lifecycle Controller) à l'aide de tâches n'incluant pas les
valeurs pour toutes les partitions activées, les valeurs observées après l'exécution des tâches peuvent
être différentes des valeurs qui étaient censées être définies. Pour éviter ce problème, définissez les
valeurs des pourcentages de bande passante minimale sur toutes les partitions en utilisant une seule
tâche et assurez-vous que la somme des valeurs est égale à 100.
Cliquez sur le bouton Back (Retour) après avoir alloué la bande passante pour retourner à la page de configuration
des partitions de la carte réseau. Sur cette page, vous pouvez cliquer sur l'un des éléments de la liste Partition n Configuration (Configuration de la partition n) sous Global Bandwidth Allocation (Affectation globale de la bande passante). S'affiche alors une page d'information de configuration sur un port particulier. Vous pouvez afficher le mode
NIC, PCI ; l'ID de périphérique, l'adresse MAC et l'adresse MAC virtuelle (le cas échéant) de toutes les partitions d'un
port donné en cliquant sur les éléments de la liste de configuration de partition.
Lorsque vous avez terminé la configuration de toutes les partitions sur un port, retournez à la page principale configuration, cliquez sur le bouton Finish, puis sur le bouton OK dans la boîte de dialogue Success (Saving Changes)
(Réussite (Enregistrement des modifications)).
Répétez le processus de configuration des partitions pour tous les ports de votre carte réseau.
REMARQUE : une fois NPar activé sur l'une des partitions d'un port, il apparaît comme activé pour toutes les
autres partitions de ce port. Si le premier paramètre de NPar incluait l'activation du mode NParEP, le mode
NParEP apparaîtra également activé pour toutes les autres partitions de ce port.
Après avoir configuré toutes les partitions de tous les ports de toutes les cartes réseau du serveur, retournez au menu
principal de configuration système, et cliquez sur le bouton Finish. Cliquez ensuite sur Yes pour quitter le menu de
configuration du système et redémarrer le système pour appliquer les modifications.
Lorsque le processus de démarrage du système est terminé, NPar reste activé jusqu'à ce que vous le désactiviez explicitement en désactivant l'option lors d'une séquence de démarrage suivante.
Configuration du mode NPar sous Microsoft Windows
Il est possible de configurer une partition de port de carte réseau dans Windows de la même manière qu'un port de
carte réseau. Exécutez le Gestionnaire de périphériques, sélectionnez et ouvrez les feuilles de propriétés des partitions pour configurer les options.
Activation du protocole NPar
L'activation du protocole NPar se fait à partir de l'onglet Advanced (Avancé) de la feuille des propriétés Gestionnaire
de périphériques.
Options de démarrage
L'onglet Boot Options (Options de démarrage) vous avertit que le périphérique est en mode NPar et que les paramètres de protocole de prédémarrage existants ne peuvent être configurés que sur la partition racine. Un clic sur le
bouton Properties (Propriétés) lance la feuille de propriétés de la partition racine de la carte réseau.
Options de gestion de l’alimentation
Les paramètres de gestion de l'alimentation ne sont autorisés que sur la première partition de chaque port physique.
Si vous sélectionnez l'onglet Power Management (Gestion de l'alimentation) dans la feuille de propriété du Gestionnaire de périphériques lorsqu'une partition autre que la première est sélectionnée, la boîte de dialogue de gestion
de l'alimentation indique qu'il est impossible de configurer les paramètres de gestion de l'alimentation sur la connexion
en cours. Un clic sur le bouton Properties (Propriétés) lance la feuille de propriétés de la partition racine de la carte
réseau.
REMARQUE : les options de démarrage et les paramètres de gestion de l'alimentation ne sont disponibles que
sur la partition racine de chaque port physique.
Contrôle de flux
Il est possible de modifier les paramètres de contrôle de flux pour n'importe quelle partition d'un port donné. Cependant, lorsqu'un changement est apporté aux paramètres de contrôle de flux d'une partition associée à un port sur une
carte réseau fonctionnant en mode NPar, la nouvelle valeur est appliquée à toutes les partitions de ce port.
Le contrôle de flux est accessible en sélectionnant l'onglet Advanced (Avancé) d'Intel® PROSet, puis le bouton Properties (Propriétés), puis en sélectionnant Flow Control (Contrôle de flux) dans la liste des options de la liste Settings
(Paramètres) dans la boîte de dialogue affichée.
Identification des associations de ports
La boîte de dialogue d'informations sur le matériel des feuilles de propriétés d'Intel® PROSet facilite l'identification du
port physique associé à une partition donnée. Un bouton Identifier la carte sur l'onglet Vitesse de liaison permet de
faire clignoter le témoin lumineux ACK/Link du port associé à la partition active.
Configuration de la bande passante des partitions
La boîte de dialogue Bandwidth Configuration (Configuration de la bande passante) indique le port pour lequel les
paramètres sont en cours, au-dessus de la liste des partitions de ce port et de leurs allocations de bande passante
actuelles (Min%, Max%). Le bouton Bandwidth Configuration (Configuration de la bande passante) de l'onglet
Vitesse de liaison des feuilles de propriétés d'Intel® PROSet permet d'accéder à la configuration de la bande passante des partitions.
La bande passante allouée à chaque partition du port n'est jamais inférieure à la valeur définie sous Min%. Pour
toutes les partitions d'un même port physique, le pourcentage de la bande passante minimale doit être réglé à zéro
pour toutes les partitions, ou la somme du pourcentage de bande passante minimale de toutes les partitions doit être
égale à 100, la plage des pourcentages de bande passante minimale étant comprise entre 1 et (100-n) %, où n représente le nombre de partitions d'un port particulier. Par exemple, pour un port comportant quatre partitions définies :
P1=0
P2=0
P3=0
P4=0
Correct
P1=10
P2=20
P3=30
P4=40
Correct
P1=20
P2=80
P3=0
P4=0
Incorrect
Les valeurs valides pour Max% sont la valeur du “Min%” de cette partition jusqu'à “100”. Par exemple, si la valeur
Min% de la Partition 1 est 50 %, la plage de valeur Max% de cette partition est “50”-“100”. Si vous paramétrez la valeur
Max% d'une partition pour dépasser 100 % en incrémentant la valeur à l'aide du spinner, une erreur s'affiche et la
valeur Max% est décrémentée jusqu'à 100 %. La somme des valeurs Max% de toutes les partitions d'un port donné est
illimitée.
Pour modifier la valeur de Min% ou de Max%, sélectionnez une partition dans la liste, et utilisez les flèches vers le haut
et vers le bas sous "Selected Partition Bandwidth Percentages" (Pourcentage de bande passante des partitions sélectionnées).
REMARQUE :
l
Si la somme des pourcentages de bande passante minimale n'est pas égale à 100, les paramètres
seront automatiquement ajustés de sorte qu'elle soit égale à 100.
l
Si le pourcentage de bande passante maximale d'une partition est défini sur une valeur inférieure au
pourcentage de bande passante minimale de la partition, le pourcentage de bande passante maximale
sera automatiquement réglé sur la valeur du pourcentage de la bande passante minimale.
l
Lorsque vous tentez de définir les valeurs du pourcentage de bande passante minimale en utilisant
iDRAC avec le contrôleur de cycle de vie (Lifecycle Controller) à l'aide de tâches n'incluant pas les
valeurs pour toutes les partitions activées, les valeurs observées après l'exécution des tâches peuvent
être différentes des valeurs qui étaient censées être définies. Pour éviter ce problème, définissez les
valeurs des pourcentages de bande passante minimale sur toutes les partitions en utilisant une seule
tâche et assurez-vous que la somme des valeurs est égale à 100.
Paramètres de vitesse de liaison et de duplex
Le paramètre de vitesse et de duplex d'un port donné est modifiable depuis n'importe quelle partition associée à ce
port. Cependant, du fait que toutes les partitions d'un port donné d'une carte fonctionnant en mode NPar partagent le
même module enfiché dans ce port, la modification du paramètre de vitesse et de duplex applique la nouvelle valeur à
toutes les partitions d'un même port physique.
La modification du paramètre de vitesse et de duplex d'un port sur une carte fonctionnant en mode NPar provoque le
rechargement du pilote pour chaque partition associée à ce port, ce qui peut entraîner la perte momentanée de la liaison.
Diagnostics en ligne
Les diagnostics en ligne peuvent être effectués en mode NPar sans que la carte ne perde la liaison. Les diagnostics
suivants sont disponibles pour toutes les partitions d'un port donné lorsque la carte fonctionne en mode NPar :
l
EEPROM
l
Register (Registre)
l
Test d'intégrité NVM
l
Connexion
Diagnostics hors ligne
Les diagnostics hors ligne ne sont pas pris en charge lorsqu'une carte fonctionne en mode NPar. Les tests de bouclage et les tests de câble hors ligne ne sont pas autorisés en mode NPar.
Règles d'agrégation NPar
Il ne peut pas exister deux partitions membres d'une agrégation ANS qui soient associées au même port physique. Si
vous essayez d'ajouter une partition à une agrégation existante au moyen de l'onglet Agrégation de cartes des feuilles
de propriétés d'Intel® PROSet pour une carte réseau fonctionnant en mode NPar, le système vérifie si la partition à
ajouter est associée au même port physique qu'un membre préexistant de l'agrégation.
Lorsqu'une carte est ajoutée à une association, la modification des paramètres de la carte et de l'association peut
entraîner une perte temporaire de la connectivité.
Virtualisation
Les paramètres de virtualisation (Virtual Machine Queues et SR-IOV) sont accessibles dans les feuilles de propriétés
d'Intel® PROSet en sélectionnant l'onglet Avancé, puis "Virtualisation" dans la liste des paramètres.
Lorsqu'une carte fonctionne en mode NPar, seule la première partition de chaque port physique peut être configurée
au moyen des paramètres de virtualisation.
REMARQUE : Microsoft* Hyper-V* doit être installé sur le système pour que les paramètres de virtualisation
soient disponibles. En l'absence d'Hyper-V*, l'onglet Virtualisation de PROSet ne s'affiche pas.
Configuration du mode NPar sous Linux
Sur les cartes réseau Intel® série 710 qui le prennent en charge, vous pouvez configurer plusieurs fonctions sur
chaque port physique. Ces fonctions sont configurées au moyen de la Configuration système/BIOS.
Minimum TX Bandwidth est la bande passante de transmission de données minimale garantie que la partition se verra
allouer, en pourcentage de la vitesse totale de liaison du port physique. La bande passante allouée n'est jamais inférieure au niveau spécifié ici.
La plage des valeurs de bande passante minimale
1 à ((100 moins le nombre de partitions sur le port physique) plus 1).
Par exemple, si un port physique comporte 4 partitions, la plage serait
1 à ((100 - 4) + 1 = 97)
La bande passante maximum représente la bande passante de transmission maximum de la partition sous la forme
d'un pourcentage de la vitesse de liaison du port physique complet. La plage de valeurs acceptable va de 1 à 100. La
valeur peut être utilisée comme limiteur si vous décidez qu'une fonction donnée ne pourra pas consommer la totalité
(100 %) de la bande passante d'un port (en cas de disponibilité). La somme de toutes les valeurs de bande passante
maximale n'est pas limitée, parce qu'il est impossible d'utiliser plus de 100 % de la bande passante d'un port.
REMARQUE :
l
Si la somme des pourcentages de bande passante minimale n'est pas égale à 100, les paramètres
seront automatiquement ajustés de sorte qu'elle soit égale à 100.
l
Si le pourcentage de bande passante maximale d'une partition est défini sur une valeur inférieure au
pourcentage de bande passante minimale de la partition, le pourcentage de bande passante maximale
sera automatiquement réglé sur la valeur du pourcentage de la bande passante minimale.
l
Lorsque vous tentez de définir les valeurs du pourcentage de bande passante minimale en utilisant
iDRAC avec le contrôleur de cycle de vie (Lifecycle Controller) à l'aide de tâches n'incluant pas les
valeurs pour toutes les partitions activées, les valeurs observées après l'exécution des tâches peuvent
être différentes des valeurs qui étaient censées être définies. Pour éviter ce problème, définissez les
valeurs des pourcentages de bande passante minimale sur toutes les partitions en utilisant une seule
tâche et assurez-vous que la somme des valeurs est égale à 100.
Une fois la configuration initiale terminée, vous pouvez définir différentes allocations de bande passante pour chaque
fonction de la manière suivante :
1. Créez un nouveau répertoire nommé /config
2. Modifiez etc/fstab pour inclure :
configfs /config configfs defaults
3. Chargez (ou rechargez) le pilote i40e
4. Montez /config
5. Créez sous config un nouveau répertoire pour chaque partition pour laquelle vous souhaitez configurer la
bande passante.
Trois fichiers apparaissent dans le répertoire config/partition :
- max_bw
- min_bw
- commit
Lisez à partir de max_bw pour afficher le paramètre actuel de bande passante maximale.
Écrivez dans max_bw pour fixer la bande passante maximale pour cette fonction.
Lisez à partir de min_bw pour afficher le paramètre actuel de bande passante minimale.
Écrivez dans min_bw pour fixer la bande passante minimale pour cette fonction.
Écrivez un '1' pour confirmer l'enregistrement (commit) des modifications.
REMARQUES :
l
Commit est en écriture seule. Toute tentative de lecture provoquera une erreur.
l
L'écriture dans commit n'est prise en charge que pour la première fonction d'un port donné. L'écriture
pour une des fonctions suivantes provoquera une erreur.
l
La réécriture de la bande passante minimale n'est pas prise en charge. Le NVM du périphérique sousjacent règle la bande passante maximale sur les valeurs prises en charge de manière indéterminée.
Supprimez tous les répertoires sous config et rechargez-les pour voir quelles sont les valeurs réelles.
l
Pour décharger le pilote, vous devez tout d'abord supprimer les répertoires créés à l'étape 5 ci-dessus.
Exemple de réglage de la bande passante maximale et minimale (en supposant quatre fonctions sur le port eth6-eth9,
et que eth6 soit la première fonction du port) :
# mkdir /config/eth6
# mkdir /config/eth7
# mkdir /config/eth8
# mkdir /config/eth9
# echo 50 > /config/eth6/min_bw
# echo 100 > /config/eth6/max_bw
# echo 20 > /config/eth7/min_bw
# echo 100 > /config/eth7/max_bw
# echo 20 > /config/eth8/min_bw
# echo 100 > /config/eth8/max_bw
# echo 10 > /config/eth9/min_bw
# echo 25 > /config/eth9/max_bw
# echo 1 > /config/eth6/commit
Sortie du mode NPar
Le mode NPar est désactivé dans le menu de configuration du système lors d'un redémarrage.
Redémarrez le système et appuyez sur la touche F2 pour afficher le menu System Setup. Sélectionnez Device Settings (Paramètres du périphérique) dans la liste sous le menu principal Configuration du système, puis sélectionnez
votre carte réseau dans la liste pour accéder au menu de configuration du périphérique. Sélectionnez Device Level
Configuration (configuration du niveau du périphérique) dans la liste sous la page de configuration principale. Ceci
affiche les paramètres de Virtualisation sous Device Level Configuration (configuration du niveau du périphérique).
Dans la liste Virtualization Mode (Mode de virtualisation), sélectionnez "None". Cliquez ensuite sur le bouton Back
pour retourner à la page de configuration principale. Puis cliquez sur le bouton Finish pour enregistrer les modifications et redémarrer le système. NPar n'est plus actif après ce redémarrage.
REMARQUE : lorsque NPar a été désactivé et que le redémarrage est terminé, tous les autres paramètres associés à la virtualisation, tels que NParEP ou SR-IOV sont également désactivés.
Installation de la carte réseau
Sélection de l'emplacement adéquat
Un emplacement PCI-Express x4, x8 ou x16, en fonction de votre carte.
REMARQUE : certains systèmes possèdent des connecteurs PCI Express x8 physiques qui prennent en charge
uniquement des vitesses qui sont en fait inférieures. Consultez le manuel de votre système pour identifier le
connecteur.
Insertion de la carte dans l'ordinateur
1. Si votre ordinateur prend en charge PCI Hot Plug, consultez la documentation de votre ordinateur pour obtenir
des instructions spéciales d'installation.
2. Mettez votre ordinateur hors tension et débranchez-le. Retirez-en ensuite le capot.
ATTENTION : coupez l'alimentation et débranchez l'ordinateur avant d'enlever le capot. Si vous ne procédez pas ainsi, vous risquez de vous blesser et d'endommager la carte ou l'ordinateur.
3. Retirez le support du capot d'un emplacement disponible.
4. Insérez la carte en appuyant dessus, jusqu'à ce qu'elle soit correctement insérée dans son emplacement. Vous
pouvez installer une petite carte PCI Express dans un emplacement PCI Express plus grand.
ATTENTION : certaines cartes PCI Express peuvent être dotées d'un connecteur court ce qui
les rend plus fragiles que les cartes PCI. Une force excessive pourrait endommager le connecteur. Insérez la carte dans l’emplacement en appuyant doucement.
5. Sécurisez le support de la carte avec une vis si nécessaire.
6. Replacez le capot de l'ordinateur et branchez le cordon d'alimentation.
7. Mettez l'ordinateur en marche.
Connexion du câble réseau
Branchez le câble réseau approprié, comme décrit dans les sections suivantes.
Connexion du câble réseau RJ-45
Connectez le câble réseau RJ-45 comme illustré :
Type de câblage à utiliser :
l
10GBASE-T sur les câblages cuivre à 4 paires torsadées de catégories 6, 6a ou 7 :
l
La longueur maximum est de 55 mètres pour la catégorie 6.
l
La longueur maximum est de 100 mètres pour la catégorie 6a.
l
La longueur maximum est de 100 mètres pour la catégorie 7.
REMARQUE : pour la carte réseau Intel® 10 Gigabit AT pour serveurs, en vue d’assurer la conformité
avec les normes CISPR 24 et EN55024 (Union européenne), ce produit doit être utilisé uniquement
avec des câbles blindés de catégorie 6a dotés de terminaisons correctes d’après les recommandations
de la norme EN50174-2.
l
Pour 1000BASE-T ou 100BASE-TX, utilisez un câble cuivre à 4 paires torsadées de catégories 5 ou 5e :
l
Veillez à utiliser des câbles de catégorie 5 conformes aux spécifications de câblage de la norme TIA568. Pour obtenir de plus amples informations sur ces spécifications, visitez le site Web de l’association
Telecommunications Industry Association : www.tiaonline.org.
l
La longueur maximale est de 100 mètres.
l
Le câblage de catégorie 3 ne fonctionne qu’à 10 Mbit/s.
ATTENTION : en cas d’utilisation d’un câble de moins de quatre paires, vous devez configurer
manuellement la vitesse et le duplex de la carte et le partenaire de liaison. De plus, avec des
câbles à deux et trois paires, la carte ne peut qu’opérer à des vitesses allant jusqu’à 100 Mbit/s.
l
l
l
Avec 100BASE-TX, utilisez un câble de catégorie 5.
Avec 10Base-T, utilisez un câble de catégorie 3 ou 5.
Si vous souhaitez utiliser cette carte dans un environnement résidentiel (quelle que soit la vitesse), utilisez un
câble de catégorie 5. Si le câble passe entre des pièces ou à travers des murs ou des plafonds, il doit être ignifuge pour assurer la protection contre les incendies.
Dans tous les cas :
l
La carte doit être connectée à un partenaire de liaison compatible et configurée de préférence pour négocier
automatiquement la vitesse et le mode duplex pour les cartes Intel Gigabit.
l
Les cartes réseau Intel Gigabit et 10 Gigabit pour serveurs utilisant des connexions en cuivre acceptent automatiquement les connexions MDI ou MDI-X. La fonctionnalité MDI-X automatique des cartes réseau Intel Gigabit à connexions en cuivre permet la connexion directe de deux cartes sans faire appel à un câble de jonction.
Connexion du câble réseau en fibre optique
ATTENTION : les ports fibre optique utilisent un appareil laser de la classe 1. Quand ils ne sont pas utilisés, couvrez-les toujours avec le capuchon. En cas de panne anormale, vous risquez de subir des
lésions cutanées ou oculaires si vous vous trouvez à proximité des ports exposés.
Retirez le panneau du connecteur à fibre optique et mettez-le sur le côté. Insérez un câble fibre optique dans les ports
du support de la carte réseau, tel qu’illustré ci-dessous.
La plupart des connecteurs et des ports sont marqués pour faciliter leur orientation. Si le câble que vous utilisez n’est
pas marqué, veillez à l’orienter correctement (port de transmission connecté au port de réception du partenaire de liaison et vice versa).
La carte doit être connectée à un partenaire de liaison compatible fonctionnant à la même longueur d'onde laser que
l'adaptateur.
Les câbles de conversion pour d’autres types de connecteur (p. ex., un connecteur SC à LC) peuvent être utilisés si le
câblage est conforme aux spécifications optiques de la carte, y compris les limites de longueur.
Insérez le câble à fibre optique comme indiqué ci-dessous.
Exigences de connexion
l
l
l
l
40GBASE-SR4/MPO sur fibre optique de 850 nanomètres :
l
OM3 de 50/125 microns : longueur maximale égale 100 mètres.
l
OM4 de 50/125 microns : longueur maximale égale 150 mètres.
25GBASE-SR/LC sur fibre optique de 850 nanomètres :
l
Fibre multimode de 50 microns : longueur maximale égale à 300 mètres.
l
Fibre multimode de 62,5 microns : longueur maximale égale à 33 mètres.
10GBASE-SR/LC sur fibre optique de 850 nanomètres :
l
Fibre multimode de 50 microns : longueur maximale égale à 300 mètres.
l
Fibre multimode de 62,5 microns : longueur maximale égale à 33 mètres.
1000BASE-SX/LC sur fibre optique de 850 nanomètres :
l
Fibre multimode de 50 microns : longueur maximale égale à 550 mètres.
l
Fibre multimode de 62,5 microns : longueur maximale égale à 275 mètres.
Modules SFP+ et QSFP+ pris en charge
Les cartes réseau serveur Ethernet Intel® prennent en charge uniquement les câbles en fibre optique Intel® et/ou les
câbles de branchement direct à limitation active et passive conformes aux spécifications SFF-8431 v4.1 et SFF-8472
v10.4. Lorsque les modules SFP+ avec contrôleur 82599 sont branchés dos à dos, ils doivent être réglés sur le même
paramètre de vitesse avec Intel® PROSet pour Windows ou ethtool. Si vous attribuez des paramètres de vitesse différents, les résultats peuvent varier.
La plupart des cartes réseau Ethernet Intel® pour serveurs prennent en charge les modules suivants :
REMARQUE : les périphériques équipés de la série Intel® 710 ne prennent pas en charge les modules tiers.
Fabricant
Type
Références
Cartes
prises en
charge
Dell EMC
SFP+ SR 1G/10G double débit (avec étrier)
Y3KJN, XYD50, WTRD11
X520,
X7102 ,
XXV710
Dell EMC
QSFP+ F10 Passive Octopus (QSFP+ à 4xSFP+)
TCPM2, 27GG5, P8T4W
X520,
X7102
Dell EMC
Émetteur-récepteur SFP+ vers 1000BASET
8T47V
X7102
Dell EMC
SFP+ LR Optic
60F4J, RN84N
X7102,3
Dell EMC
Câble optique actif (AOC)
YJF03, P9GND, T1KCN,
1DXKP, MT7R2, K0T7R et
W5G04.
X7102 ,
XXV710
Dell EMC
25G optique
P7D7R, HHHHC
XXV710
Dell EMC
SFP28 25G optique
68X15
XXV710
Dell EMC
SFP+ F10 passif
V250M, 53HVN, 358VV
XXV710
Dell EMC
SFP28 passif
2JVDD, D0R73, VXFJY,
9X8JP
XXV710
Dell EMC
QSFP28 F10 Passive Octopus (QSFP+ à
4xSFP28)
26FN3, YFNDD, 7R9N9
XXV710
Dell EMC
QSFP+ SR 1G/10G/40G triple débit (avec étrier)
(1G et 10G non pris en charge sur les cartes
XL710)
9GCCD, 7TCDN, 5NP8R,
FC6KV, J90VN
XL710
1 WTRD1
n'est pas pris en charge sur les cartes réseau équipées du contrôleur Intel® X520.
carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP prend uniquement en charge les modules répertoriés dans le tableau suivant :
3 Prise en charge uniquement sur la carte réseau convergent Ethernet Intel® X710 à deux ports.
2 La
La carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP prend uniquement en charge les modules
suivants :
Fabricant Type
Références
Dell EMC
SFP+ SR High Temp Optics
N8TDR
Dell EMC
QSFP+ F10 Passive Octopus TCPM2, 27GG5, P8T4W
LA LISTE DES MODULES ET CÂBLES OPTIQUES DE FABRICANTS TIERS CI-DESSUS N'EST FOURNIE QUE POUR
INDIQUER LEURS CARACTÉRISTIQUES ET LEUR COMPATIBILITÉ POTENTIELLE. ELLE NE CONSTITUE NI UNE
RECOMMANDATION, NI UN AVAL, NI UN PARRAINAGE DE PRODUITS TIERS PAR INTEL. INTEL N’AVALISE NI NE
PROMEUT LES PRODUITS FABRIQUÉS PAR DES TIERS ET LA RÉFÉRENCE À CES DERNIERS N’EST
PROPOSÉE QU’À TITRE D’INFORMATION SUR CERTAINS MODULES ET CÂBLES OPTIQUES AUX
CARACTÉRISTIQUES CI-DESSUS. IL PEUT AINSI EXISTER D’AUTRES FABRICANTS OU FOURNISSEURS QUI
FABRIQUENT OU PROPOSENT DES MODULES ET CÂBLES OPTIQUES AUX CARACTÉRISTIQUES SIMILAIRES
OU CORRESPONDANT AUX DESCRIPTIONS. LES CLIENTS DOIVENT DONC EXERCER LEUR PROPRE
JUGEMENT POUR L’ACHAT DE MODULES OU DE CÂBLES DE TIERS DE LEUR CHOIX. C’EST AINSI AUX
CLIENTS UNIQUEMENT QU’IL INCOMBE DE DÉTERMINER SI LE PRODUIT ET/OU LE PÉRIPHÉRIQUE CONVIENT
AINSI QUE D’EN CHOISIR LE FABRICANT. LES MODULES ET CÂBLES OPTIQUES AUXQUELS IL EST FAIT
RÉFÉRENCE CI-DESSUS N’ENTRENT PAS DANS LA GARANTIE D’INTEL NI DANS SES CONDITIONS DE SÀV.
INTEL REJETTE AINSI TOUTE RESPONSABILITÉ AINSI QUE TOUTE GARANTIE EXPRESSE OU IMPLICITE
RELATIVE À LA VENTE ET/OU À L’UTILISATION DE CES PRODUITS DE TIERS OU AUX CHOIX EFFECTUÉ PAR
LES CLIENTS.
Connexion du câble à raccordement direct
Insérez le câble réseau direct comme indiqué ci-dessous.
Type de câblage :
l
40 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax)
l
La longueur maximale est de 7 mètres.
l
25 Gigabit Ethernet sur câble SFP28 à fixation directe (Twinax)
l
La longueur maximale est de 5 mètres.
l
Pour des performances optimales, utiliser CA-25G-L avec RS-FEC et 25GBASE-CR
l
10 Gigabit Ethernet sur câble SFP+ à fixation directe (Twinax)
l
La longueur maximale est de 10 mètres.
Installation d'une carte mezzanine dans le serveur-lame
Consultez la documentation de votre serveur pour obtenir des instructions détaillées sur l'installation d'une carte mezzanine.
1. Arrêtez le serveur-lame et retirez-le du châssis, puis enlevez le couvercle.
ATTENTION : le serveur-lame doit être arrêté. Autrement, vous vous mettez en danger et risquez
d’endommager la carte ou le serveur.
2. Levez le levier de verrouillage et insérez la carte dans un logement disponible compatible avec les cartes mezzanine. Poussez la carte dans le logement jusqu’à ce qu’elle soit fermement enfoncée.
REMARQUE : un commutateur ou un module de connexion directe doit être présent sur la même
matrice que la carte dans le châssis afin de fournir une connexion physique. Par exemple, si la carte
mezzanine est insérée dans la matrice B, un commutateur doit également être présent dans la matrice B
du châssis.
3.
4.
5.
6.
Répétez l’étape 2 pour chaque carte que vous souhaitez installer.
Abaissez le levier de verrouillage jusqu’à ce qu’il s’enclenche en position sur la ou les cartes.
Replacez le couvercle du serveur-lame et remettez la lame dans le châssis du serveur.
Mettez l’ordinateur sous tension.
Installation d'une carte fille réseau dans un serveur
Consultez la documentation de votre serveur pour obtenir des instructions détaillées sur la manière d'installer une
carte bNDC ou rNDC.
1. Mettez le serveur hors tension et retirez son capot.
ATTENTION : le serveur doit être arrêté. Autrement, vous vous mettez en danger et risquez
d'endommager la carte ou le serveur.
2. Repérez le connecteur de la carte fille réseau de votre serveur. Consultez la documentation de votre serveur
pour obtenir davantage de détails.
3. Encastrez la carte fille réseau dans le connecteur.
4. Resserrez les vis de la carte fille réseau pour la maintenir en place.
5. Remplacez le capot du serveur.
Installation et configuration de Microsoft* Windows*
Installation des pilotes et logiciels Windows
Installer les pilotes
REMARQUES :
l
Cette opération mettra à jour les pilotes de toutes les cartes réseau Intel® du système prises en charge.
l
La fonction de restauration de pilote de Windows Server (disponible sur l'onglet Driver (Pilote) de la
boîte de dialogue Propriétés de la carte) ne fonctionnera pas correctement si une association de cartes
ou Intel® PROSet est présent sur le système. Avant d’utiliser cette fonction, utilisez Intel® PROSet pour
supprimer les associations, et ensuite pour supprimer Intel® PROSet, utilisez Programs and Features
(Programmes et fonctionnalités) dans le panneau de configuration de Windows.
l
L'utilisation de Microsoft Windows Update pour mettre à niveau vos pilotes de réseau Ethernet ou les
mettre à niveau vers la version antérieure n'est pas prise en charge. Veuillez télécharger le dernier
package de pilote à partir du site Internet d'assistance.
Avant d'installer ou de mettre à jour les pilotes, insérez vos cartes dans l'ordinateur et branchez le câble réseau.
Lorsque Windows détecte la nouvelle carte, il tente de trouver un pilote Windows adéquat déjà installé sur le système
d'exploitation.
S'il en détecte un, le pilote est installé sans intervention de l'utilisateur. Si Windows ne détecte pas le pilote, l'Assistant
Ajout de nouveau matériel détecté s'affiche.
Que Windows détecte ou non le pilote, il est recommandé de suivre la procédure ci-dessous pour installer le pilote.
Les pilotes de toutes les cartes Intel® prises en charge par cette version du logiciel sont installés.
1.
2.
3.
4.
5.
Téléchargez les pilotes les plus récents sur le site Web d'assistance et transférez-les sur le système.
Si l'écran Assistant Ajout de nouveau matériel détecté s'affiche, cliquez sur Annuler.
Double-cliquez sur le fichier téléchargé.
Sélectionnez Install (Installer) dans l'écran Dell Update Package.
Suivez les instructions de l'assistant d'installation. Veillez à sélectionner Intel PROSet pour l'installation.
REMARQUE : veillez à sélectionner l'option d'installation "iSCSI using Data Center Bridging" (iSCSI avec DCB)
pour les systèmes sur lesquels un périphérique compatible NPAR est installé.
Syntaxe pour Dell EMC Update Package (DUP)
Le Dell EMC Update Package (DUP) est un package exécutable qui procédera à la mise à jour des pilotes réseau sur
votre système.
REMARQUES :
l
Si vous installez un pilote sur un ordinateur équipé de cartes Intel, veillez à mettre à jour toutes les
cartes et tous les ports à l’aide des mêmes pilotes et du même logiciel Intel® PROSet pour assurer un
fonctionnement correct de toutes les cartes.
l
Si le démarrage Fibre Channel over Ethernet (FCoE) est activé sur un équipement du système, vous ne
serez pas en mesure de mettre à niveau vos pilotes. Vous devez désactiver le lancement automatique
du FCoE avant de mettre à niveau les pilotes Ethernet.
Syntaxe
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe [/<option1>[=<value1>]] [/<option2>[=<value2>]]...
Descriptif des options de ligne de commande
Aucune
Si vous ne spécifiez aucune option de ligne de commande, le package vous guidera tout au long
du processus d'installation.
/? ou /h
Affiche les informations d'utilisation du Dell Update Package.
/s
Supprime toutes les interfaces utilisateur graphiques du Dell Update Package.
/i
Lance une nouvelle installation des pilotes inclus dans le Dell Update Package.
REMARQUE : l'option /s est requise
/e=<chemin
d'accès>
Extrait la totalité du Dell Update Package vers le dossier défini sous <chemin d'accès>.
REMARQUE : l'option /s est requise
/drivers=<chemin Extrait uniquement les composants de pilote du Dell Update Package vers le dossier défini sous
d'accès>
<chemin d'accès>.
REMARQUE : l'option /s est requise
/driveronly
Installe ou met à jour uniquement les composants de pilote du Dell Update Package.
REMARQUE : l'option /s est requise
/passthrough
(Avancé) Envoie directement le texte suivant l'option /passthrough vers le logiciel d'installation
fournisseur du Dell Update Package. Ce mode supprime toutes les interfaces utilisateur graphiques éventuellement fournies, sans inclure nécessairement celles du logiciel fournisseur.
/capabilities
(Avancé) Renvoie une description codée des fonctionnalités du Dell Update Package prises en
charge.
REMARQUE : l'option /s est requise
/l=<chemin
d'accès>
Définit un chemin d'accès spécifique pour le fichier journal de Update Package.
/f
Remplace une légère erreur de dépendance renvoyée par le Update Package.
REMARQUE : cette option NE peut PAS être utilisée simultanément avec les options
/passthrough ou /capabilities
REMARQUE : l'option /s est requise et cette option NE peut PAS être utilisée simultanément avec les options /passthrough ou /capabilities
Exemples
Mise à jour du système en mode silencieux
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s
Nouvelle installation en mode silencieux
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /i
Extractions des contenus de la mise à jour vers le dossier C:\mydir
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /e=C:\mydir
Extraction des composants de pilote vers le dossier C:\mydir
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /drivers=C:\mydir
Installation des composants de pilote uniquement
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /driveronly
Remplacement de l'emplacement du fichier journal par défaut par C:\mon chemin d'accès avec espaces\log.txt
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /l="C:\mon chemin d'accès avec espaces\log.txt"
Mise à jour forcée, même en cas d'erreurs de qualification « mineures »
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /f
Installation du pilote de base et d'Intel® PROSet sur Nano Server
Installation du pilote
REMARQUE :l'installation des pilotes nécessite des droits d'administrateur sur le système d'exploitation.
Pour installer les pilotes sur Microsoft* Windows Server* Nano Server :
1. Déterminez les pilotes à installer sur le système d'exploitation.
2. Créez un répertoire à partir duquel l'installation des pilotes sera effectuée. Exemple : C:\Nano\Drivers Utilisez la
commande "<nom de fichier DUP Dell>.exe /s /drivers=<chemin>" pour extraire les fichiers de pilote dans le
répertoire voulu.
3. Copiez les pilotes appropriés pour le système d'exploitation et le matériel. Par exemple, "copy d:\<chemin>\production\W2K16-x64\40G_X710\*.* c:\Nano\Drivers /y"
4. Si vous utilisez le module New-NanoServerImage, utilisez le chemin d’accès ci-dessus pour le paramètre -DriversPath. Exemple : « New-NanoServerImage ...-DriversPath C:\Nano\Drivers »
5. Si vous utilisez également DISM.exe, utilisez le chemin d’accès ci-dessus pour le paramètre /AddDriver.
Exemple : « DISM .../Add-Driver C:\Nano\Drivers »
Installation d'Intel® PROSet
Pour installer Intel® PROSet sur Microsoft* Windows Server* Nano Server :
1. Utilisez la cmdlet New-NanoServerImage pour ajouter le fichier PROSetNS.zip à partir du répertoire
.\Disk\APPS\PROSETDX\NanoServer à votre paramètre -CopyPath.
2. Ajoutez le fichier NanoSetup.ps1 (situé dans le même répertoire) à votre paramètre -SetupCompleteCommands.
Par exemple :
New-NanoServerImage ...
-CopyPath "<CHEMIN>\PROSetNS.zip", "<CHEMIN>\NanoSetup.ps1" `
-SetupCompleteCommands "PowerShell ""C:\NanoSetup.ps1"""
Suivez le lien ci-dessous pour de plus amples informations sur le déploiement d'une image Nano Server et l'utilisation
de la cmdlet :
https://msdn.microsoft.com/en-us/library/mt126167.aspx
Installation par ligne de commande pour les pilotes de base et Intel®
PROSet
Installation du pilote
L'utilitaire d'installation de pilote Setupx64.exe permet une installation sans assistance des pilotes à partir d'une ligne
de commande.
REMARQUES :
l
Intel PROSet ne peut pas être installé avec msiexec.exe. Vous devez utiliser
Setupx64.exe.
Setupx64.exe peut être utilisé pour installer le pilote de base, le pilote intermédiaire et toutes les applications de gestion pour les périphériques pris en charge.
Setupx64.exe Options de ligne de commande
La définition des paramètres sur la ligne de commande permet d’activer et de désactiver les applications de gestion. Si
un paramètre n’est pas spécifié, seuls les composants existants sont mis à jour.
Setupx64.exe prend en charge les paramètres de ligne de commande suivants :
Paramètre Définition
BD
Pilote de base
"0", ne pas installer le pilote de base.
"1", installer le pilote de base.
ANS
Services réseaux avancés
"0", ne pas installer ANS. Si ANS est déjà installé, il sera désinstallé.
"1", installer ANS. La propriété ANS nécessite DMIX=1.
REMARQUE : si le paramètre ANS est défini sur ANS=1, Intel® PROSet et ANS seront tous les
deux installés.
DMIX
PROSet pour le Gestionnaire de périphériques Windows
"0", ne pas installer la fonctionnalité Intel® PROSet. Si la fonctionnalité Intel® PROSet est déjà installée, elle sera désinstallée.
"1" - Installer la fonctionnalité Intel® PROSet. La propriété DMIX nécessite BD=1.
REMARQUE : si DMIX=0, ANS ne sera pas installé. Si DMIX=0 et Intel® PROSet, ANS et FCoE
sont déjà installés, Intel® PROSet, ANS et FCoE seront désinstallés.
FCOE
Fibre Channel over Ethernet
"0", ne pas installer FCoE. Si FCoE est déjà installé, il sera désinstallé.
"1", installer FCoE. La propriété FCoE nécessite DMIX=1.
REMARQUE : même si le paramètre FCoE=1 est transmis, FCoE ne sera pas installé si le système d’exploitation et les adaptateurs installés ne prennent pas en charge FCoE.
iSCSI
iSCSI
"0", ne pas installer iSCSI. Si iSCSI est déjà installé, il sera désinstallé.
"1", installer FCoE. La propriété iSCSI nécessite DMIX=1.
LOG
[nom du fichier journal]
LOG vous permet d’entrer le nom de fichier du fichier journal de l’installation. Le nom par défaut est
C:\UmbInst.log.
XML
[nom du fichier XML]
XML vous permet d’entrer le nom de fichier de sortie XML.
-a
Extraire les composants nécessaires à l'installation du pilote de base sur C:\Program Files\Intel\Drivers. Le répertoire vers lequel ces fichiers seront extraits peut être modifié, à moins que le
mode silencieux (/qn) ne soit spécifié. Si ce paramètre est spécifié, le programme d'installation se
ferme une fois que le pilote de base est extrait. Tout autre paramètre sera ignoré.
-f
Force une rétrogradation des composants dont l’installation est en cours.
REMARQUE : si la version installée est plus récente que la version actuelle, ce paramètre doit
être défini.
-v
Affiche la version du paquetage d’installation actuel.
Paramètre Définition
/q[r|n]
/q --- options d’installation en mode silencieux
/l[i|w|e|a]
r
Installation discrète de l’interface graphique utilisateur (affiche les messages d’avertissement
critiques uniquement)
n
Installation en mode silencieux
/l --- option de fichier journal pour l'installation PROSet. Les options d’enregistrement sont les suivantes
:
-u
i
Enregistrement des messages d’état.
w
Enregistrement des avertissements non fatals.
e
Enregistrement des messages d’erreur.
a
Enregistrement du démarrage de toutes les actions.
Désinstaller les pilotes.
REMARQUES :
l
Vous devez inclure un espace entre les paramètres.
l
Si vous spécifiez un chemin d’accès pour le fichier journal, ce chemin doit exister. Si vous ne spécifiez
pas un chemin d’accès complet, le journal d'installation sera créé dans le répertoire actuel.
l
Aucune valeur par défaut n'a besoin d'être spécifiée. Pour installer les pilotes de base, Intel PROSet et
les Services réseau avancés (ANS), les exemples suivants sont équivalents :
Setupx64.exe
l
l
l
l
Setupx64.exe BD=1 DMIX=1 ANS=1
La propriété ANS ne doit être définie que sur ANS=1 si DMIX=1. Si DMIX=0 et ANS=1, alors ANS=1 est
ignoré et seul le pilote de base est installé.
Même si le paramètre FCOE=1 est transmis, FCoE utilisant DCB ne sera pas installé si le système
d'exploitation et les cartes installés ne le prennent pas en charge. Si FORCE=1 est également transmis,
FCoE sera installé si le système d'exploitation le prend en charge.
Même si le paramètre iSCSI=1 est transmis, iSCSI utilisant DCB ne sera pas installé si le système
d'exploitation et les cartes installés ne le prennent pas en charge. Si FORCE=1 est également transmis,
iSCSI sera installé si le système d'exploitation le prend en charge.
Les propriétés publiques ne sont pas sensibles à la casse. Aucune espace n'est autorisée entre les
caractères. Par exemple :
Setupx64.exe /qn DMIX=1
Toute espace dans « DMIX=1 » invalide le paramètre.
Exemples d’installation à partir d’une ligne de commande
Supposons que Setupx64.exe se trouve dans le répertoire racine du CD, D:\.
1. Comment installer le pilote de base :
D:\Setupx64.exe DMIX=0 ANS=0
2. Installation du pilote de base avec l'option de journalisation :
D:\Setupx64.exe LOG=C:\installBD.log DMIX=0 ANS=0
3. Installation d'Intel® PROSet et ANS en mode silencieux :
D:\Setupx64.exe DMIX=1 ANS=1 /qn
4. Installation d'Intel® PROSet sans ANS en mode silencieux :
D:\Setupx64.exe DMIX=1 ANS=0 /qn
5. Installation des composants lorsque ANS est désélectionné :
D:\Setupx64.exe DMIX=1 ANS=0 /qn /liew C:\install.log
L'option de journalisation /liew fournit un fichier journal pour l'installation d'Intel PROSet.
REMARQUE : pour installer la prise en charge des associations et des réseaux locaux virtuels sur un système
sur lequel les pilotes de base des cartes et Intel PROSet pour le Gestionnaire de périphériques Windows sont
installés, entrez la ligne de commande D:\Setupx64.exe ANS=1.
Windows Server Core
Outre la méthode ci-dessus, sur Windows Server Core, il est également possible d'installer le pilote de base en utilisant l'utilitaire Plug and Play, PnPUtil.exe.
Rétrogradation des pilotes
Vous pouvez utiliser les options /s et /f pour rétrograder vos pilotes. Par exemple, si les pilotes 17.0.0 sont chargés que
vous souhaitez les rétrograder vers 16.5.0, tapez ce qui suit :
Network_Driver_XXXXX_WN64_16.5.0_A00.exe /s /f
Utilisation d'Intel® PROSet pour le Gestionnaire de périphériques Windows*
Intel® PROSet pour le Gestionnaire de périphériques Windows* est une extension du Gestionnaire de périphériques
Windows. Lorsque vous installez le logiciel Intel® PROSet, des onglets supplémentaires sont ajoutés automatiquement au Gestionnaire de périphériques.
REMARQUES :
l
Vous devez disposer de droits d’administrateur pour installer ou utiliser Intel® PROSet pour le Gestionnaire de périphériques Windows.
l
Intel® PROSet pour le Gestionnaire de périphériques Windows et le module IntelNetCmdlets pour
Windows PowerShell* nécessitent le dernier package de pilote et le package logiciel de vos appareils
Ethernet Intel®. Veuillez télécharger le package de pilote et le package logiciel le plus récent pour votre
système d'exploitation sur le site www.intel.com.
l
Il se peut que sur les systèmes d'exploitation récents, le matériel plus ancien ne prenne pas en charge
Intel® PROSet pour le Gestionnaire de périphériques Windows ni le module IntelNetCmdlets pour
Windows PowerShell. Dans ce cas, les onglets Intel®PROSet peuvent ne pas s'afficher dans l'interface
utilisateur du Gestionnaire de périphériques Windows, et le module IntelNetCmdlets peut afficher un
message d'erreur indiquant qu'aucun pilote Intel® n'est installé sur l'appareil.
Modification des paramètres d’Intel® PROSet sous Windows Server Core
Vous pouvez utiliser le module Intel® NetCmdlets pour Microsoft* Windows PowerShell* pour modifier la plupart des
paramètres d'Intel® PROSet sous Windows Server Core. Veuillez consulter le fichier d'aide aboutIntelNetCmdlets.hlp.txt.
Pour configurer le vidage sur incident iSCSI, utilisez le module Intel® NetCmdlets pour
Microsoft* Windows PowerShell* et consultez le fichier d'aide aboutIntelNetCmdlets.help.txt.
REMARQUE : La prise en charge des utilitaires de ligne de commande Intel® PROSet (prosetcl.exe et crashdmp.exe) a été supprimée et n'est plus installée. Cette fonctionnalité a été remplacée par les Netcmdlets Intel
pour Microsoft* Windows PowerShell*. Veuillez procéder à la transition de vos scripts et processus, de sorte
qu'ils utilisent les Netcmdlets Intel pour Microsoft Windows PowerShell.
Onglet Vitesse de liaison
L’onglet Vitesse de liaison vous permet de modifier la vitesse et le mode duplex de la carte, d’exécuter des diagnostics et d’utiliser la fonctionnalité d’identification de carte.
Configuration de la vitesse et du mode duplex
Présentation
Les paramètres de vitesse de liaison et de mode duplex permettent de choisir la manière dont la carte envoie et reçoit
des paquets de données dans le réseau.
En mode par défaut, une carte réseau Intel utilisant des connexions en cuivre tente de négocier automatiquement avec
son partenaire de liaison pour déterminer la meilleure configuration. Si aucune liaison n’est établie avec le partenaire
de liaison en utilisant la négociation automatique, vous devez configurer manuellement la carte et le partenaire de liaison de manière identique pour pouvoir établir la liaison et transmettre des paquets. Cette opération ne doit être exécutée que pour établir une liaison avec un commutateur ancien qui ne prend pas en charge la négociation
automatique ou utilisant une vitesse ou un mode duplex particuliers.
La négociation automatique est désactivée en sélectionnant une vitesse distincte et le mode duplex dans les propriétés de la carte réseau.
REMARQUES :
l
Lorsqu'une carte fonctionne en mode NPar, les paramètres de vitesse sont limités à la partition racine de
chaque port.
l
les cartes à fibres optiques fonctionnent uniquement en Full duplex et à leur vitesse native.
Les paramètres disponibles lorsque la négociation automatique est désactivée dépendent de votre périphérique. Les
vitesses ne sont pas toutes disponibles sur tous les périphériques. La configuration du partenaire de liaison doit correspondre à celle que vous avez choisie.
REMARQUES :
l
Bien que la feuille de paramètres de certaines cartes réseau (paramètres des propriétés du pilote)
donne comme option 10 Mbit/s et 100 Mbit/s en Half duplex ou Full duplex, l'utilisation de ces paramètres n'est pas recommandée.
l
Seul un administrateur réseau expérimenté devrait forcer manuellement la vitesse et le mode duplex.
l
Vous ne pouvez pas modifier la vitesse et le mode duplex des cartes Intel utilisant un câble à fibre
optique.
l
L'onglet Vitesse de liaison peut afficher une icône d'information bleue avec le message contextuel "Ce
périphérique n'est pas lié à sa capacité de vitesse maximale".Dans ce cas, si le périphérique est configuré pour prendre en charge la négociation automatique, vous pouvez configurer la vitesse du partenaire de liaison du périphérique à la vitesse maximale du périphérique. Si le périphérique n’est pas
configuré pour prendre en charge la négociation automatique, vous pouvez configurer la vitesse du périphérique manuellement en vous assurant que le partenaire de liaison est réglé sur la même vitesse.
Les cartes réseau Intel 10 Gigabit prenant en charge la vitesse 1 gigabit permettent de configurer le paramètre de
vitesse. Si cette option n’est pas présente, votre carte fonctionne uniquement à sa vitesse native.
Si la carte ne parvient pas à établir la liaison avec le partenaire de liaison Gigabit en utilisant la négociation automatique, configurez la carte sur 1 Gbit/s Duplex intégral.
Les cartes réseau 10 Gigabit Intel® à fibre optique et les appareils SFP à fixation directe ne fonctionnent qu'en Duplex
intégral et uniquement à leur vitesse native. Les modules SFP+ Fiber 10 Gigabit multi-vitesse prennent en charge le
mode Duplex intégral à 10 Gbit/s et à 1 Gbit/s.
La négociation automatique et l'essai automatique ne sont pas pris en charge sur les périphériques reposant sur les
contrôleurs Ethernet Intel® Connection X552 et Ethernet Intel® Connection X553.
Configuration manuelle des paramètres du mode duplex et de la vitesse
La configuration est propre au pilote de votre système d'exploitation. Pour définir un mode Vitesse de liaison et duplex,
reportez-vous à la section ci-dessous correspondant à votre système d’exploitation.
ATTENTION : les paramètres du commutateur doivent toujours concorder avec ceux de la carte. La
carte sera sensiblement moins performante ou ne fonctionnera pas correctement si ses paramètres diffèrent de ceux du commutateur.
Windows
La négociation automatique est activée par défaut. Ne modifiez ce paramètre pour correspondre à la vitesse et au
mode duplex de votre partenaire de liaison qu'en cas de problèmes de connexion.
1. Double-cliquez sur la carte réseau que vous voulez configurer dans le Gestionnaire de périphériques Windows.
2. Sous l’onglet Vitesse de liaison, sélectionnez une vitesse et un mode duplex appropriés dans le menu déroulant Vitesse et duplex.
3. Cliquez sur OK.
Des instructions plus spécifiques sont disponibles dans l’Aide Intel® PROSet.
Linux
Reportez-vous à la rubrique Pilote Linux* pour famille de cartes réseau Intel® Gigabit pour des informations sur la
configuration de la vitesse et du mode duplex sur les systèmes Linux.
Onglet Avancé
Les paramètres répertoriés sous l’onglet Advanced (Avancé) d’Intel® PROSet pour le Gestionnaire de périphériques
Windows vous permettent de personnaliser la manière dont la carte prend en charge le repérage des paquets QS, les
paquets étendus, le délestage, ainsi que d’autres fonctionnalités. Il est possible que certaines des fonctionnalités cidessous ne soient pas disponibles. Cela dépend du système d’exploitation utilisé, des cartes spécifiques installées et
de la plate-forme spécifique utilisée.
Espacement intertrame dynamique
Permet de compenser les collisions excessives des paquets Ethernet sur le réseau.
Le paramètre par défaut est le plus efficace pour la plupart des ordinateurs et réseaux. Lorsque cette fonctionnalité est
activée, la carte réseau s’adapte dynamiquement aux conditions de trafic sur le réseau. En de rares occasions cependant, il est possible d’obtenir de meilleures performances en désactivant cette fonctionnalité. Ce paramètre force un
vide statique entre les paquets.
Valeur par défaut
Valeurs possibles
Désactivé
l
l
Activé
Désactivé
Coalition d’accès direct à la mémoire (DMA)
Le DMA (Direct Memory Access) permet au périphérique de réseau de déplacer directement les données de paquet
vers la mémoire du système, réduisant ainsi l’utilisation du processeur. Cependant, la fréquence et les intervalles aléatoires d’arrivée de paquets ne permettent pas au système d’entrer en mode faible consommation. La coalition DMA permet à la carte réseau de collecter des paquets avant de démarrer un événement DMA. Cela peut augmenter la latence
du réseau, mais augmenter aussi les chances de baisse de consommation du système. Les cartes et périphériques de
réseau basés sur le contrôleur Ethernet Intel® I350 (et les versions ultérieures) prennent en charge la coalition DMA.
Des valeurs de coalition DMA élevées permettent d’économiser plus d’énergie, mais peuvent augmenter la latence du
réseau du système. Si la coalition DMA est activée, le taux de gestion des interruptions doit aussi être défini sur
’Minimal’ (minimum). Cela permet de limiter l’impact de latence imposé par la coalition DMA et d’améliorer le rendement du réseau. La coalition DMA doit être activée sur tous les ports actifs dans le système. Si l’activation ne touche
que certains ports du système, l’économie d’énergie ne sera pas évidente. Il existe aussi plusieurs BIOS, plate-forme
et paramètres d’application qui peuvent influencer les économies potentielles d’énergie. La meilleure configuration de
votre plate-forme est expliquée dans un document disponible sur le site Web Intel.
Mode de correction des erreurs de transfert (FEC)
Permet de configurer le mode de correction des erreurs de transfert (Forward Error Correction, FEC). Le mode FEC
améliore la stabilité de la liaison mais augmente la latence. De nombreux câbles optiques, câbles à branchement
direct et canaux de type fonds de panier de haute qualité offrent une liaison stable sans mode FEC.
Le pilote vous permet de définir les modes FEC suivants :
l
FEC auto - Définit le mode FEC en fonction des capacités du câble branché.
l
CL108 RS-FEC - Sélectionne uniquement les capacités et fonctionnalités de demande RS-FEC.
l
CL74 FC-FEC/BASE-R - Sélectionne uniquement les capacités et fonctionnalités de demande BASE-R.
l
Pas de FEC - Désactive le mode FEC.
REMARQUE : les périphériques ne peuvent tirer parti de cette fonctionnalité que si le mode FEC est activé sur
les partenaires de liaison.
Contrôle de flux
Permet aux cartes de réguler le trafic d’une manière plus efficace. Les cartes génèrent des trames de contrôle de flux
lorsque leurs files de réception atteignent une limite prédéterminée. La génération des trames de contrôle de flux
indique à l’émetteur de ralentir les transmissions. Les cartes répondent aux trames de contrôle de flux en interrompant
la transmission des paquets pour un délai spécifié dans la trame de contrôle de flux.
En permettant aux cartes d’ajuster la transmission des paquets, le contrôle de flux empêche la perte de paquets.
REMARQUE S :
l
Pour que les cartes puissent bénéficier de cette fonctionnalité, les partenaires de liaison doivent prendre
en charge les trames de contrôle de flux.
l
Quand une carte réseau fonctionne en mode NPar, le contrôle de flux est limité à la partition racine de
chaque port.
Valeur par défaut
Valeurs possibles
RX et TX activées
l
l
l
l
Désactivé
RX activée
TX activée
RX et TX activées
Mode Maître-Esclave Gigabit
Détermine si la carte ou le partenaire de liaison est désigné comme le maître. L’autre périphérique est désigné comme
l’esclave. Par défaut, la norme IEEE 802.3ab définie comment sont traités les conflits. Les périphériques multiports tels
que les commutateurs sont affectés d’un niveau de priorité plus élevé que les périphériques à port unique et sont désignés comme maîtres. Si les deux périphériques sont multiports, c’est celui qui possède le nombre de bits le plus élevé
qui est désigné comme le maître. Le paramètre par défaut est appelé "Matériel par défaut".
REMARQUE : dans la plupart des cas, il est recommandé de conserver la valeur par défaut de cette fonctionnalité.
La définition de ce paramètre sur "Forcer le mode Maître" ou "Forcer le mode Esclave" outrepasse la valeur Matériel
par défaut.
Valeur par défaut
Valeurs possibles
Détection automatique
l
l
l
Forcer le mode Maître
Forcer le mode Esclave
Détection automatique
REMARQUE : le mode Maître peut être forcé sur certains périphériques multiports. Si la carte est connectée à
un tel périphérique et qu’elle est configurée pour forcer le mode Maître, la liaison ne sera pas établie.
Taux de gestion des interruptions
Définit l’ITR (Interrupt Throttle Rate). Ce paramètre détermine le taux auquel les interruptions de transmission et de
réception sont générées.
Lorsqu’un événement, tel que la réception de paquets, a lieu, la carte génère des interruptions. L’interruption interrompt le processeur et toute application exécutée à ce moment demande au pilote de traiter le paquet. Aux vitesses de
liaison rapides, les interruptions sont plus nombreuses et les taux du processeur augmentent également. Cela
entraîne une diminution des performances du système. Lorsque vous sélectionnez un paramètre ITR plus élevé, le
taux d’interruption est diminué, ce qui entraîne une amélioration des performances du processeur.
REMARQUE : un taux ITR élevé signifie également une latence plus importante du pilote lors du traitement des
paquets. Si la carte traite de nombreux petits paquets, il est préférable de diminuer l’ITR afin que le pilote puisse
répondre plus efficacement aux paquets entrant et sortant.
La modification de ce paramètre peut améliorer le débit sur certains réseaux et dans certaines configurations de système. Cependant, le paramètre par défaut est optimal pour les réseaux et configurations de système les plus courants.
Ne modifiez pas ce paramètre sans avoir vérifié que les modifications envisagées affecteront de façon positive les performances du réseau.
Valeur par défaut
Valeurs possibles
Adaptatif
l
l
l
l
l
l
l
Adaptatif
Extrême
Haut
Moyen
Faible
Minimal
Désactivé
Délester somme de contrôle IPv4
Ceci permet à la carte de calculer la somme de contrôle IPv4 des paquets entrants et sortants. Cette fonctionnalité améliore les performances de transmission IPv4, et réduit le taux d’utilisation du processeur.
Lorsque le délestage est désactivé, le système d’exploitation vérifie la somme de contrôle IPv4.
Lorsque le délestage est activé, la carte effectue la vérification en lieu et place du système d’exploitation.
Valeur par défaut
Valeurs possibles
RX et TX activées
l
l
l
l
Désactivé
RX activée
TX activée
RX et TX activées
Trames Jumbo
Active ou désactive la fonctionnalité Paquets étendus. La taille normale des trames Ethernet est de 1514 octets, alors
que les paquets étendus sont plus volumineux. Les paquets étendus peuvent augmenter le débit et limiter l’utilisation
du processeur. Toutefois, la latence peut augmenter.
Activez la fonctionnalité Paquets étendus uniquement si TOUS les périphériques du réseau la prennent en charge et
sont configurés pour utiliser une taille de trame équivalente. Lors de la configuration des paquets étendus sur d’autres
périphériques réseau, souvenez-vous que la taille des paquets étendus est calculée de façon différente en fonction du
périphérique réseau. Certains périphériques incluent la taille de trame dans les informations d’en-tête et d’autres non.
Les cartes Intel n’incluent pas la taille des trames dans les informations d’en-tête.
Les paquets étendus peuvent être implémentés simultanément avec les réseaux locaux virtuels et l’agrégation de
cartes. Si une association comporte une ou plusieurs cartes d’un autre fabricant qu’Intel, elle ne prend pas en charge
les paquets étendus. Avant d’ajouter à l’association une carte d’un autre fabricant qu’Intel, veillez à désactiver les
paquets étendus sur toutes les cartes d’un autre fabricant qu’Intel, à l’aide du logiciel fourni avec la carte en question.
Restrictions
l
l
l
l
Seuls les protocoles IP (TCP, UDP) sont pris en charge.
Les trames Jumbo nécessitent des commutateurs compatibles avec le transfert de trames Jumbo. Pour de plus
amples informations, contactez le fabricant du commutateur.
Si des trames Ethernet de taille standard (64 à 1518 octets) sont utilisées, il n’y a aucun avantage à configurer
des trames Jumbo.
Le paramètre des paquets étendus sur le commutateur doit être supérieur d’un minimum de 8 octets à celui du
paramètre de carte des systèmes d’exploitation Windows, et d’un minimum de 22 octets supérieur pour tous les
autres systèmes d’exploitation.
Valeur
par
défaut
Désactivé
Valeurs
possibles
Désactivé (1514), 4088 ou 9014 octets. (Définissez le commutateur sur 4 octets supplémentaires pour
le CRC, plus 4 octets supplémentaires en cas d’utilisation de réseaux VLAN.)
REMARQUES :
l
Les paquets étendus sont pris en charge uniquement à 10 Gbit/s et à 1 Gbit/s. L’utilisation de ces
paquets à 10 ou 100 Mbit/s pourrait résulter en une diminution des performances ou une perte de liaison.
l
Le matériel réseau bout en bout doit prendre en charge cette capacité, faute de quoi des paquets seront
perdus.
l
Certaines cartes Intel prenant en charge les paquets étendus ont une taille de trame limitée à 9 238
octets, avec une taille MTU correspondante de 9 216 octets.
Délester envoi important (IPv4 et IPv6)
Configure la carte pour qu’elle déleste les tâches de segmentation des messages TCP en trames Ethernet valides. La
taille de trame maximum pour le délestage d’envoi important est de 64 000 octets.
Cette fonctionnalité peut améliorer les performances de transmission car le matériel de la carte est capable de segmenter les données beaucoup plus rapidement que le logiciel du système d’exploitation. De plus, la carte utilise moins
de ressources processeur.
Valeur par défaut
Activé
Valeurs possibles
l
l
Activé
Désactivé
Adresse administrée localement
Remplace l’adresse MAC initiale par une adresse MAC affectée par l’utilisateur. Pour entrer une nouvelle adresse de
réseau, tapez un nombre hexadécimal de 12 caractères dans cette zone.
Valeur
par
défaut
Aucune
Valeurs
possibles
0000 0000 0001 - FFFF FFFF FFFD
Exceptions :
l
Ne pas utiliser une adresse multicast (Bit le moins significatif de l’octet haut = 1). Par exemple,
dans l’adresse 0Y123456789A, "Y" ne peut être un nombre impair. (Y doit être 0, 2, 4, 6, 8, A,
C ou E.)
l
Ne pas utiliser que des zéros ou que des F.
Si vous n’entrez aucune adresse, l’adresse réseau initiale de la carte est utilisée.
Par exemple,
Multidiffusion : 0123 4567 8999 Diffusion : FFFF FFFF FFFF
Unicast (légal) : 0070 4567 8999
REMARQUE : dans une association, Intel® PROSet utilise soit :
l
l’adresse MAC permanente de la carte principale si aucune adresse administrée localement n’est configurée pour l’association, ou
l
l’adresse administrée localement de l’association, si elle est configurée.
Intel® PROSet n’utilise pas l’adresse administrée localement d’une carte si cette carte est la carte principale de
l’association, ou si l’association dispose d’une telle adresse.
Enregistrement d’événement d’état de liaison
Ce paramètre est utilisé pour activer/désactiver l’enregistrement des changements d’état de liaison. S’il est activé, un
événement de changement au niveau de l’établissement ou de l’interruption d’une liaison génère un message qui
s’affiche dans le journal des événements du système. Ce message contient la vitesse et le duplex de la liaison. Les
administrateurs peuvent visualiser le message d’événement depuis le journal des événements du système.
Les événements suivants sont enregistrés :
l
La liaison est active.
l
La liaison est inactive.
l
Discordance de duplex.
l
Protocole Spanning Tree détecté.
Valeur par défaut
Activé
Valeurs possibles
Activé, Désactivé
Interruptions à faible latence
Les interruptions à faible latence (LLI) permettent au périphérique réseau de contourner le schéma de modération des
interruptions configuré en fonction du type de données reçu. Il configure quels paquets TCP entrants déclenchent une
interruption immédiate, ce qui permet au système de traiter le paquet plus rapidement. La réduction de la latence des
données permet à certaines applications d’accéder plus rapidement aux données du réseau.
REMARQUE : lorsque les interruptions à faible latence sont activées, l’utilisation du processeur peut s’accroître.
Les interruptions à faible latence peuvent être utilisées pour les paquets de données dont l’en-tête contient un indicateur TCP PSH ou pour des ports TCP spécifiés.
l
Paquets avec indicateur TCP PSH - Tout paquet entrant contenant l’indicateur TCP PSH déclenche une interruption immédiate. L’indicateur PSH est défini par le périphérique d’envoi.
l
Ports TCP - Chaque paquet reçu sur les ports spécifiés déclenche une interruption immédiate. Huit ports
peuvent être spécifiés.
Valeur par défaut
Valeurs possibles
Désactivé
l
l
l
Désactivé
Basé sur des indicateurs PSH
Basé sur des ports
Virtualisation réseau à l'aide de l'Encapsulation générique de routage (Generic Routing Encapsulation, NVGRE)
La virtualisation réseau à l'aide de l'Encapsulation générique de routage (Generic Routing Encapsulation, NVGRE)
augmente l'efficacité du routage du trafic réseau dans un environnement virtualisé ou de Cloud. Certaines cartes
réseau Ethernet Intel® effectuent la virtualisation réseau en utilisant le traitement Encapsulation générique de routage
(NVGRE), la délestant ainsi du système d'exploitation. Cette fonctionnalité réduit le taux d'utilisation de l'UC.
REMARQUE : lorsqu'un port est en mode NPar, NVGRE (le paramètre Délestage de tâche encapsulée) est disponible uniquement sur la première partition du port.
Options de performances
Profil de performance
Les profils de performances sont pris en charge sur les cartes réseau Intel® 10GbE. Ils permettent d’optimiser rapidement les performances de votre carte réseau Ethernet Intel®. Le choix d’un profil de performances ajuste automatiquement certains paramètres avancés en les réglant de manière optimale pour l’application sélectionnée. Par
exemple, un serveur standard n’a de performances optimales qu’avec deux files d’attente RSS (Receive-Side Scaling), alors qu’un serveur Web aura besoin de davantage de files d’attente pour une meilleure évolutivité.
Pour pouvoir utiliser les profils de performances, vous devez installer Intel® PROSet pour le Gestionnaire de périphériques Windows. La sélection des profils se fait dans l’onglet Avancé de la page de propriétés de la carte.
Profils
l
l
l
l
l
l
Serveur standard – Ce profil est optimisé pour les serveurs typiques.
Serveur Web – Ce profil est optimisé pour les serveurs Web IIS et HTTP.
Serveur de virtualisation – Ce profil est optimisé pour l’environnement de virtualisation Hyper-V
de Microsoft.
Serveur de stockage – Ce profil est optimisé pour la performance Fibre Channel over Ethernet ou
iSCSI over DCB. La sélection de ce profil désactivera SR-IOV et VMQ.
Stockage + virtualisation – Ce profil est optimisé pour une combinaison d’exigences de stockage
et de virtualisation.
Faible latence – Ce profil est optimisé pour minimiser la latence du réseau.
REMARQUES :
l
Toutes les options ne sont pas disponibles pour toutes les combinaisons de carte/système
d’exploitation.128 à 4096,
l
Si vous avez sélectionné le profil Serveur de virtualisation ou le profil Stockage + virtualisation et que
vous désinstallez le rôle Hyper-V, vous devez sélectionner un nouveau profil.
Remarques concernant les associations
Lorsque vous créez une association dont tous les membres prennent en charge les profils de performances, au
moment de créer l’association, il vous sera demandé quel profil utiliser. Le profil sera synchronisé dans l’ensemble de
l’association. S’il n’y a pas de profil pris en charge par la totalité des membres de l’association, la seule possibilité sera
d’utiliser les paramètres actuels. L’association sera créée normalement. L’ajout d’une carte réseau à une association
existante se passe de manière très semblable.
Si vous ajoutez à une association une carte qui prend en charge les profils de performances avec une carte qui ne les
prend pas en charge, le profil sur la carte qui les prend en charge sera défini avec les paramètres personnalisés et
l’association sera créée normalement.
Balisage de la priorité et des VLAN
Permet à la carte de décharger l’insertion et la suppression de balises de priorité et de VLAN pour l’émission et la
réception.
Valeur par défaut
Priorité et VLAN activés
Valeurs possibles
l
l
l
l
Priorité et VLAN désactivés
Priorité activée
VLAN activé
Priorité et VLAN activés
Qualité de service
La fonction QoS permet à la carte d'envoyer et de recevoir des trames balisées IEEE 802.3ac. Les trames
balisées 802.3ac comprennent les trames balisées 802.1p prioritaires et 802.1Q VLAN. Pour mettre en œuvre la fonctionnalité QS, la carte doit être connectée à un commutateur prenant en charge QS et configuré en conséquence. Les
trames balisées prioritaires permettent aux applications traitant des événements en temps réel, d’optimiser l’utilisation
de la largeur de bande du réseau. Les paquets à priorité élevée sont traités avant les paquets à faible priorité.
Pour mettre en œuvre la fonctionnalité QS, la carte doit être connectée à un commutateur prenant en charge la qualité
de service 802.1p et configuré en conséquence.
Le balisage QS peut être activé ou désactivé dans l’onglet Avancé d’Intel® PROSet pour le Gestionnaire de périphériques Windows.
Une fois QS activé dans Intel® PROSet, vous pouvez spécifier des degrés de priorité en fonction du balisage de
trames IEEE 802.1p/802.1Q.
Tampons de réception
Définit le nombre de tampons de réception (segments de données). Ceux-ci sont alloués dans la mémoire hôte et utilisés pour stocker les paquets reçus. Chaque paquet reçu nécessite au moins un descripteur de réception et chaque
descripteur utilise 2 Ko de mémoire.
Vous pouvez augmenter le nombre de tampons de réception si vous remarquez une diminution considérable des performances relatives au trafic de réception. Si vous n’avez pas de problème relatif aux performances de réception, utilisez la valeur par défaut de la carte.
Valeur par défaut
512, pour les cartes réseau 10 Gigabit pour serveurs.
256, pour toutes les autres cartes en fonction des fonctionnalités sélectionnées.
Valeurs possibles
128 à 4 096, par intervalles de 64, pour les cartes réseau 10 Gigabit pour serveurs.
80 à 2048, par intervalles de 8, pour toutes les autres cartes.
Valeur recommandée
Carte associée : 256
Si IPSec et/ou des fonctionnalités multiples sont utilisées : 352
Receive Side Scaling
Lorsque la mise à l’échelle de l’extrémité réception (RSS) est activée, tout le traitement des données en réception sur
une connexion TCP donnée sont partagées par plusieurs processeurs ou cœurs de processeur. Sans RSS, tout le traitement est effectué par un processeur unique, d’où une utilisation moins efficace de la mémoire cache du système.
RSS peut être activé pour un LAN ou pour FCoE. Dans le premier cas, l’on parle de LAN RSS. Dans le second, de
FCoE RSS.
LAN RSS
LAN RSS s’applique à une connexion TCP particulière.
REMARQUE : ce paramètre est sans effet si le système ne comporte d’un processeur.
Configuration de LAN RSS
RSS est activé dans l’onglet Advanced (Avancé) de la page de propriétés de la carte. Si votre carte ne prend pas en
charge RSS, ou si SNP ou SP2 n’est pas installé, le paramètre RSS n’est pas affiché. Si RSS est pris en charge dans
votre environnement système, les informations suivantes s’afficheront :
l
Nœud du port NUMA. Il s’agit du numéro de nœud NUMA d’un périphérique.
l
CPU RSS de départ. Ce paramètre permet de déterminer le processeur RSS préférentiel de départ. Vous le
modifierez si le processeur actuel est affecté à d’autres processus. La plage du paramètre va de 0 au nombre
de processeurs logiques - 1.
l
Nombre max de processeurs RSS. Ce paramètre permet de fixer le nombre maximum de processeurs attribués à une carte et s’utilise principalement en environnement Hyper-V. En diminuant la valeur du paramètre
dans cet environnement, le nombre total d’interruptions diminue, ce qui réduit à son tour le taux d’utilisation des
processeurs. La valeur par défaut est 8 pour les cartes Gigabit et 16 pour les cartes 10 Gigabit.
l
Nœud NUMA préférentiel. Ce paramètre permet de choisir le nœud NUMA (Non-Uniform Memory Access) à
utiliser pour les allocations mémoires effectué par la carte réseau. Pour RSS, le système tente par ailleurs
d’utiliser d’abord les processeurs du nœud NUMA préférentiel. Sur les plates-formes NUMA, la latence des
accès mémoire est fonction de l’emplacement correspondant. Le fait d’allouer la mémoire à partir du nœud le
plus proche contribue à améliorer les performances. Le gestionnaire de tâches de Windows affiche l’identifiant
de nœud NUM pour chaque processeur.
REMARQUES :
l
Ces considération ne touchent que les systèmes NUMA ; Ils n’ont aucune incidence sur les systèmes non NUMA.
l
Le choix d'une valeur supérieure au nombre de nœud NUMA présents sur le système sélectionne le nœud NUMA le plus proche du périphérique.
l
Files d’attente Receive Side Scaling. Ce paramètre configure le nombre de files d’attente RSS qui détermine
l’espace de mémoire tampon des transactions entre la carte réseau et le ou les processeurs.
Valeur par
défaut
2 files d’attente pour les cartes Intel® 10 Gigabit pour serveurs
Valeurs possibles
l
l
l
l
1 file d’attente est utilisée en cas de faible utilisation du processeur.
2 files d’attente sont utilisées si un bon débit et une faible utilisation du processeur
sont nécessaires.
4 files d’attente sont utilisées pour les applications qui exigent un débit maximum et
de nombreuses transactions par seconde.
8 et 16 files d’attente sont prises en charge sur les cartes Intel® 82598 et 82599.
REMARQUES :
l
Les 8 et 16 files d’attente sont disponibles uniquement lorsque
PROSet pour le Gestionnaire de périphériques Windows est installé.
Si PROSet n’est pas installé, seulement 4 files d’attente sont disponibles.
l
L’utilisation de 8 files d’attente ou plus nécessite le redémarrage du
système.
REMARQUE : certaines cartes ne prennent pas en charge tous les paramètres.
LAN RSS et agrégation de cartes
l
l
Si la fonctionnalité RSS n’est pas activée sur toutes les cartes d’une association, elle sera désactivée pour
cette association.
Si une carte ne prenant pas en charge la fonctionnalité RSS est ajoutée à l’association, la fonctionnalité RSS
sera désactivée pour l’association.
FCoE RSS
Si FCoE est installé, FCoE RSS est activé et s’applique aux traitements des réceptions FCoE partagées entre les
cœurs du processeur.
Configuration de FCoE RSS
Si votre carte réseau prend en charge FCoE RSS, les paramètres de configuration suivants peuvent être visualisés et
modifiés dans l’onglet Performances avancées du pilote de base :
l
Nombre de nœuds NUMA FCoE. Ce paramètre spécifie le nombre de nœuds NUMA consécutifs où les files
d'attente FCoE affectées seront uniformément distribuées.
l
Nœud NUMA de départ FCoE. Ce paramètre spécifie le nœud NUMA représentant le premier nœud du
nombre de nœuds NUMA FCoE.
l
Décalage de cœur de départ FCoE. Ce paramètre spécifie le décalage du premier cœur de processeur du
nœud NUMA qui sera affecté à la file d'attente FCoE.
l
Nœud NUMA de port FCoE. Ce paramètre de la plate-forme indique le nœud NUMA optimal le plus proche du
port physique, le cas échéant. Ce paramètre est en lecture seule et ne peut pas être configuré.
Optimisation des performances
Le contrôleur réseau Intel fournit un nouvel ensemble d'options avancées permettant d'optimiser les performances
FCoE. Ces options régissent comment les files d'attente de transmission/réception FCoE sont affectées sur les platesformes NUMA. Spécifiquement, elles régissent depuis quel ensemble cible d'UC de nœud NUMA les UC peuvent être
sélectionnées pour affecter une affinité de file d'attente individuelle. La sélection d'une UC spécifique a deux effets
principaux :
l
l
Elle définit l'emplacement d'interruption souhaité pour traiter les indications de paquet de file d'attente.
Elle définit l'emplacement relatif de la file d'attente dans la mémoire disponible.
Comme indiqué, il s'agit d'options d'optimisation avancées destinées aux gestionnaires de plates-formes cherchant à
optimiser les performances du système. Elles sont généralement utilisées pour optimiser les performances dans les
configurations de plates-formes multiports. Comme tous les ports partagent les mêmes directives d'installation par
défaut (le fichier .inf, etc.), les files d'attente FCoE de chaque port sont associées au même ensemble d'UC NUMA, ce
qui peut entraîner un conflit d'UC.
Le logiciel qui exporte ces options d'optimisation définit un nœud NUMA comme étant équivalent à un processeur individuel (socket). Les informations ACPI de la plate-forme présentées par le BIOS au système d'exploitation contribuent
à définir la relation des périphériques PCI aux processeurs individuels. Cependant, ce détail n'est actuellement pas
fourni de manière fiable sur toutes les plates-formes. En conséquence, l'utilisation des options d'optimisation peut produire des résultats inattendus. Nous ne pouvons pas garantir que les options de performance produiront des résultats
cohérents et prévisibles.
Les options d'optimisation des performances sont répertoriées dans la section Configuration de LAN RSS.
Exemple 1 : une plate-forme possédant deux sockets physiques, chaque processeur de socket fournissant 8 cœurs de
processeur (16 lorsque la technologie Hyper-Threading est activée), et une carte réseau Intel deux ports avec FCoE
activé.
Par défaut, 8 files d'attente FCoE sont affectées par port de carte réseau. De plus, par défaut, les premiers cœurs (non
hyper thread) du premier processeur sont affectés d'une affinité avec ces files d'attente, ce qui entraîne le modèle
d'affectation illustré ci-dessous. Dans ce scénario, les deux ports sont en concurrence pour les cycles d'UC du même
ensemble d'UC du socket 0.
Affectation des files d'attente de socket à l'UC
Avec les options d'optimisation des performances, l'association des files d'attente FCoE du deuxième port peut être dirigée vers un autre ensemble de cœurs d'UC non concurrent. Les paramètres suivants indiquent au logiciel d'utiliser les
UC de l'autre socket de processeur :
l
Nombre de nœuds NUMA FCoE = 1 : Affecter les files d'attente aux cœurs d'un nœud NUMA (ou socket de processeur) unique.
l
Nœud NUMA de départ FCoE = 1 : Utiliser les cœurs d'UC du deuxième nœud NUMA (ou socket de processeur) du système.
l
Décalage de cœur de départ FCoE = 0 : Le logiciel démarrera au premier cœur d'UC du nœud NUMA (ou
socket de processeur).
Les paramètres suivants indiquent au logiciel d'utiliser un ensemble d'UC différent sur le même socket de processeur :
Cela prend pour hypothèse qu'un processeur prend en charge 16 cœurs (non hyper thread).
l
Nombre de nœuds NUMA FCoE = 1
l
Nœud NUMA de départ FCoE = 0
l
Décalage de cœur de départ FCoE = 8
Exemple 2 : Utilisation d'un ou de plusieurs ports avec des files d'attente affectées à plusieurs nœuds NUMA. Dans ce
cas, pour chaque port de carte réseau, le Nombre de nœuds NUMA FCoE est défini sur ce nombre de nœuds NUMA.
Par défaut, les files d'attente seront affectées de façon égale à chaque nœud NUMA :
l
Nombre de nœuds NUMA FCoE = 2
l
Nœud NUMA de départ FCoE = 0
l
Décalage de cœur de départ FCoE = 0
Exemple 3 : L'affichage montre que le paramètre Nœud de port NUMA FCoE est 2 pour un port de carte donné. Il s'agit
d'une valeur en lecture seule fournie par le logiciel, indiquant que le nœud NUMA optimal le plus proche du périphérique PCI est le troisième nœud logique NUMA du système. Par défaut, le logiciel a affecté les files d'attente de ce
port au nœud NUMA 0. Les paramètres suivants indiquent au logiciel d'utiliser les UC du socket de processeur
optimal :
l
Nombre de nœuds NUMA FCoE = 1
l
Nœud NUMA de départ FCoE = 2
l
Décalage de cœur de départ FCoE = 0
Cet exemple met en évidence le fait que le nombre de bus PCI et leur emplacement peut varier en fonction des différentes architectures de plate-forme. Les figures ci-dessous montrent deux architectures de plate-forme simplifiées.
La première est l'architecture ancienne commune à bus principal dans laquelle plusieurs UC partagent l'accès au
contrôleur central mémoire et/ou contrôleur central des E/S qui fournit la connectivité du bus PCI et de la mémoire. La
deuxième est une architecture plus récente, dans laquelle plusieurs processeurs d'UC sont interrompus par QPI et
dans laquelle chaque processeur prend en charge directement la connectivité intégrée du contrôleur central mémoire
et PCI.
Il existe un avantage perçu à garder l'affectation des objets de ports, comme les files d'attente, aussi près que possible
du nœud NUMA ou de la collection d'UC auxquels elles accèderont le plus probablement. Si les files d'attente des
ports utilisent les UC et la mémoire d'un seul socket alors que le périphérique PCI est associé à un autre socket, la
consommation QPI de bande passante du bus entre les processeurs risque d'être indésirable. Il est important de bien
comprendre l'architecture de la plate-forme lors de l'utilisation de ces options d'optimisation des performances.
Architecture PCI/mémoire partagée à racine unique
Architecture PCI/mémoire distribuée à plusieurs racines
Exemple 4 : Le nombre d'UC de nœuds NUMA disponibles n'est pas suffisant pour l'affectation des files d'attente. Si
votre plate-forme possède un processeur qui ne prend pas en charge un carré d'UC pair (par exemple, il prend en
charge 6 cœurs), lors de l'affectation des files d'attente, si le logiciel est à court d'UC sur un socket, il réduit par défaut
le nombre de files d'attente à la puissance 2 jusqu'à ce que l'affectation soit terminée. Par exemple, si un processeur à
6 cœurs est utilisé, le logiciel affecte seulement 4 files d'attente FCoE s'il n'existe qu'un seul nœud NUMA. S'il y a plusieurs nœuds NUMA, le nombre de nœuds NUMA peut être défini à une valeur supérieure ou égale à 2 afin de pouvoir
créer les 8 files d'attente.
Détermination de l'emplacement de la file d'attente active
L'utilisateur de ces options d'optimisation des performances cherchera à déterminer l'affinité des files d'attente FCoE
avec les UC afin de vérifier leur effet réel sur l'affectation des files d'attente. Cela peut être réalisé facilement en utilisant une charge de travail comportant peu de paquets et une application d'E/S telle que IoMeter. IoMeter surveille
l'utilisation de chaque UC en utilisant l'analyseur de performances intégré au système d'exploitation. Les UC soutenant
l'activité des files d'attente doivent se distinguer. Elles doivent être les premières UC non hyper thread disponibles sur
le processeur, sauf si l'affectation est spécifiquement modifiée par les options d'optimisation des performances décrites
ci-dessus.
Pour rendre l'emplacement des files d'attente FCoE encore plus évident, l'affinité de l'application peut être affectée à
un ensemble d'UC isolé du même ou d'un autre socket de processeur. Par exemple, l'application IoMeter peut être
configurée pour être exécutée uniquement sur un nombre fini d'UC hyper thread sur n'importe quel processeur. Si les
options d'optimisation des performances ont été définies pour diriger l'affectation des files d'attente sur un nœud NUMA
spécifique, l'affinité de l'application peut être définie sur un nœud NUMA différent. Les files d'attente FCoE ne doivent
pas bouger et l'activité doit rester sur ces UC, bien que l'activité UC de l'application passe sur les autres UC de processeur sélectionnées.
SR-IOV (Virtualisation des E/S root unique)
SR-IOV permet à un même port réseau d’apparaître sous forme de plusieurs fonctions virtuelles différentes dans un
environnement virtualisé. Si vous avez une carte d’interface réseau compatible SR-IOV, chacun des ports de cette
carte peut affecter une fonction virtuelle à plusieurs partitions invitées. Les fonctions virtuelles contournent le gestionnaire VMM de machines virtuelles en permettant aux données de paquets d’aller directement dans la mémoire
d’une partition invitée, ce qui se traduit par un débit plus élevé et une moindre utilisation du CPU. SR-IOV vous permet
lui aussi de déplacer les données des paquets directement dans la mémoire d'une partition invitée.. Consultez la documentation de votre système d’exploitation pour connaître les conditions systèmes requises.
Pour les périphériques qui le prennent en charge, SR-IOV est activé sur la partition hôte de la feuille des propriétés
Gestionnaire de périphériques de la carte réseau (section Virtualisation de l’onglet Avancé). Certains appareils
peuvent avoir besoin que SR-IOV soit activé dans un environnement de prédémarrage.
REMARQUES :
l
Configuration de SR-IOV pour une sécurité réseau renforcée : dans un environnement virtualisé, la fonction virtuelle (VF) peut être sujette à un comportement
malveillant sur les cartes Intel® pour serveurs prenant en charge SR-IOV. Les
trames générées par le logiciel ne sont pas attendues et peuvent ralentir le trafic
entre l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour
résoudre ce problème, configurez tous les ports compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames inattendues
et potentiellement malveillantes.
l
Vous devez activer VMQ pour que SR-IOV puisse fonctionner.
l
SR-IOV n’est pas pris en charge avec les associations ANS.
l
l
l
l
l
l
VMWare ESXi ne prend pas en charge SR-IOV sur les ports 1 GbE.
Certaines cartes multiports contiennent plus d'un contrôleur. L'activation de SR-IOV
sur un port de ces cartes n'activera pas SR-IOV sur tous les ports. L'activation se
fera uniquement sur les ports associés au même contrôleur.
Si SR-IOV est désactivé sur le BIOS ou le gestionnaire de démarrage, l'activation
de SR-IOV depuis Intel PROSet nécessitera un redémarrage du système.
Lorsqu'une carte fonctionne en mode NPar, SR-IOV est limité à la partition racine
de chaque port.
Lorsqu'une carte fonctionne en mode NPar, les paramètres de virtualisation (SRIOV) s'appliquent à tous les ports de la carte. Les modifications apportées aux paramètres de virtualisation sur un port sont appliqués à tous les ports de la carte.
En raison des limitations des chipsets, tous les systèmes ou connecteurs ne
prennent pas en charge SR-IOV. Vous trouverez ci-dessous un tableau récapitulatif de la prise en charge de SR-IOV sur les plates-formes serveur Dell EMC.
Prise en charge de SR-IOV sur les cartes réseau
Carte fille réseau, LAN sur carte mère ou carte
40Gbe 25Gbe 10Gbe 1Gbe
Carte réseau convergent Ethernet Intel® XL710-Q2
Oui
Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Oui
Carte mezzanine Ethernet Intel® 25G 2P XXV710
Oui
Carte réseau Ethernet Intel® 25G 2P XXV710
Oui
Carte réseau Ethernet Intel® 10G 4P X710-k bNDC
Oui
Carte réseau Ethernet Intel® 10G 2P X710-k bNDC
Oui
Carte réseau Ethernet Intel® 10G X710-k bNDC
Oui
Carte réseau convergent Ethernet Intel® X710
Oui
Carte réseau convergent Ethernet Intel® X710-T
Oui
Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP
Oui
Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC
Oui
Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC
Oui
Carte réseau Ethernet Intel® 10G X710 rNDC
Oui
Carte réseau Ethernet Intel® 10G 4P X550 rNDC
Oui
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
Oui
Carte réseau Ethernet Intel® 10G 2P X550-t
Oui
Carte réseau Ethernet Intel® 10G 2P X540-t
Oui
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC
Oui
Non
Carte Ethernet Intel® 10G 4P X520/I350 rNDC
Oui
Non
Carte réseau Ethernet Intel® 10G 2P X520-k bNDC
Oui
Carte réseau Ethernet Intel® 10G 2P X520
Oui
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Oui
Non
Non
Non
Carte Intel® Gigabit 4P I350-t rNDC
Oui
Carte Intel® Gigabit 4P I350 bNDC
Oui
Carte fille réseau, LAN sur carte mère ou carte
40Gbe 25Gbe 10Gbe 1Gbe
Carte mezzanine Intel® Gigabit 4P I350-t
Oui
Carte Intel® Gigabit 2P I350-t
Oui
Carte réseau Intel® Gigabit 4P I350-t
Oui
PowerEdge C4130 LOM
Non
PowerEdge C6320 LOM
Oui
PowerEdge C6420 LOM
Non
PowerEdge T620 LOM
Non
PowerEdge T630 LOM
Non
PowerEdge FC430 LOM
Non
Oui
PowerEdge R530XD LOM
Plate-forme
Dell EMC
Non
Carte mez- Carte
Connecteur PCI Express
zanine
fille
pour OCP réseau
1
2
3
4
5
pour
rack
C4130
C4140
non
C6320
oui
oui
oui
non oui
oui
C6420
oui
oui
R230
non non
R320
non oui
R330
non non
R420
1x
UC
non oui
2x
UC
oui
oui
R430
oui
oui
R440
oui
oui
oui
1x
UC
non oui
oui
oui
2x
UC
oui
oui
oui
oui
R530
oui
oui
oui
non non
R540
oui
oui
oui
oui
R530XD
oui
oui
non
R620
oui
oui
oui
R630
oui
oui
oui
R520
6
oui
non
7
8
9
10
11
12
13
Plate-forme
Dell EMC
Carte mez- Carte
Connecteur PCI Express
zanine
fille
pour OCP réseau
1
2
3
4
5
pour
rack
6
7
R640
oui
oui
oui
oui
R720XD
oui
oui
oui
oui
oui
oui
oui
R720
oui
oui
oui
oui
oui
oui
oui
oui
R730
oui
oui
oui
oui
oui
oui
oui
R730XD
oui
oui
oui
oui
oui
oui
8
R740
oui
oui
oui
oui
oui
oui
oui
oui oui
R820
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
R830
9
10
11
12
13
R840
oui
oui
oui
oui
oui
oui
oui
oui oui oui oui
R920
oui
oui
oui
oui
oui
oui
oui
oui oui oui oui
oui
oui
oui
oui
oui
oui
oui oui oui oui
oui
oui
oui
oui
oui
oui
oui oui oui oui oui oui oui
R930
R940
oui
T130
non non non non
T320
non non oui
T330
non non non non
T420
non non oui
oui
oui
oui
T430
non non oui
oui
oui
oui
T440
non oui
oui
oui
oui
T620
oui
oui
non oui
oui
oui
oui
T630
oui
non oui
oui
oui
oui
oui
oui
oui
oui
oui
oui
oui oui
T640
oui
oui
oui
oui
Plate-forme Dell EMC Carte fille réseau lame Connecteur mezzanine
B
C
FC430
oui
oui
oui
FC630
oui
oui
oui
FC830
oui
oui
oui
M420
oui
oui
oui
M520
non
oui
oui
M620
oui
oui
oui
M630
oui
oui
oui
M630 pour VRTX
oui
Plate-forme Dell EMC Carte fille réseau lame Connecteur mezzanine
B
C
oui
oui
M640
oui
M640 pour VRTX
oui
M820
oui
oui
oui
M830
oui
oui
oui
M830 pour VRTX
oui
MX740c
oui
oui
oui
MX840c
oui
oui
oui
Les plates-formes ou connecteurs pris en charge sont indiqués par un "oui". Mention « non » : non pris en charge. Cellule vide : non applicable.
Délester somme de contrôle TCP (IPv4 et IPv6)
Permet à la carte de vérifier la somme de contrôle TCP des paquets entrants et de calculer la somme de contrôle TCP
des paquets sortants. Cette fonctionnalité améliore les performances d’émission et de réception, et réduit le taux
d’utilisation du processeur.
Lorsque le délestage est désactivé, le système d’exploitation vérifie le total de contrôle TCP.
Lorsque le délestage est activé, la carte effectue la vérification en lieu et place du système d’exploitation.
Valeur par défaut
Valeurs possibles
RX et TX activées
l
l
l
l
Désactivé
RX activée
TX activée
RX et TX activées
Options de délestage TCP/IP
Surveillance thermique
Les cartes et les contrôleurs réseaux basés sur le contrôleur Ethernet Intel® I350 (et versions ultérieures) peuvent afficher les données de température et réduire automatiquement la vitesse de la liaison si la température du contrôleur
est trop élevée.
REMARQUE : cette fonction est activée et configurée par le fabricant de matériel. Elle n’est pas disponible sur
toutes les cartes et contrôleurs réseaux. Il n’existe aucun paramètre utilisateur configurable.
Surveillance et production de rapports
L'information concernant la température est affichée sur l'onglet Vitesse de liaison dans Intel® PROSet pour le Gestionnaire de périphériques Windows*. Il existe trois conditions possibles :
l
Température : Normale
Indique le fonctionnement normal.
l
Température : Surchauffe, liaison réduite
Indique que le périphérique a une vitesse de liaison réduite pour abaisser la température et la consommation
de courant.
l
Température : Surchauffe ; arrêt de la carte
Indique que le périphérique est trop chaud et a arrêté le trafic de passage pour éviter les dommages.
Si un des événements de surchauffe se produit, le pilote du périphérique écrit un message sur le journal des événements du système.
Tampons d’émission
Définit le nombre de descripteurs de transmission. Les descripteurs de transmission sont des segments de données
qui permettent à la carte de suivre les paquets de transmission dans la mémoire système. En fonction de sa taille,
chaque paquet de transmission requiert un ou plusieurs descripteurs de transmission.
Vous pouvez augmenter le nombre de descripteurs de transmission si vous rencontrez un problème relatif aux performances de transmission. Bien qu’une augmentation du nombre de descripteurs puisse améliorer les performances
de transmission, les descripteurs de transmission consomment également de la mémoire système. Si vous n’avez pas
de problème relatif aux performances de transmission, utilisez la valeur par défaut. Ce paramètre par défaut varie en
fonction du type de carte.
Consultez la rubrique Spécifications des cartes pour obtenir de l’aide quant à l’identification de votre carte.
Valeur par défaut
512, en fonction des exigences de la carte
Valeurs possibles
128 à 16384, par intervalles de 64, pour les cartes réseau 10 Gigabit pour serveurs.
80 à 2048, par intervalles de 8, pour toutes les autres cartes.
Délester somme de contrôle UDP (IPv4 et IPv6)
Permet à la carte de vérifier la somme de contrôle UDP des paquets entrants et de calculer la somme de contrôle UDP
des paquets sortants. Cette fonctionnalité améliore les performances d’émission et de réception, et réduit le taux
d’utilisation du processeur.
Lorsque le délestage est désactivé, le système d’exploitation vérifie la somme de contrôle UDP.
Lorsque le délestage est activé, la carte effectue la vérification en lieu et place du système d’exploitation.
Valeur par défaut
RX et TX activées
Valeurs possibles
l
l
l
l
Désactivé
RX activée
TX activée
RX et TX activées
Attendre la liaison
Détermine si le pilote doit attendre la négociation automatique avant de signaler l’état de la liaison. Si cette fonctionnalité est désactivée, le pilote n’attend pas la négociation automatique. Si elle est activée, le pilote attend la négociation automatique.
Si cette fonctionnalité est activée alors que la vitesse n'est pas définie sur Négociation automatique, le pilote attend
quelques instants que la liaison soit établie avant de signaler l'état de la liaison.
Si la fonctionnalité est configurée pour une détection automatique, elle est automatiquement définie sur Activé ou
Désactivé en fonction de la vitesse et du type de carte lors de l’installation du pilote. Le paramètre est
l
Désactivé pour les cartes réseau Intel Gigabit cuivre avec une vitesse "Auto".
l
Activé pour les cartes réseau Intel Gigabit cuivre avec une vitesse et un mode duplex forcés.
l
Désactivé pour les cartes réseau Intel Gigabit à fibre optique avec une vitesse "Auto".
Valeur par défaut
Valeurs possibles
Détection automatique
l
l
l
Activé
Désactivé
Détection automatique
Onglet VLAN
L’onglet VLAN permet de créer, modifier et supprimer des réseaux locaux virtuels. Pour que cet onglet soit disponible
et pour pouvoir utiliser la fonctionnalité, vous devez installer Advanced Network Services.
Réseaux locaux virtuels
Présentation
REMARQUES :
l
Les utilisateurs Windows* doivent installer Intel® PROSet pour le Gestionnaire de périphériques Windows et Services réseau avancés Intel® (ANS) pour pouvoir utiliser les réseaux VLAN.
l
Vous devez installer les dernières mises à jour de Microsoft Windows* 10 pour pouvoir créer des associations ou des VLAN Intel® ANS sur des systèmes Windows 10. Les associations ou les VLAN Intel®
ANS créés avec une version précédente du logiciel/pilote sur un système Windows 10 seront corrompus
et ne peuvent pas être mis à niveau. Le package d'installation supprimera ces associations et VLAN existants.
l
Microsoft Windows Server 2012 R2 est la dernière version du système d'exploitation Windows Server
prenant en charge Services réseau avancés Intel®. Services réseau avancés Intel® n'est pas pris en
charge sur Microsoft Windows Server 2016 et les versions ultérieures.
l
Les VLAN Intel ANS ne sont pas compatibles avec les associations Load Balancing and Failover (LBFO)
de Microsoft. Intel® PROSet bloquera l’ajout d’un membre de LBFO à un VLAN Intel ANS. Vous ne
devez pas ajouter à une association LBFO un port qui fait déjà partie d’un VLAN Intel ANS, sous peine
de déstabiliser le système.
Le terme VLAN (Virtual Local Area Network, ou Réseau local virtuel) désigne un ensemble de périphériques qui communiquent comme s’ils se trouvaient sur le même réseau local physique. Tout groupe de ports (y compris l’ensemble
des ports d’un commutateur) peut être considéré comme étant un réseau local virtuel. Les segments de réseaux
locaux ne sont pas restreints par le matériel qui les connecte physiquement.
Les réseaux locaux virtuels permettent de regrouper des ordinateurs dans des groupes de travail logiques. Cette configuration simplifie la gestion du réseau lorsque les clients se
connectent à des serveurs répartis dans un bâtiment, un campus ou une entreprise.
Les réseaux locaux virtuels sont généralement constitués de
collègues appartenant à un même service, mais situés dans
des emplacements différents, de groupes d’utilisateurs utilisant le même protocole de communication ou d’une équipe
travaillant sur un même projet.
En utilisant des réseaux VLAN, vous pouvez :
l
améliorer les performances du réseau ;
l
limiter les diffusions massives ;
l
faciliter les mises à jours de la configuration du réseau local (ajouts, déplacements et modifications) ;
l
limiter les problèmes de sécurité ;
l
faciliter votre tâche de gestion.
Autres considérations
l
l
Configuration de SR-IOV pour une sécurité réseau renforcée : dans un environnement virtualisé, la fonction
virtuelle (VF) peut être sujette à un comportement malveillant sur les cartes Intel® pour serveurs prenant en
charge SR-IOV. Les trames générées par le logiciel ne sont pas attendues et peuvent ralentir le trafic entre
l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous
les ports compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames
inattendues et potentiellement malveillantes.
Pour appartenir à des réseaux locaux virtuels IEEE, la carte doit être connectée à un commutateur prenant en
charge la norme de réseau virtuel IEEE 802.1Q.
l
l
Les réseaux locaux virtuels peuvent coexister avec les associations (si la carte les prend tous les deux en
charge). Dans ce cas, définissez d’abord l’association, puis les réseaux locaux virtuels.
Un seul VLAN non étiqueté peut être configuré par carte ou association. Vous devez disposer d’au moins un
VLAN étiqueté avant de pouvoir installer un VLAN non étiqueté.
IMPORTANT : si vous utilisez des réseaux locaux virtuels IEEE 802.1Q, l’ID des réseaux doit être la même
sur le commutateur et les cartes des réseaux locaux virtuels.
Configuration des réseaux locaux virtuels dans Microsoft* Windows*
Sous Microsoft* Windows*, vous devez utiliser Intel® PROSet pour installer et configurer les réseaux locaux virtuels.
Pour plus d'informations, sélectionnez Intel® PROSet dans la Table des matières (volet de gauche) de cette fenêtre.
ATTENTION :
l
Les réseaux locaux virtuels ne peuvent être utilisés pour des associations contenant des cartes
réseau non Intel.
l
Utilisez Intel® PROSet pour ajouter ou supprimer un réseau local virtuel. N’utilisez pas la boîte de
dialogue Connexions réseau et accès à distance pour activer ou désactiver des réseaux locaux
virtuels. Dans ce cas, le pilote de réseau VLAN ne sera pas correctement activé ou désactivé.
REMARQUES :
l
L'ID du réseau local virtuel est pris en charge. L'ID doit correspondre à l'ID du VLAN configuré sur le commutateur. Les cartes dotées de VLAN doivent être connectées à des périphériques réseau prenant en
charge la spécification IEEE 802.1Q.
l
Si vous modifiez un paramètre sur l’onglet Avancé de l’un des VLAN, les paramètres de tous les VLAN
qui utilisent ce port sont également modifiés.
l
Dans la plupart des environnements, Intel® PROSet prend en charge un maximum de 64 réseaux
locaux virtuels par port réseau ou association.
l
Les réseaux VLAN ANS ne sont pas pris en charge sur les cartes et associations sur lesquelles les files
d'attente d'ordinateurs virtuels sont activées. Cependant, le filtrage de VLAN avec files d'attente
d'ordinateurs virtuels est pris en charge par l'interface de VLAN Microsoft Hyper-V. Pour en savoir plus,
consultez Utilisation des cartes réseau Intel® dans un environnement Microsoft* Hyper-V*.
l
Vous pouvez avoir plusieurs balises de VLAN sur une partition enfant et son parent. Ces paramètres
sont indépendants les uns des autres et peuvent être différents ou identiques. Le seul cas où la balise
VLAN du parent et de l'enfant DOIT être identique est si vous voulez que les partitions parent et enfant
soient capables de communiquer l'une avec l'autre par ce VLAN. Pour en savoir plus, consultez Utilisation des cartes réseau Intel® dans un environnement Microsoft* Hyper-V*.
Configuration d’un réseau VLAN étiqueté IEEE
1. Dans la fenêtre des propriétés de carte, cliquez sur l’onglet VLAN.
2. Cliquez sur Nouveau.
3. Tapez le nom et numéro d’ID du réseau VLAN que vous créez.
L’ID du réseau local virtuel doit correspondre à l’ID du réseau local virtuel du commutateur. La valeur peut être
comprise entre 1 et 4 094, bien que le commutateur puisse ne pas prendre autant de valeurs. Le nom est purement informatif et ne doit donc pas nécessairement correspondre à celui du commutateur. Le nom peut contenir
jusqu’à 256 caractères.
REMARQUE : les ID de VLAN 0 et 1 sont souvent réservés pour d’autres utilisations.
4. Cliquez sur OK.
Le réseau VLAN apparaîtra sous Cartes réseau dans la fenêtre Gestion de l’ordinateur.
Effectuez ces opérations pour chacune des cartes que vous voulez ajouter à un réseau VLAN.
REMARQUE : si vous configurez des réseaux VLAN dans une association, l’icône de l’objet de l’association du
Panneau de configuration Réseau indiquera que l’association est déconnectée. Vous ne serez pas en mesure
de modifier les paramètres TCP/IP comme l’adresse IP ou le masque de sous-réseau. Vous pourrez toutefois
configurer l’association (ajouter ou supprimer des cartes membres, modifier le type d’association, etc.) via le
Gestionnaire de périphériques.
Configuration d’un VLAN non étiqueté
Un seul VLAN non étiqueté peut être configuré par carte ou association.
REMARQUE : il n’est possible de créer un VLAN non étiqueté que s’il existe déjà au moins un VLAN étiqueté.
1.
2.
3.
4.
Dans la fenêtre des propriétés de carte, cliquez sur l’onglet VLAN.
Cliquez sur Nouveau.
Cochez la case Untagged VLAN (Réseau VLAN non étiqueté).
Tapez le nom du réseau VLAN que vous créez.
Le nom est purement informatif et ne doit donc pas nécessairement correspondre à celui du commutateur. Il
est limité à 256 caractères.
5. Cliquez sur OK.
Suppression d’un VLAN
1. Cliquez sur l’onglet VLAN et sélectionnez le réseau que vous voulez supprimer.
2. Cliquez sur Remove (Supprimer).
3. Cliquez sur Yes (Oui) pour confirmer.
Suppression des associations fantômes et des VLAN fantômes
Si vous enlevez physiquement toutes les cartes faisant partie d’une association ou d’un VLAN du système sans les
supprimer d’abord dans le Gestionnaire de périphériques, une association fantôme ou un VLAN fantôme s’affichent
dans le Gestionnaire de périphériques. Il existe deux méthodes permettant de supprimer une association fantôme ou
un VLAN fantôme.
Suppression de l’association fantôme ou du VLAN fantôme à l’aide du Gestionnaire de périphériques
Suivez ces instructions pour supprimer une association fantôme ou un VLAN fantôme à l’aide du Gestionnaire de
périphériques :
1. Dans le Gestionnaire de périphériques, double-cliquez sur l’association fantôme ou le VLAN fantôme.
2. Cliquez sur l’onglet Paramètres.
3. Sélectionnez Supprimer l’association ou Supprimer le VLAN.
Suppression de l’association fantôme ou du VLAN fantôme à l’aide du script savresdx.vbs
Pour Windows Server, le script savresdx.vbs se trouve dans le package de mise à jour du pilote, dans le répertoire
WMI du dossier Windows approprié. Dans le cadre d'invite de commande DOS, saisissez : "cscript savresdx.vbs
removephantoms".
Prévention de la création de périphériques fantômes
Pour empêcher la création de périphériques fantômes, veillez à exécuter ces étapes avant de retirer physiquement la
carte du système :
1. Retirez l’adaptateur de toutes les associations à partir de l’onglet Paramètres de la boîte de dialogue des propriétés de l’association.
2. Supprimez tous les VLAN de la carte à partir de l’onglet VLAN de la boîte de dialogue des propriétés de la
carte.
3. Désinstallez la carte dans le Gestionnaire de périphériques.
Il n’est pas nécessaire de respecter ces étapes dans les scénarios de remplacement à chaud.
Onglet Agrégation de cartes
L’onglet Agrégation de cartes permet de créer, modifier et supprimer des associations de cartes. Pour que cet onglet
soit disponible et pour pouvoir utiliser la fonctionnalité, vous devez installer Advanced Network Services.
Agrégation de cartes
La fonction d'association Services réseau avancés Intel® (Intel® ANS) vous permet de tirer parti de plusieurs cartes
d'un système en les regroupant. Les associations ANS peuvent utiliser des fonctionnalités telles que l’équilibrage de la
charge et la tolérance aux pannes pour optimiser le débit et la fiabilité.
Avant de créer une association ou d'ajouter des membres à une association, assurez-vous que chaque membre a été
configuré de manière identique. Parmi les paramètres à vérifier se trouvent les réseaux VLAN, le balisage des paquets
QS, les paquets étendus et les différents délestages. Faites particulièrement attention avec les cartes de modèles et de
versions différents, car leurs capacités varient.
Notes de configuration
l
l
l
l
l
l
l
l
l
l
l
Vous devez installer les dernières mises à jour de Microsoft Windows* 10 avant de pouvoir créer des associations ou des VLAN Intel® ANS sur des systèmes Windows 10. Les associations ou les VLAN Intel® ANS
créés avec une version précédente du logiciel/pilote sur un système Windows 10 seront corrompus et ne
peuvent pas être mis à niveau. Le package d'installation supprimera ces associations et VLAN existants.
Microsoft* Windows Server* 2012 R2 est la dernière version du système d'exploitation Windows Server à
prendre en charge les Services réseau avancés Intel® (ANS). Intel® ANS ne prend pas en charge
Microsoft Windows Server 2016 et les versions ultérieures.
pour configurer des associations sous Linux, utilisez le module Channel Bonding disponible dans les noyaux
Linux pris en charge. Pour davantage d'informations, consultez la documentation sur le Channel Bonding disponible dans la source de noyau.
Tous les types d’association ne sont pas disponibles sur tous les systèmes d’exploitation.
Veillez à utiliser les derniers pilotes disponibles sur toutes les cartes.
Il n'est pas possible de créer une association incluant à la fois des appareils reposant sur les contrôleurs Intel
X710/XL710 et des appareils reposant sur la carte Intel I350. Ces appareils ne peuvent pas faire partie d'une
même association et seront bloqués lors de la configuration de l'association. Les associations précédemment
créées qui comprennent un ensemble d'appareils seront supprimées lors de leur mise à niveau.
NDIS 6.2 introduit de nouvelles structures de données RSS et interfaces C'est pourquoi il n'est pas possible
d'activer le RSS sur les associations composées d'un mélange de cartes prenant en charge le RSS NDIS 6.2 et
de cartes qui ne le prennent pas en charge.
Si une association est liée à une carte réseau virtuelle Hyper-V, vous ne pouvez pas changer la carte principale ou la carte secondaire.
Pour assurer un ensemble commun de fonctions, certaines fonctions avancées, comme le délestage matériel,
sont automatiquement désactivées lorsqu'une carte ne prenant pas en charge Intel® PROSet est ajoutée à une
association.
STP (Spanning tree protocol) doit être désactivé sur les ports de commutateur connectés à des cartes associées afin d'éviter toute perte de données lorsque la carte principale est remise en service (basculement). Autrement, un délai d’activation peut être configuré sur les cartes pour éviter toute perte de données lorsque le
protocole STP est utilisé. Définissez le délai d’activation dans l’onglet Avancé des propriétés de l’association.
Les protocoles Fibre Channel over Ethernet/Data Center Bridging sont automatiquement désactivés quand une
carte est ajoutée à une association comportant des cartes non compatibles FCoE/DCB.
Configuration des associations ANS
La fonctionnalité Associations ANS du composant Intel Advanced Network Services (iANS) vous permet de tirer parti
de plusieurs cartes d’un système en les regroupant. Les associations ANS peuvent utiliser des fonctionnalités telles
que l’équilibrage de la charge et la tolérance aux pannes pour optimiser le débit et la fiabilité.
REMARQUES :
l
NLB ne fonctionnera pas si l’équilibrage de la charge de réception (RLB) est activé. En effet, NLB et
iANS tentent tous les deux de configurer l’adresse MC multicast du serveur et il en résulte une discordance au niveau de la table ARP.
l
L’association de la carte réseau Intel® 10 Gigabit AF DA Dual Port pour serveurs est prise en charge uniquement avec des cartes de types et de modèles similaires ou avec des commutateurs utilisant une
connexion Direct Attach.
Création d’une association
1. Ouvrez le Gestionnaire de périphériques Windows.
2. Développez Network Adapters (Cartes réseau).
3. Double-cliquez sur l’une des cartes qui fera partie de l’association.
La boîte de dialogue Propriétés de la carte s’affiche.
4. Cliquez sur l’onglet Agrégation de cartes.
5. Cliquez sur Team with other adapters (Associer avec d’autres cartes).
6. Cliquez sur New Team (Nouvelle association).
7. Tapez le nom de l’association et cliquez sur Next (Suivant).
8. Sélectionnez les cases à cocher des cartes que vous voulez inclure à l’association et cliquez sur Next (Suivant).
9. Sélectionnez un mode d’association et cliquez sur Next (Suivant).
10. Cliquez sur Finish (Terminer).
La fenêtre Propriétés de l’association contenant les propriétés et les paramètres de l’association apparaît.
Lorsque l’association est créée, elle apparaît sous la forme d’une carte virtuelle dans la catégorie Cartes réseau de la
fenêtre Gestion de l’ordinateur. Le nom de l’association précède le nom de toutes les cartes qui font partie de
l’association.
REMARQUE : pour configurer des réseaux locaux virtuels dans une association, vous devez tout d’abord créer
l’association.
Ajout/suppression d’une carte d’une association existante
REMARQUE : un membre doit être supprimé à l’association lorsque la liaison est désactivée.
1. Ouvrez la boîte de dialogue Propriétés de l’association en double-cliquant sur une association dans la fenêtre
Gestion de l’ordinateur.
2. Cliquez sur l’onglet Paramètres.
3. Cliquez sur l’onglet Modify Team (Modifier l’association), puis sur l’onglet Adapters (Cartes).
4. Sélectionnez les cartes qui feront partie de l’association.
l
Sélectionnez la case à cocher des cartes que vous voulez ajouter à l’association.
l
Désélectionnez la case à cocher des cartes que vous voulez supprimer de l’association.
5. Cliquez sur OK.
Renommer une association
1. Ouvrez la boîte de dialogue Propriétés de l’association en double-cliquant sur une association dans la fenêtre
Gestion de l’ordinateur.
2. Cliquez sur l’onglet Paramètres.
3. Cliquez sur l’onglet Modify Team (Modifier l’association), puis sur l’onglet Name (Nom).
4. Tapez le nouveau nom de l’association et cliquez sur OK.
Suppression d’une association
1. Ouvrez la boîte de dialogue Propriétés de l’association en double-cliquant sur une association dans la fenêtre
Gestion de l’ordinateur.
2. Cliquez sur l’onglet Paramètres.
3. Sélectionnez l’association que vous voulez supprimer, puis cliquez sur Remove Team (Supprimer
l’association).
4. Cliquez sur Yes (Oui) lorsque vous y êtes invité.(AFT ou Adapter Fault Tolerance)
REMARQUE : si vous avez défini un réseau local virtuel ou des priorités QS sur une carte membre d’une association, il se peut que vous deviez redéfinir ces fonctionnalités une fois que le mode autonome est rétabli sur la
carte.
Considérations sur les associations et les réseaux locaux virtuels à prendre en compte lors du remplacement des cartes
Après installation d’une carte sur un connecteur spécifique, Windows traite toute autre carte du même type comme
étant une nouvelle carte. De même, si vous supprimez la carte installée et l’insérez dans un connecteur différent, Windows la détecte comme étant une nouvelle carte. Veillez à suivre attentivement les instructions ci-dessous.
1.
2.
3.
4.
5.
6.
Ouvrez Intel® PROSet.
Si la carte fait partie d’une association, supprimez la carte de l’association.
Mettez le serveur hors tension et débranchez le cordon d’alimentation.
Déconnectez le câble réseau de la carte.
Ouvrez le capot et retirez la carte.
Introduisez la carte de remplacement. (Utilisez le même emplacement pour éviter que Windows considère qu’il
s’agit d’une nouvelle carte.)
7. Reconnectez le câble réseau.
8. Fermez le capot, rebranchez le cordon d’alimentation et remettez le serveur sous tension.
9. Ouvrez Intel® PROSet et vérifiez que la carte est disponible.
Associations LBFO (Load Balancing and Failover) Microsoft*
Les associations Intel ANS et les VLAN ne sont pas compatibles avec les associations LBFO (Load Balancing and Failover) de Microsoft. Intel® PROSet bloquera l’ajout d’un membre d'une association LBFO à une association Intel ANS
ou à un VLAN. Vous ne devez pas ajouter à une association LBFO un port qui fait déjà partie d'une association Intel
ANS ou d’un VLAN, car cela pourrait déstabiliser le système. Si vous utilisez le membre d'une association ANS ou un
VLAN dans une association LBFO, réalisez la procédure suivante pour restaurer votre configuration :
1. Redémarrez le système.
2. Supprimez l'association LBFO. Bien que la création de l'association LBFO ait échoué, après un redémarrage, le
Gestionnaire de serveur indique que LBFO est activé et l'interface LBFO est présente dans la GUI 'NIC Teaming'.
3. Supprimez les associations ANS et les VLAN se trouvant dans l'association LBFO et recréez-les. Il s'agit d'une
étape facultative (toutes les liaisons sont restaurées lorsque l'association LBFO est supprimée), mais fortement
recommandée.
REMARQUES :
l
Si vous ajoutez un port sur lequel la technologie d'administration active Intel est activée à une association LBFO, ne configurez pas le port en mode de veille dans l'association LBFO. Si vous configurez le
port en mode de veille, il est possible que vous perdiez la fonctionnalité d'administration active.
l
DCB (Pontage de centre de données) n'est pas compatible avec les associations LBFO de Microsoft Server. Ne créez pas d'association LBFO à l'aide de ports Intel 10G lorsque le protocole DCB est installé.
N'installez pas le protocole DCB si des ports Intel 10G font partie d'une association LBFO. L'installation
peut échouer et des pertes de liaison persistantes peuvent se produire si DCB et LBFO sont utilisés sur
le même port.
Utilisation des associations des services réseau avancés Intel® et des VLAN dans une machine virtuelle invitée
Les associations des services réseau avancés Intel® (Intel® ANS) et les VLAN sont pris en charge par les machines
virtuelles invitées suivantes uniquement :
Machine virtuelle hôte/invitée
Microsoft Windows Server 2012 R2 VM
Microsoft Windows Hyper-V
LBFO
Hyperviseurs Linux (Xen ou KVM)
LBFO
ANS, VLAN
VMware ESXi
LBFO
ANS, VLAN
Cartes prises en charge
Les options d’association sont prises en charge sur les cartes réseau Intel pour serveurs. Certaines cartes d’autres
fabricants sont également prises en charge. Si vous utilisez un ordinateur Windows, les cartes affichées dans Intel®
PROSet peuvent faire partie d’une association.
REMARQUE : pour pouvoir utiliser l'association de cartes, votre système doit être doté d'au moins une carte
réseau Intel® pour serveurs. De plus, toutes les cartes de l’association doivent être liées au même commutateur
ou concentrateur.
Conditions pouvant empêcher l'agrégation d'un périphérique
Lors de la création ou de la modification d'une association, il est possible que la liste des types d'association disponibles ou la liste des périphériques disponibles ne comprenne pas tous les types d'association ou périphériques.
Cela peut être dû à une ou plusieurs conditions, comprenant :
l
Le périphérique ne prend pas en charge le type d'association souhaité ou ne prend pas du tout en charge
l'agrégation de cartes.
l
Le système d’exploitation ne prend pas en charge le type d'association souhaité.
l
Les périphériques que vous voulez agréger utilisent des versions de pilote différentes.
l
Vous tentez d'agréger un périphérique Intel PRO/100 avec un périphérique Intel 10GbE.
l
Les périphériques sur lesquels le moteur de délestage TCP (TOE) est activé ne peuvent être ajoutés à une
association ANS et ne seront pas répertoriés dans la liste des cartes disponibles.
l
Vous pouvez ajouter des périphériques compatibles avec la technologie d'administration active Intel® à des
associations AFT (Tolérance aux pannes de la carte), SFT (Tolérance aux pannes du commutateur) et ALB
(Équilibrage de la charge). Tous les autres types d’association ne sont pas pris en charge. Le périphérique
compatible avec la technologie d’administration active Intel doit être désigné comme carte principale de
l’association.
l
L'adresse MAC du périphérique a été remplacée par le paramètre avancé de l'Adresse administrée localement.
l
La fonctionnalité Fibre Channel over Ethernet (FCoE) Boot a été activée sur le périphérique.
l
Le paramètre "Contrôlé par le SE" est activé sous l'onglet Centre de données de ce périphérique.
l
Le périphérique est associé à une carte réseau virtuelle.
l
Le périphérique fait partie d'une association LBFO (Load Balancing and Failover, équilibrage de la charge et
reprise) Microsoft*.
Modes d’agrégation
l
l
l
l
l
Tolérance aux pannes de la carte (AFT) - rend la carte automatiquement redondante pour une connexion
réseau du serveur. Si la carte principale devient défaillante, la carte secondaire est utilisée en remplacement.
Le dispositif de tolérance aux pannes de la carte peut prendre en charge de deux à huit cartes par association.
Ce type d'association fonctionne avec n'importe quel commutateur ou concentrateur. Tous les membres de
l'association doivent être connectés au même sous-réseau.
Tolérance aux pannes du commutateur (SFT) - fournit un basculement entre deux cartes connectées à des commutateurs différents. La fonctionnalité SFT prend en charge deux cartes par association. La fonctionnalité Spanning Tree Protocol (STP) doit être activée sur le commutateur lorsque vous créez une association SFT. Lorsque
des associations SFT sont créées, le délai d’activation est automatiquement défini sur 60 secondes. Ce type
d'association fonctionne avec n'importe quel commutateur ou concentrateur. Tous les membres de l'association
doivent être connectés au même sous-réseau.
Équilibrage de la charge (ALB) - fournit l'équilibrage de la charge de transmission et la tolérance aux pannes
de la carte Sur les systèmes d'exploitation Microsoft* Windows*, vous pouvez activer ou désactiver l'équilibrage
de la charge de réception (RLB) dans les associations ALB (par défaut, la fonctionnalité RLB est activée).
Équilibrage de charge sur machines virtuelles (Virtual Machine Load Balancing, VMLB) - assure l'équilibrage
des charges de trafic de transmission et de réception sur l'ensemble des machines virtuelles liées à l'interface
d'association, ainsi que la tolérance aux pannes du port commutateur, du câble ou de la carte. Ce type
d'association fonctionne avec n'importe quel commutateur.
Agrégation de liens statiques (SLA) - fournit un débit de transmission et de réception supérieur dans une association de deux à huit cartes. Ce type d'association remplace les types d'association des versions logicielles
précédentes : Fast EtherChannel*/Agrégation des liens (FEC) et Gigabit EtherChannel*/Agrégation des liens
(GEC). Ce type inclut également la tolérance aux pannes de la carte et l'équilibrage de charge (protocoles routés uniquement). Ce type d'association nécessite un commutateur prenant en charge l'agrégation de liens Intel,
Cisco* FEC ou GEC, ou l'agrégation de liens IEEE 802.3ad statique.
Toutes les cartes d'une association de type Agrégation de liens opérant en mode statique doivent opérer à la
même vitesse et être connectées à un commutateur compatible avec le mode Agrégation de liens statiques. Si
les capacités de vitesse des cartes d'une association de type Agrégation de liens statiques diffèrent, la vitesse
de l'association est dépendante du plus petit dénominateur commun.
Agrégation de liens IEEE 802.3ad dynamique - crée une ou plusieurs associations utilisant l'agrégation de
liens dynamique avec des cartes de vitesses différentes. Comme avec les associations utilisant le type
d'agrégation de liens statiques, les associations utilisant le type 802.3ad dynamique fournissent un débit de
transmission et de réception supérieur et une tolérance aux pannes. Ce type d'association nécessite un commutateur prenant intégralement en charge la norme IEEE 802.3ad.
IMPORTANT :
l
Veillez à utiliser les derniers pilotes disponibles sur toutes les cartes.
l
Avant de créer une association, d’ajouter ou de supprimer des membres d’une association ou de modifier les paramètres avancés d’un membre d’une association, veillez à ce que tous les membres de
l’association aient été configurés de façon similaire. Les paramètres à vérifier incluent le balisage des
paquets réseaux VLAN et QoS, les trames Jumbo et les différents délestages. Ces paramètres sont disponibles sous l'onglet Avancé d'Intel® PROSet. Faites particulièrement attention avec les cartes de
modèles et de versions différents, car leurs capacités varient.
l
Si des membres d'une association implémentent des fonctionnalités avancées de façon différente, les
fonctionnalités de basculement et d'association en seront affectées. Pour éviter les problèmes
d’implémentation des associations :
l
Créez des associations utilisant des cartes de types et de modèles similaires.
l
Rechargez l’association après l’ajout d’une carte ou la modification de toute fonctionnalité
avancée. Pour recharger une association, vous pouvez par exemple sélectionner une nouvelle
carte principale. Bien qu’une perte temporaire de connectivité réseau ait lieu lors de la reconfiguration de l’association, l’association conserve son schéma d’adressage réseau.
Carte principale et carte secondaire
Les modes d’agrégation de cartes (AFT, SFT, ALB (avec RLB)) ne requérant pas de commutateur disposant de capacités similaires utilisent une carte principale. Pour l’ensemble de ces modes, à l’exception du mode RLB, la carte principale est la seule carte qui reçoit le trafic. Le mode RLB est activé par défaut sur une association ALB.
En cas d’interruption de la carte principale, une autre carte prend le relais. Si vous utilisez plus de deux cartes et que
vous souhaitez que la prise de relais soit effectuée par une carte spécifique en cas de panne de la carte principale,
vous devez spécifier une carte secondaire. Si un périphérique avec la technologie d’administration active Intel activée
fait partie d’une association, il doit être désigné comme la carte principale de l’association.
Il existe deux types de cartes principales et secondaires :
l
Carte principale par défaut : si vous ne spécifiez pas de carte principale, le logiciel choisit la carte ayant les
capacités (modèle et vitesse) les plus élevées comme carte principale par défaut. En cas de basculement sur
indisponibilité, une autre carte devient la carte principale. Dans la plupart des modes, lorsque le problème relatif à la carte originale est résolu, le trafic n’est pas transféré automatiquement vers la carte (originale) principale
par défaut. Cependant, la carte rejoint l’association mais n’est plus la carte principale.
l
Carte principale/secondaire désignée : vous pouvez spécifier une carte désignée dans Intel® PROSet. Dans
une situation normale, la carte principale gère l’ensemble du trafic. La carte secondaire reçoit le trafic de
secours en cas de panne de la carte principale. Si la carte principale désignée tombe en panne et que celle-ci
redevient active ultérieurement, elle reprend automatiquement le contrôle. La spécification des cartes principale et secondaire n’apporte aucun avantage aux associations dynamiques SLA et IEEE 802.3ad, mais
impose à l’association d’utiliser l’adresse MAC de la carte principale.
Pour spécifier une carte principale ou une carte secondaire sous Windows
1. Dans la boîte de dialogue Propriétés de l’association, cliquez sur l’onglet Settings (Paramètres), puis sur
Modify Team (Modifier l’association).
2. Cliquez sur l’onglet Adapters (Cartes réseau), et sélectionnez une carte.
3. Cliquez sur Set Primary (Désigner comme carte principale) ou sur Set Secondary (Désigner comme carte
secondaire).
REMARQUE : vous devez spécifier une carte principale avant de pouvoir spécifier une carte secondaire.
4. Cliquez sur OK.
Le paramètre "Désignée" de la carte apparaît dans la colonne Priorité de l’onglet Team Configuration (Configuration
de l’association) d’Intel® PROSet. Un "1" indique une carte principale désignée, un "2" indique une carte secondaire
désignée.
Basculement et restauration automatique
Lorsqu’une liaison est coupée, en raison d’une panne de port ou de câble, les types d’association qui fournissent une
tolérance aux pannes continuent d’envoyer et de recevoir le trafic. Le basculement est le transfert initial du trafic de la
liaison coupée à la liaison opérationnelle. La restauration automatique se produit lorsque la carte initiale reprend la
liaison. Vous pouvez utiliser le paramètre Délai d’activation (situé dans l’onglet Avancé des propriétés de l’association
dans le Gestionnaire de périphériques) pour spécifier combien de temps la carte de basculement attend avant de devenir active. Si vous ne voulez pas que l’association effectue une restauration automatique lorsque la carte initiale
retrouve la liaison, vous pouvez désactiver le paramètre Autoriser la restauration automatique (situé dans l’onglet
Avancé des propriétés de l’association dans le Gestionnaire de périphériques).
Dispositif de tolérance aux pannes de la carte (AFT ou Adapter Fault Tolerance)
Le Dispositif de tolérance aux pannes de la carte (AFT) fournit la reprise automatique dans le cas d’un échec de liaison dû à une défaillance de la carte réseau, du câble, du commutateur ou du port, en redistribuant la charge du trafic
sur une carte de secours.
Les défaillances sont détectées automatiquement et le trafic est redistribué dès qu’une défaillance est détectée.
L’objectif de la fonctionnalité AFT est d’assurer une redistribution rapide de la charge pour éviter des déconnexions
pendant les sessions de l’utilisateur. Le dispositif de tolérance aux pannes AFT prend en charge de deux à huit cartes
par association. Seul un membre actif de l’association transmet et reçoit le trafic. En cas de défaillance de la connexion
principale (câble, carte ou port), une carte secondaire (de secours) prend automatiquement le relais. Si la connexion
de la carte principale désignée par l’utilisateur est rétablie après un basculement, la carte principale reprend automatiquement le contrôle. Pour de plus amples informations, reportez-vous à la rubrique Cartes principales et secondaires.
Le mode AFT est configuré par défaut lors de la création d’une association. Ce mode n’offre pas l’équilibrage de la
charge.
REMARQUES :
l
Les associations AFT nécessitent que le commutateur ne soit pas configuré pour l’agrégation et que le
protocole "Spanning Tree" soit désactivé pour le port de commutateur connecté à la carte réseau ou au
contrôleur réseau intégré sur le serveur.
l
Tous les membres d’une association AFT doivent être connectés au même sous-réseau.
Tolérance aux pannes du commutateur (SFT : Switch Fault Tolerance)
Le mode Tolérance aux pannes du commutateur (SFT) ne prend en charge que deux cartes d’interface réseau connectées à deux commutateurs différents dans une association. En mode SFT, une carte est la carte principale et une autre
la carte secondaire. Lors d’un fonctionnement normal, la carte secondaire est en mode de veille. En mode de veille, la
carte est inactive et attend de prendre le relais. Elle ne transmet et ne reçoit aucun trafic réseau. En cas d’interruption
de la connectivité de la carte principale, la carte secondaire prend automatiquement le relais. Lorsque des associations SFT sont créées, le délai d’activation est automatiquement défini sur 60 secondes.
En mode SFT, les deux cartes constituant l’association peuvent posséder des vitesses différentes.
REMARQUE : la prise en charge de l’agrégation de cartes SFT ne requiert aucune configuration du commutateur, mais le protocole "Spanning Tree" doit être activé.
Surveillance de la configuration
Permet de définir la surveillance entre l’association SFT et jusqu’à cinq adresses IP. Il est ainsi possible de détecter
l’échec de liaison au delà du commutateur. Vous pouvez vérifier la disponibilité de la connexion pour plusieurs clients
considérés comme problématiques. Si la connexion entre la carte principale et toutes les adresses IP surveillées est
perdue, l’association bascule sur la carte secondaire.
Technologie d’équilibrage de la charge adaptative/charge de réception (ALB/RLB)
La technologie ALB d’équilibrage de la charge est une méthode de distribution dynamique de la charge du trafic des
données sur plusieurs canaux physiques. L’objectif de la technologie ALB est d’améliorer la bande passante globale
et les performances des stations finales. En mode ALB, plusieurs liaisons sont fournies entre le serveur et le commutateur, et le pilote intermédiaire exécuté sur le serveur est responsable de la fonction d’équilibrage de la charge.
L’architecture ALB utilise la connaissance des informations de couche 3 pour assurer une distribution optimale de la
charge de transmission du serveur.
L’architecture ALB est mise en œuvre en désignant l’un des canaux physiques comme étant le canal principal et les
autres des canaux secondaires. Les paquets quittant le serveur peuvent utiliser n’importe quel canal physique, mais
les paquets entrant ne peuvent utiliser que le canal principal. Lorsque la fonctionnalité d’équilibrage de la charge de
réception (RLB) est activée, elle équilibre le trafic de réception IP. Le pilote intermédiaire analyse les charges de transmission des deux cartes et équilibre le taux entre les deux cartes en fonction des adresses de destination. Les associations de cartes configurées pour ALB et RLB offrent aussi les avantages de la tolérance aux pannes.
REMARQUES :
l
Les associations ALB nécessitent que le commutateur ne soit pas configuré pour l’agrégation et que le
protocole "Spanning Tree" soit désactivé pour le port de commutateur connecté à la carte réseau sur le
serveur.
l
La technologie ALB n’équilibre pas le trafic si des protocoles tels que NetBEUI et IPX* sont utilisés.
l
Les associations ALB peuvent comporter des cartes de vitesses différentes. La charge est équilibrée en
fonction des capacités de la carte et de la bande passante du canal.
l
Tous les membres des associations ALB et RLB doivent être connectés au même sous-réseau.
l
Les cartes réseau virtuelles ne peuvent pas être créées sur une association sur laquelle l’équilibrage de
la charge de réception est activé. L’équilibrage de la charge de réception est automatiquement désactivé si vous créez une carte réseau virtuelle sur l’association.
Équilibrage de charge sur machines virtuelles
L’équilibrage de charge sur machines virtuelles (Virtual Machine Load Balancing, VMLB) assure l’équilibrage des
charges de trafic de transmission et de réception sur l’ensemble des VM liées à l’association de cartes ainsi que la tolérance aux pannes du port commutateur, du câble ou de la carte.
Le pilote analyse la charge de transmission et de réception sur chaque carte membre et équilibre le trafic entre les différentes cartes de l’association. Pour une association VMLB, chaque machine virtuelle est associée à un membre de
l’association pour son trafic TX et RX.
Si une seule NIC virtuelle est associée ou bien si Hyper-V est retiré, l’association VLMB se comportera comme une
association AFT.
REMARQUES :
l
La technologie VMLB n’équilibre pas les charges liées aux protocoles non acheminés tels que NetBEUI
et à certains trafics IPX*.
l
La technologie WMLB prend en charge de deux à huit ports de carte par association.
l
Les associations VLMB peuvent comporter des cartes de vitesses différentes. La charge est équilibrée
en fonction du plus petit dénominateur commun des capacités des cartes et de la bande passante du
canal.
l
Vous ne pouvez pas utiliser une carte sur laquelle la technologie d'administration active Intel® (AMT) est
activée avec une association VLMB.
Agrégation de liens statiques
Le mode Agrégation de liens statique (SLA) ressemble énormément au mode ALB. Ce mode combine plusieurs
canaux physiques en un seul canal logique.
Ce mode fonctionne avec les commutateurs suivants :
l
Commutateurs compatibles avec Cisco EtherChannel avec le mode de mise en canal défini sur "marche"
l
Les commutateurs Intel capables d’agrégation de liens
l
Les autres commutateurs compatibles avec la norme 802.3ad statique
REMARQUES :
l
Toutes les cartes d’une association Agrégation de liens statiques doivent opérer à la même vitesse et
être connectées à un commutateur compatible avec le mode Agrégation de liens statiques. Si les capacités de vitesse des cartes d’une association de type Agrégation de liens statiques diffèrent, la vitesse de
l’association est dépendante du commutateur.
l
L’Agrégation de liens statiques nécessite que le commutateur soit configuré pour l’Agrégation de liens
statiques et que le protocole "Spanning Tree" soit désactivé.
l
Il n’est pas possible d’utiliser dans une association SLA une carte réseau où la technologie
d’administration active Intel est activée.
IEEE 802.3ad : Agrégation de liens dynamique
La norme IEEE 802.3ad est la norme IEEE. Les associations peuvent comporter de deux à huit cartes. Vous devez utiliser des commutateurs compatibles 802.3ad (en mode dynamique, l’agrégation peut comprendre plusieurs commutateurs). Les associations de cartes configurées pour IEEE 802.3ad offrent également les avantages de la tolérance
aux pannes et de l’équilibrage de charge. En mode 802.3ad, l’équilibrage de la charge peut s’appliquer à tous les protocoles.
Le mode dynamique prend en charge plusieurs agrégateurs. Les agrégateurs sont formés en fonction de la vitesse
des ports connectés à un commutateur. Par exemple, une association peut contenir des cartes fonctionnant à 1 Gbit/s
et à 10 Gbit/s, mais deux agrégateurs seront formés, un pour chaque vitesse. De plus, si une association contient des
ports de 1 Gbit/s connectés à un même commutateur et une combinaison de ports de 1 Gbit/s et de 10 Gbit/s connectés
à un deuxième commutateur, trois agrégateurs seront formés : un contenant tous les ports connectés au premier commutateur, un contenant les ports de 1 Gbit/s connectés au deuxième commutateur et le troisième contenant les ports
de 10 Gbit/s connectés au deuxième commutateur.
REMARQUES :
l
La prise en charge de l’agrégation de cartes IEEE 802.3ad requiert une configuration du commutateur
(agrégation de liens) et le protocole "Spanning Tree" doit être désactivé.
l
Une fois que vous choisissez un critère d’agrégation, il reste effectif jusqu’à ce que toutes les cartes de
l’association agrégée perdent leur liaison.
l
Sur certains commutateurs, les cartes cuivre et fibre ne peuvent appartenir à la même agrégation dans
une configuration IEEE 802.3ad. Si des cartes cuivre et fibre sont installées sur un système, le commutateur peut configurer les cartes cuivre dans une agrégation et les cartes fibre dans une autre. Si vous
remarquez ce comportement, utilisez uniquement des cartes cuivre ou uniquement des cartes à fibre
optique dans un même système pour obtenir des performances optimales.
l
Il n’est pas possible d’utiliser dans une association DLA une carte réseau où la technologie
d’administration active Intel est activée.
Avant de commencer
l
l
l
l
Vérifiez que le commutateur prend intégralement en charge la norme IEEE 802.3ad.
Vérifiez la dépendance des ports du commutateur dans la documentation. Certains commutateurs nécessitent
un pairage pour démarrer sur un port principal.
Vérifiez le paramétrage de vitesse et de mode duplex pour vous assurer que la carte et le commutateur fonctionnent en Full duplex, qu’il soit forcé ou négocié automatiquement. La carte et le commutateur doivent posséder tous les deux la même configuration de vitesse et de mode duplex. L’exigence de Full duplex fait partie
des spécifications de la norme IEEE 802.3ad : http://standards.ieee.org/. Si nécessaire, modifiez le paramètre
de vitesse et de duplex avant de lier la carte au commutateur. Bien que vous puissiez changer les paramètres
de vitesse et de mode duplex après la création de l’association, Intel vous recommande de déconnecter les
câbles jusqu’à ce que les paramètres soient appliqués. Dans certains cas, il se peut que les commutateurs ou
les serveurs ne reconnaissent pas correctement les nouveaux paramètres de vitesse et de mode duplex s’ils
ont été modifiés alors que la liaison était active sur le réseau.
Si vous configurez un réseau local virtuel, consultez les remarques de compatibilité concernant les réseaux
locaux virtuels dans votre documentation. Les commutateurs ne prennent pas tous en charge simultanément
les associations 802.3ad dynamiques et les réseaux locaux virtuels. Si vous décidez de configurer des réseaux
locaux virtuels, configurez les paramètres des associations et des réseaux locaux virtuels sur les cartes avant
de les relier au commutateur. La fonctionnalité des réseaux locaux virtuels peut être affectée si leur configuration a lieu après que le commutateur a créé une agrégation active.
Suppression des associations fantômes et des VLAN fantômes
Si vous enlevez physiquement toutes les cartes faisant partie d’une association ou d’un VLAN du système sans les
supprimer d’abord dans le Gestionnaire de périphériques, une association fantôme ou un VLAN fantôme s’affichent
dans le Gestionnaire de périphériques. Il existe deux méthodes permettant de supprimer une association fantôme ou
un VLAN fantôme.
Suppression de l’association fantôme ou du VLAN fantôme à l’aide du Gestionnaire de périphériques
Suivez ces instructions pour supprimer une association fantôme ou un VLAN fantôme à l’aide du Gestionnaire de
périphériques :
1. Dans le Gestionnaire de périphériques, double-cliquez sur l’association fantôme ou le VLAN fantôme.
2. Cliquez sur l’onglet Paramètres.
3. Sélectionnez Supprimer l’association ou Supprimer le VLAN.
Prévention de la création de périphériques fantômes
Pour empêcher la création de périphériques fantômes, veillez à exécuter ces étapes avant de retirer physiquement la
carte du système :
1. Retirez l’adaptateur de toutes les associations à partir de l’onglet Paramètres de la boîte de dialogue des propriétés de l’association.
2. Supprimez tous les VLAN de la carte à partir de l’onglet VLAN de la boîte de dialogue des propriétés de la
carte.
3. Désinstallez la carte dans le Gestionnaire de périphériques.
Il n’est pas nécessaire de respecter ces étapes dans les scénarios de remplacement à chaud.
Onglet Gestion de l'alimentation
L’onglet Gestion de l'alimentation d’Intel PROSet remplace l’onglet Gestion de l’alimentation du Gestionnaire de périphériques de Microsoft Windows*. La fonctionnalité de gestion de l'alimentation standard de Windows est incorporée
dans cet onglet Intel PROSet.
REMARQUES :
l
Les options disponibles dans l'onglet Gestion de l'alimentation dépendent de la carte réseau et du système. Toutes les options ne sont pas affichées pour toutes les cartes réseau. Il est possible que certains
paramètres du BIOS ou du système d’exploitation doivent être activés pour que le système se réveille.
Cela est particulièrement vrai avec le réveil depuis un état S5 (appelé également réveil depuis un état
d’arrêt).
l
Les cartes réseau Intel® 10 Gigabit ne prennent pas en charge la gestion de l’alimentation.
l
Si votre système a un moteur de gestion de réseau, le voyant de liaison peut rester allumé même si la
fonctionnalité WoL est désactivée.
l
Quand une carte réseau fonctionne en mode NPar, la gestion de l'alimentation est limitée à la partition
racine de chaque port.
Options d'alimentation
L’onglet Gestion de l'alimentation d’Intel® PROSet comprend plusieurs paramètres, permettant de contrôler la consommation électrique de la carte. Par exemple, vous pouvez configurer la carte pour qu’elle réduise sa consommation électrique si le câble est déconnecté.
Réduire la consommation électrique si le câble est déconnecté et la vitesse de liaison en mode de
veille
Permet à la carte de réduire la consommation d’énergie lorsque le câble du réseau local est déconnecté de la carte et
que la liaison est inactive. Lorsque la liaison de la carte est rétablie, la consommation de la carte retourne à son état
normal.
L’option Matériel par défaut est disponible sur certaines cartes. Si cette option est sélectionnée, la fonctionnalité est
activée ou désactivée en fonction du matériel du système.
Valeur par défaut
La valeur par défaut varie en fonction du système d’exploitation et du type de carte.
Valeurs possibles
La plage varie en fonction du système d’exploitation et du type de carte.
Ethernet économe en énergie
La fonction EEE (Ethernet économe en énergie) permet à un périphérique compatible d’entrer en mode basse consommation entre les paquets du trafic de réseau. La fonctionnalité EEE doit être activée sur les deux partenaires de liaison
pour économiser de l’énergie. Les deux partenaires de liaison repassent en mode d’alimentation maximale quand les
données doivent être transmises. Cette transition peut introduire une légère latence du réseau.
REMARQUES :
l
Les deux partenaires de liaison EEE doivent automatiquement négocier la vitesse de
liaison.
l
EEE n'est pas pris en charge à 10 Mbit/s.
Options Wake on LAN
La capacité de réveiller les ordinateurs à distance constitue un développement important de la gestion des ordinateurs. Cette fonctionnalité a évolué ces dernières années d’une simple capacité de mise sous tension à distance à
un système complexe d’interaction avec les différents états d’alimentation de périphériques et de systèmes
d’exploitation.
Microsoft Windows Server prend en charge l’interface ACPI. Windows ne prend pas en charge le réveil depuis un état
d’arrêt (S5), mais seulement depuis les modes de veille (S3) ou de veille prolongée (S4). Lors de la fermeture du système, ces états arrêtent les périphériques ACPI, y compris les cartes réseau Intel. Cela désarme la fonctionnalité de
réveil à distance des cartes. Cependant, sur certains ordinateurs compatibles ACPI, le BIOS peut comporter un paramètre vous permettant de contourner le système d’exploitation et de réveiller les cartes d’un état S5. Si le réveil d’un
état S5 n’est pas pris en charge dans la configuration de votre BIOS, seul un réveil du mode de veille est possible en
utilisant ces systèmes d’exploitation sur des ordinateurs ACPI.
L'onglet Gestion de l'alimentation d'Intel PROSet comprend les paramètres Wake on Magic Packet et Wake on Directed Packet. Ces paramètres permettent de contrôler le type de paquets utilisés pour réveiller le système à partir du
mode de veille.
Sur certaines cartes, l’onglet Gestion de l'alimentation d’Intel PROSet comprend un paramètre appelé Wake on Magic
Packet d’un état hors tension. Activez ce paramètre pour autoriser explicitement le réveil depuis la fermeture avec un
paquet magique en mode APM.
REMARQUES :
l
Pour utiliser la fonctionnalité Wake on Directed Packet, WoL doit d'abord être activé dans l'EEPROM à
l'aide des utilitaires BootUtil.
l
Si l'option Reduce speed during standby (Réduire la vitesse en mode Veille) est activée, alors l'option
Wake on Magic Packet et/ou Wake on Directed Packet doit(doivent) être activée(s). Si ces
deux options sont désactivées, l'alimentation est coupée de la carte en mode Veille.
l
La fonctionnalité de réveil Wake on Magic Packet à partir d'un état hors tension n'a aucun effet sur
cette option.
Appareils prenant en charge WoL
Tous les appareils prennent en charge Wake on LAN sur tous les ports, à l'exception des :
Appareil
Port(s) de carte prenant en charge WoL
Carte Intel® Gigabit 2P I350-t
port 1 uniquement
Carte réseau Intel® Gigabit 4P I350-t
Carte réseau convergent Ethernet Intel® X710-4
Carte réseau convergent Ethernet Intel® X710-2
port 1 uniquement
Appareil
Port(s) de carte prenant en charge WoL
Carte réseau convergent Ethernet Intel® X710
Carte mezzanine Ethernet Intel® 25G 2P XXV710
Aucune prise en charge
Carte réseau Ethernet Intel® 25G 2P XXV710
Carte réseau convergent Ethernet Intel® X710-T
Aucune prise en charge
Carte réseau convergent Ethernet Intel® XL710-Q2
Carte réseau Ethernet Intel® 10G 2P X520
Aucune prise en charge
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Carte réseau Ethernet Intel® 10G 2P X540-t
Aucune prise en charge
Carte réseau Ethernet Intel® 10G 2P X550-t
Aucune prise en charge
Paramètres Wake on Link
Permet un réveil de l’ordinateur lorsque la connexion réseau établit une liaison lorsqu’il est en mode de veille. Vous
pouvez activer ou désactiver cette fonctionnalité, ou conserver les paramètres par défaut du système d’exploitation.
REMARQUES :
l
Si une carte réseau Intel sur cuivre affiche une vitesse de un gigabit seulement, cette fonctionnalité ne
fonctionne pas car la carte ne peut identifier une liaison un gigabit avec un état D3.
l
Le câble réseau doit être déconnecté lors de l’entrée en S3/S4 afin de réveiller le système par un événement d’activation de la liaison.
Valeur par défaut
Désactivé
Valeurs possibles Désactivé
Contrôlé par le système d'exploitation
Forcé(e)
Réveil à distance
La fonction de réveil à distance permet de sortir votre serveur de l'état de veille ou hors tension. Si la fonction Wake On
LAN est activée, lorsque votre système est mis hors tension, l'interface réseau utilise l'énergie de la mise en veille et
surveille les paquets spécialement conçus. Si elle reçoit un tel paquet, elle réveille le serveur.
Advanced Configuration and Power Interface (ACPI)
L’interface ACPI prend en charge de nombreux états d’alimentation. Chaque état représente un niveau d’alimentation
différent, de l’alimentation intégrale jusqu’à la désactivation complète de l’alimentation, chaque état intermédiaire comportant différents niveaux d’alimentation partielle.
États de l’alimentation ACPI
État de
Description
l’alimentation
S0
Sous tension et entièrement fonctionnel
S1
Le système est en mode d’économie d’énergie (mode de veille). L’horloge de l’unité centrale est arrêtée, mais la mémoire vive est alimentée et actualisée.
S2
Similaire à l’état S1, mais l’alimentation de l’unité centrale est coupée.
S3
Mode d’attente (suspend to RAM). La plupart des composants sont arrêtés. La mémoire vive reste
fonctionnelle.
État de
Description
l’alimentation
S4
Mode de veille prolongée (suspend to disk). Le contenu de la mémoire est transféré sur le disque dur
puis rechargé en mémoire vive lorsque le système est réveillé.
S5
Hors tension
Activation de la fonction Wake From Power Off
Si vous souhaitez réveiller votre système à l'état hors tension, vous devez activer la fonction Wake From Power Off
dans les paramètres de configuration du système.
1. Allez à Configuration du système.
2. Choisissez un port et passez à la configuration.
3. Spécifiez Wake on LAN.
Modèles d’adresse de sortie de veille
Le réveil à distance peut être déclenché par différents types de paquets pouvant être sélectionnés par l’utilisateur, et
n’est pas limité au format du paquet magique. Pour de plus amples informations sur les types de paquets pris en
charge, reportez-vous à la section Paramètres du système d’exploitation.
La capacité de sortie de veille des cartes Intel est basée sur des modèles envoyés par le système d’exploitation. Vous
pouvez configurer le pilote avec les paramètres suivants en utilisant Intel® PROSet pour Windows. Pour les systèmes
Linux*, la fonctionnalité WOL est possible via l’utilitaire ethtool*. Pour de plus amples informations sur ethtool, veuillez
consulter le site Web suivant : http://sourceforge.net/projects/gkernel.
l
Wake on Directed Packet : accepte seulement les modèles contenant l’adresse Ethernet de la carte dans l’entête Ethernet, ou contenant l’adresse IP affectée à la carte dans l’en-tête IP.
l
Wake on Magic Packet : accepte seulement les modèles contenant 16 répétitions consécutives de l’adresse
MAC de la carte.
l
Wake on Directed Packet et Wake on Magic Packet : acceptent les modèles Wake on Directed Packet et Wake
on Magic Packet.
Le paramètre "Wake on Directed Packet" permet également à la carte d’accepter des modèles du protocole de résolution d’adresse ARP (Address Resolution Protocol) interrogeant l’adresse IP affectée à la carte. Si plusieurs adresses
IP sont affectées à une carte, le système d’exploitation peut demander un réveil sur modèles ARP interrogeant l’une
des adresses affectées. Cependant, le réveil de la carte ne se produira qu’en réponse à des paquets ARP interrogeant
la première adresse IP de la liste, généralement la première adresse affectée à la carte.
Problèmes d’installation physique
Connecteur
Certaines cartes mères prennent uniquement en charge le réveil à distance (ou le réveil à distance depuis l’état S5) à
partir d’un connecteur particulier. Consultez la documentation fournie avec votre système pour obtenir des détails sur
la prise en charge du réveil à distance.
Alimentation
Les cartes réseau Intel PRO les plus récentes utilisent une tension de 3,3 volts et certaines une tension de 12 volts.
Elles sont indexées pour s’adapter dans ces deux types de connecteurs.
Le bloc d’alimentation d’attente de 3,3 volts doit être en mesure de fournir au moins 0,2 A à chaque carte Intel PRO installée. Vous pouvez désactiver la fonctionnalité de réveil à distance des cartes à l’aide de l’utilitaire BootUtil afin de
réduire la consommation à 50 milliampères (0,05 A) par carte.
Paramètres du système d’exploitation
Produits Microsoft Windows
Windows Server prend en charge l’interface ACPI. Ces systèmes d’exploitation ne prennent pas en charge le réveil à
distance d’un état hors tension (S5). Seul le réveil du mode de veille est pris en charge. Lors de la fermeture du système, les périphériques ACPI sont arrêtés, y compris les cartes réseau Intel PRO. Cela désarme la fonctionnalité de
réveil à distance des cartes. Cependant, sur certains ordinateurs compatibles ACPI, le BIOS peut comporter un paramètre vous permettant de contourner le système d’exploitation et de réveiller les cartes d’un état S5. Si le réveil d’un
état S5 n’est pas pris en charge dans la configuration de votre BIOS, seul un réveil du mode de veille est possible en
utilisant ces systèmes d’exploitation sur des ordinateurs ACPI.
L’onglet Gestion de l'alimentation d’Intel PROSet comprend, pour certaines cartes, un paramètre appelé Wake on
Magic Packet d’un état hors tension. Pour autoriser explicitement le réveil depuis la fermeture avec un paquet magique
en mode APM, cochez cette case pour activer ce paramètre. Consultez l’aide d’Intel® PROSet pour de plus amples
informations.
Dans les versions de Windows compatibles ACPI, les paramètres avancés d’Intel® PROSet comprennent un paramètre appelé Wake on Settings. Ce paramètre permet de contrôler le type de paquets utilisés pour réveiller le système
à partir du mode de veille. Consultez l’aide d’Intel® PROSet pour de plus amples informations.
Si Intel® PROSet n'est pas installé, vous devez procéder comme suit :
1. Ouvrez le Gestionnaire de périphériques. Cliquez sur l'onglet Gestion de l'alimentation, cochez "Autoriser ce périphérique à sortir l'ordinateur du mode Veille."
2. Sur l'onglet Avancé, activez la fonction "Wake on Magic Packet".
Pour le réveil d'un état S5 sans Intel® PROSET, sur l'onglet Avancé, activez la fonction "PME".
Autres systèmes d’exploitation
Le réveil à distance est aussi pris en charge par Linux.
Configuration avec le module IntelNetCmdlets pour Windows
PowerShell*
Le module IntelNetCmdlets pour Windows PowerShell contient plusieurs cmdlets qui vous permettent de configurer et
de gérer les cartes Intel® Ethernet et les périphériques de votre système. Pour consulter la liste complète de ces cmdlets et leur description, saisissez get-help IntelNetCmdlets dans l'invite de commande Windows PowerShell. Pour
obtenir des informations détaillées sur l'utilisation de chaque cmdlet, saisissez get-help <cmdlet_name> dans l'invite
de commande Windows PowerShell.
REMARQUE : l'aide en ligne (get-help -online) n'est pas prise
en charge.
Installez le module IntelNetCmdlets en cochant la case du module Windows PowerShell pendant le processus
d'installation du pilote et de PROSet. Utilisez ensuite le module d'importation cmdlet pour importer les nouvelles cmdlets. Il vous faudra peut-être redémarrer Windows PowerShell pour accéder aux cmdlets nouvellement importées.
Pour utiliser le module d'importation cmdlet, vous devez en spécifier le chemin d’accès. Par exemple :
PS c:\> Import-Module -Name "C:\Program Files\Intel\Wired Networking\IntelNetCmdlets"
REMARQUE : si vous utilisez une barre oblique inverse (« \ ») à la fin de la commande du module
d'importation, l'opération d'importation échouera. Sous Microsoft Windows* 10 et Windows Server* 2016, la
fonction de saisie semi-automatique ajoute une barre oblique inverse. Si vous utilisez la fonction de saisie
semi-automatique lors de la saisie de la commande du module d'importation, supprimez la barre oblique
inverse du chemin d’accès avant d'appuyer sur Retour pour exécuter la commande.
Voir Microsoft TechNet pour plus d'informations sur le module d'importation cmdlet.
Configuration requise pour utiliser IntelNetCmdlets :
l
l
Microsoft* Windows PowerShell* version 2.0
.NET version 2.0
Configuration de SR-IOV pour une sécurité réseau renforcée
Dans un environnement virtualisé, la fonction virtuelle peut être sujette à un comportement malveillant sur les cartes
Intel® pour serveurs prenant en charge SR-IOV. Les trames générées par le logiciel ne sont pas attendues et peuvent
ralentir le trafic entre l'hôte et le commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème,
configurez tous les ports compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des
trames inattendues et potentiellement malveillantes.
Modification des paramètres d'Intel PROSet par l'intermédiaire de Microsoft* Windows PowerShell*
Vous pouvez utiliser le module IntelNetCmdlets pour Windows PowerShell pour modifier la plupart des paramètres
Intel PROSet.
REMARQUES :
l
Si une carte réseau est liée à une association ANS, ne modifiez pas les paramètres à l'aide de la cmdlet
Set–NetAdapterAdvanceProperty depuis Windows PowerShell* ni à l'aide d'aucune autre cmdlet non
fournie par Intel. Cette action est susceptible d'empêcher l'association d'utiliser cette carte réseau pour
faire passer le trafic. Cela peut entraîner une réduction des performances ou la désactivation de la carte
réseau de l'association ANS. Il est possible de résoudre ce problème en restaurant les paramètres à leur
état précédent ou en retirant la carte réseau de l'association ANS et en la remettant en place.
l
La cmdlet Get-IntelNetAdapterStatus -Status General peut signaler l'état "Liaison active - Ce périphérique n'est pas lié à sa capacité de vitesse maximale". Dans ce cas, si le périphérique est configuré
pour prendre en charge la négociation automatique, vous pouvez configurer la vitesse du partenaire de
liaison du périphérique à la vitesse maximale du périphérique. Si le périphérique n’est pas configuré
pour prendre en charge la négociation automatique, vous pouvez configurer la vitesse du périphérique
manuellement en vous assurant que le partenaire de liaison est réglé sur la même vitesse.
Enregistrement et restauration des paramètres de configuration d’une carte
L’outil de ligne de commande Enregistrer et restaurer (Save and Restore) vous permet de copier les paramètres
actuels des cartes et des associations dans un fichier externe (par exemple, sur un lecteur USB) pour les sauvegarder.
En cas de défaillance du disque dur, vous pouvez restaurer la plupart des anciens paramètres.
Le système sur lequel vous restaurez les paramètres de configuration réseau doit avoir une configuration identique à
celui sur lequel la sauvegarde a été effectuée.
REMARQUES :
l
Seuls les paramètres des cartes (y compris ceux concernant les associations ANS et les réseaux locaux
virtuels) sont enregistrés. Les pilotes des cartes ne sont pas enregistrés.
l
Effectuez une seule restauration à l’aide du script. La configuration pourrait être instable en cas de restauration répétée.
l
L’opération de restauration nécessite le même système d’exploitation que lorsque la configuration a été
enregistrée.
l
Intel® PROSet pour le gestionnaire de périphériques Windows* doit être installé pour que le script
SaveRestore.ps1 fonctionne.
l
Pour les systèmes fonctionnant avec un SE en 64 bits, s'assurer d'exécuter la version 64 bits de Windows PowerShell, et non la version 32 bits (x86), lors de l'exécution du script SaveRestore.ps1.
Syntaxe de ligne de commande
SaveRestore.ps1 –Action save|restore [-ConfigPath] [-BDF]
SaveRestore.ps1 prend en charge les options de ligne de commande suivantes :
Option
Description
-Action
Requis. Valeurs valides : save | restore.
L'option save enregistre les paramètres des cartes et des associations si ceux-ci sont différents des
paramètres par défaut. Lorsque vous restaurez le fichier de sauvegarde, tous les paramètres qui ne
sont pas contenus dans le fichier prennent leur valeur par défaut.
L'option restore restaure les paramètres.
-ConfigPath Facultatif. Spécifie le chemin et le nom de fichier du fichier principal d'enregistrement de la configuration. S'ils ne sont pas spécifiés, il s'agit du chemin et du nom de fichier par défaut du script
(saved_config.txt).
-BDF
Facultatif. Les noms par défaut des fichiers de configuration sont saved_config.txt et Saved_StaticIP.txt.
Si vous spécifiez -BDF lors d'une restauration, le script tente de restaurer la configuration en fonction
des valeurs de PCI Bus:Device:Function:Segment de la configuration enregistrée. Si vous avez supprimé, ajouté ou déplacé une carte réseau vers un autre connecteur, il est possible que le script
applique les paramètres enregistrés à un périphérique différent.
REMARQUES :
l
Si le système restauré n'est pas identique au système enregistré, il est possible que le script ne
restaure aucun paramètre lorsque l'option -BDF est spécifiée.
l
Les périphériques de fonction virtuelle ne prennent pas en charge l'option -BDF.
l
Si vous utilisez Windows pour définir les pourcentages NPar minimum et maximum de bande
passante, vous devez spécifier /bdf au cours d'un enregistrement et restaurer pour conserver
ces paramètres.
Exemples
Exemple d’enregistrement
Pour enregistrer les paramètres des cartes sur un périphérique à support amovible, procédez comme suit :
1. Ouvrez une invite de commande Windows PowerShell.
2. Recherchez le répertoire dans lequel se trouve le fichier SaveRestore.ps1 (habituellement c:\Program Files\Intel\Wired Networking\DMIX).
3. Entrez la commande suivante :
SaveRestore.ps1 –Action Save –ConfigPath e:\settings.txt
Exemple de restauration
Pour restaurer les paramètres des cartes à partir d’un fichier se trouvant sur un périphérique à support amovible, procédez comme suit :
1. Ouvrez une invite de commande Windows PowerShell.
2. Recherchez le répertoire dans lequel se trouve le fichier SaveRestore.ps1 (habituellement c:\Program Files\Intel\Wired Networking\DMIX).
3. Entrez la commande suivante :
SaveRestore.ps1 –Action Restore –ConfigPath e:\settings.txt
Installation et configuration des pilotes Linux*
Présentation
Cette version inclut des pilotes Linux de base pour les cartes Connexions réseau Intel®. Des informations spécifiques
sur la compilation et l’installation, la configuration et les paramètres de ligne de commande pour ces pilotes se
trouvent dans les sections suivantes :
l
Pilote Linux* igb pour les cartes réseau Gigabit Ethernet Intel® basées sur les contrôleurs 82575, 82576, I350
et I354
l
Pilote Linux* ixgbe pour les cartes réseau 10 Gigabit Ethernet Intel® reposant sur les contrôleurs 82599, X540
et X550
l
Pilote Linux* i40e pour les cartes réseau 10 Gigabit Ethernet Intel® basées sur les contrôleurs X710 et XL710
Consultez la section Cartes réseau prises en charge ci-dessous pour déterminer quel pilote utiliser.
Ces pilotes sont pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à appliquer à la source du noyau pour permettre la liaison statique du pilote.
Cette version comprend également la pris en charge des pilotes SR-IOV (Single Root I/O Virtualization). Vous trouverez ici des explications plus détaillées sur SR-IOV. Les pilotes suivants prennent en charge les périphériques de
fonction virtuelle de la liste qui ne peuvent être activés que sur les noyaux qui prennent en charge SR-IOV. SR-IOV
nécessite la plate-forme appropriée et la prise en charge du système d’exploitation.
l
Pilote Linux igbvf pour famille de cartes réseau Intel® Gigabit pour les familles de cartes réseau Gigabit avec
contrôleurs 82575, 82576, I350 et I354
l
Pilotes Linux ixgbevf pour famille de cartes 10 Gigabit Intel® pour famille de cartes 10 Gigabit 82599, X540 et
X550
l
Pilote Linux i40e pour famille de cartes réseau Intel® 10 Gigabit pour la famille de cartes réseau 10 Gigabit
avec chipset X710 et de cartes réseau 40 Gigabit avec chipset XL710.
REMARQUES :
l
Sur les systèmes fonctionnant sous Linux ou ESXi, le pilote de base doit être chargé pour que le microprogamme (FW) DUP Dell EMC fonctionne correctement.
l
Ce pilote i40e ne prend pas en charge SR-IOV sur ESXi 5.1.
l
Si vous prévoyez d'affecter directement des périphériques à une machine virtuelle sous Linux*, vous
devez activer la prise en charge de l'unité de gestion de mémoire d'E/S (I/O Memory Management Unit,
IOMMU) afin de garantir le bon fonctionnement de SR-IOV. Utilisez les paramètres d'amorçage du noyau
"intel_iommu=on" et "iommu=pt" pour activer la prise en charge d'IOMMU. Pour optimiser la protection
de la mémoire, utilisez "intel_iommu=on". Pour optimiser les performances, utilisez les deux paramètres
("intel_iommu=on iommu=p"). Ces paramètres peuvent être ajoutés à l'entrée CMDLINE__GRUB LINUX
du fichier de configuration /etc/default/grub. Pour les systèmes utilisant le mode d'amorçage UEFI, exécutez grub2-mkconfig -o /etc/grub2-efi.cfg. Pour les systèmes amorcés en mode BIOS existant, exécutez grub2-mkconfig -o /boot/grub2/grub.cfg.
Cartes prises en charge
Les cartes réseau Intel suivantes sont compatibles avec les pilotes de cette version :
Appareils pris en charge par le pilote de base igb pour Linux
l
l
l
l
l
l
l
l
l
l
Carte Intel® Gigabit 4P X550/I350 rNDC
Carte Intel® Gigabit 4P I350-t rNDC
Carte Intel® Gigabit 4P X540/I350 rNDC
Carte Intel® Gigabit 4P X520/I350 rNDC
Carte mezzanine Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P X710/l350 rNDC
Carte Intel® Gigabit 4P I350 bNDC
Carte Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Fond de panier Connexion Ethernet Intel® I354 1.0 GbE
l
l
l
Carte Intel® Gigabit 2P I350-t LOM
Carte Intel® Gigabit I350-t LOM
Carte Intel® Gigabit 2P I350 LOM
Appareils pris en charge par le pilote de base ixgbe pour Linux
l
l
l
l
l
l
l
l
l
l
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Carte réseau Ethernet Intel® 10G 2P X540-t
Carte réseau Ethernet Intel® 10G 2P X550-t
Carte réseau Ethernet Intel® 10G 4P X550 rNDC
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC
Carte Ethernet Intel® 10G 4P X520/I350 rNDC
Carte réseau Ethernet Intel® 10G 2P X520-k bNDC
Carte réseau Ethernet Intel® 10G 2P X520
Carte réseau Ethernet Intel® 10G X520 LOM
Appareils pris en charge par le pilote de base i40e pour Linux
l
l
l
l
l
l
l
l
l
l
l
l
l
Carte réseau Ethernet Intel® 10G 4P X710-k bNDC
Carte réseau Ethernet Intel® 10G 2P X710-k bNDC
Carte réseau Ethernet Intel® 10G X710-k bNDC
Carte réseau convergent Ethernet Intel® X710
Carte réseau convergent Ethernet Intel® X710-T
Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC
Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC
Carte réseau Ethernet Intel® 10G X710 rNDC
Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP
Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Carte réseau convergent Ethernet Intel® XL710-Q2
Carte réseau Ethernet Intel® 25G 2P XXV710
Carte mezzanine Ethernet Intel® 25G 2P XXV710
Pour vérifier si votre carte est prise en charge, recherchez son ID sur la carte. Recherchez une étiquette comportant un
code à barres et un numéro au format 123456-001 (six chiffres, tiret, trois chiffres). Comparez le numéro à la liste cidessus.
Pour obtenir de plus amples informations sur l’identification de votre carte ou pour obtenir les derniers pilotes réseau
pour Linux, consultez l’Assistance à la clientèle.
Versions Linux prises en charge
Les pilotes pour Linux sont fournis pour les distributions suivantes (seules les versions Intel® 64 sont prises en
charge) :
Red Hat Enterprise Linux (RHEL) :
l
Red Hat* Enterprise Linux* (RHEL) 6.9
SLES Linux Enterprise Server (SUSE) :
l
Novell* SUSE* Linux Enterprise Server (SLES) 12 SP3
REMARQUE : les périphériques suivants prennent également en charge RHEL 7.3 x64 et SLES 12 SP2 x64.
l
Carte Intel® Gigabit 4P I350-t rNDC
l
Carte Intel® Gigabit 4P X550/I350 rNDC
l
Carte Intel® Gigabit 4P X710/I350 rNDC
l
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
l
Carte Ethernet Intel® 10G 4P X710/I350 rNDC
Partitionnement NIC
Sur les cartes réseau Intel® série 710 qui le prennent en charge, vous pouvez configurer plusieurs fonctions sur
chaque port physique. Ces fonctions sont configurées au moyen de la Configuration système/BIOS.
Minimum TX Bandwidth est la bande passante de transmission de données minimale garantie que la partition se verra
allouer, en pourcentage de la vitesse totale de liaison du port physique. La bande passante allouée n'est jamais inférieure au niveau spécifié ici.
La plage des valeurs de bande passante minimale
1 à ((100 moins le nombre de partitions sur le port physique) plus 1).
Par exemple, si un port physique comporte 4 partitions, la plage serait
1 à ((100 - 4) + 1 = 97)
La bande passante maximum représente la bande passante de transmission maximum de la partition sous la forme
d'un pourcentage de la vitesse de liaison du port physique complet. La plage de valeurs acceptable va de 1 à 100. La
valeur peut être utilisée comme limiteur si vous décidez qu'une fonction donnée ne pourra pas consommer la totalité
(100 %) de la bande passante d'un port (en cas de disponibilité). La somme de toutes les valeurs de bande passante
maximale n'est pas limitée, parce qu'il est impossible d'utiliser plus de 100 % de la bande passante d'un port.
REMARQUE :
l
Si la somme des pourcentages de bande passante minimale n'est pas égale à 100, les paramètres
seront automatiquement ajustés de sorte qu'elle soit égale à 100.
l
Si le pourcentage de bande passante maximale d'une partition est défini sur une valeur inférieure au
pourcentage de bande passante minimale de la partition, le pourcentage de bande passante maximale
sera automatiquement réglé sur la valeur du pourcentage de la bande passante minimale.
l
Lorsque vous tentez de définir les valeurs du pourcentage de bande passante minimale en utilisant
iDRAC avec le contrôleur de cycle de vie (Lifecycle Controller) à l'aide de tâches n'incluant pas les
valeurs pour toutes les partitions activées, les valeurs observées après l'exécution des tâches peuvent
être différentes des valeurs qui étaient censées être définies. Pour éviter ce problème, définissez les
valeurs des pourcentages de bande passante minimale sur toutes les partitions en utilisant une seule
tâche et assurez-vous que la somme des valeurs est égale à 100.
Une fois la configuration initiale terminée, vous pouvez définir différentes allocations de bande passante pour chaque
fonction de la manière suivante :
1. Créez un nouveau répertoire nommé /config
2. Modifiez etc/fstab pour inclure :
configfs /config configfs defaults
3. Chargez (ou rechargez) le pilote i40e
4. Montez /config
5. Créez sous config un nouveau répertoire pour chaque partition pour laquelle vous souhaitez configurer la
bande passante.
Trois fichiers apparaissent dans le répertoire config/partition :
- max_bw
- min_bw
- commit
Lisez à partir de max_bw pour afficher le paramètre actuel de bande passante maximale.
Écrivez dans max_bw pour fixer la bande passante maximale pour cette fonction.
Lisez à partir de min_bw pour afficher le paramètre actuel de bande passante minimale.
Écrivez dans min_bw pour fixer la bande passante minimale pour cette fonction.
Écrivez un '1' pour confirmer l'enregistrement (commit) des modifications.
REMARQUES :
l
Commit est en écriture seule. Toute tentative de lecture provoquera une erreur.
l
l
l
L'écriture dans commit n'est prise en charge que pour la première fonction d'un port donné. L'écriture
pour une des fonctions suivantes provoquera une erreur.
La réécriture de la bande passante minimale n'est pas prise en charge. Le NVM du périphérique sousjacent règle la bande passante maximale sur les valeurs prises en charge de manière indéterminée.
Supprimez tous les répertoires sous config et rechargez-les pour voir quelles sont les valeurs réelles.
Pour décharger le pilote, vous devez tout d'abord supprimer les répertoires créés à l'étape 5 ci-dessus.
Exemple de réglage de la bande passante maximale et minimale (en supposant quatre fonctions sur le port eth6-eth9,
et que eth6 soit la première fonction du port) :
# mkdir /config/eth6
# mkdir /config/eth7
# mkdir /config/eth8
# mkdir /config/eth9
# echo 50 > /config/eth6/min_bw
# echo 100 > /config/eth6/max_bw
# echo 20 > /config/eth7/min_bw
# echo 100 > /config/eth7/max_bw
# echo 20 > /config/eth8/min_bw
# echo 100 > /config/eth8/max_bw
# echo 10 > /config/eth9/min_bw
# echo 25 > /config/eth9/max_bw
# echo 1 > /config/eth6/commit
Pilote Linux* igb pour cartes réseau Intel® Gigabit
Présentation des pilotes igb
REMARQUE : dans un environnement virtualisé, la fonction virtuelle (VF) peut être sujette à un comportement
malveillant sur les cartes réseau Intel® pour serveurs prenant en charge SR-IOV. Les deux trames de couche
générées par le logiciel, comme IEEE 802.3x (contrôle de flux de liaison), IEEE 802.1Qbb (contrôle de flux basé
sur des priorités) et les autres trames de ce type, ne sont pas attendues et peuvent ralentir le trafic entre l'hôte et
le commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous les ports
compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames inattendues
et potentiellement malveillantes.
REMARQUE : pour configurer l'étiquetage VLAN pour les ports d'une carte réseau activée pour SR-IOV, utilisez
la commande suivante. La configuration de VLAN doit être effectuée avant le chargement du pilote VF ou
l'amorçage de la machine virtuelle (VM).
$ ip link set dev <id netdev PF> vf <id> vlan <id vlan>
Par exemple, les instructions suivantes permettront de configurer PF eth0 et la première VF sur VLAN 10. $ ip
link set dev eth0 vf 0 vlan 10.
Ce fichier décrit le pilote de base Linux* pour Connexions réseau Intel® Gigabit reposant sur le contrôleur
Intel® 82575EB, Intel® 82576, Intel® I350 et Intel® I354. Ce pilote prend en charge les versions de noyau 2.6.30 et
ultérieures
Ce pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à appliquer à
la source du noyau pour permettre la liaison statique du pilote.
Les fonctionnalités suivantes sont maintenant disponibles pour les noyaux pris en charge :
l
Réseaux VLAN natifs
l
Channel Bonding (agrégation)
L’agrégation des cartes est à présent mise en œuvre en utilisant le module Channel Bonding natif de Linux. Cette fonctionnalité est incluse dans les noyaux Linux pris en charge. De la documentation concernant la fonctionnalité Channel
Bonding est disponible dans la source du noyau Linux : /documentation/networking/bonding.txt
Le pilote igb prend en charge l’horodatage IEEE sur les noyaux 2.6.30 et supérieurs.
Le pilote igb prend en charge une vitesse de fonctionnement de 2,5 Gbit/s sur 2500BASE-KX pour les connexions
réseau i354 uniquement.
Utilisez ethtool, lspci ou ifconfig pour obtenir des informations sur le pilote. Les instructions de mise à jour d’ethtool se
trouvent dans la section Configurations supplémentaires plus loin sur cette page.
Appareils pris en charge par le pilote de base igb pour Linux
Les cartes réseau Intel suivantes sont compatibles avec le pilote igb de cette version :
l
Carte Intel® Gigabit 4P X550/I350 rNDC
l
Carte Intel® Gigabit 4P I350-t rNDC
l
Carte Intel® Gigabit 4P X540/I350 rNDC
l
Carte Intel® Gigabit 4P X520/I350 rNDC
l
Carte mezzanine Intel® Gigabit 4P I350-t
l
Carte Intel® Gigabit 4P X710/l350 rNDC
l
Carte Intel® Gigabit 4P I350 bNDC
l
Carte Intel® Gigabit 2P I350-t
l
Carte réseau Intel® Gigabit 4P I350-t
l
Fond de panier Connexion Ethernet Intel® I354 1.0 GbE
l
Carte Intel® Gigabit 2P I350-t LOM
l
Carte Intel® Gigabit I350-t LOM
l
Carte Intel® Gigabit 2P I350 LOM
Compilation et installation
Il existe trois méthodes d’installation du pilote igb :
l
Installation à partir du code source
l
Installer à l’aide de RPM KMP
l
Installation à partir d’un fichier RPM KMOD
Installation à partir du code source
Pour compiler un package RPM* binaire pour ce pilote, exécutez 'rpmbuild -tb <nomdefichier.tar.gz>'. Remplacez
<nomdefichier.tar.gz> par le nom de fichier spécifique du pilote.
REMARQUE :
l
Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution
CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de
recompiler le noyau, redémarrez l’ordinateur maintenant.
l
La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat.
1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez ’/home/username/igb’ ou ’/usr/local/src/igb’.
2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version
du paquetage du pilote :
tar zxf igb-<x.x.x>.tar.gz
3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier
du pilote :
cd igb-<x.x.x>/src/
4. Compilez le module du pilote :
# make install
Les instructions binaires sont installées comme suit :
/lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/igb/igb.ko
Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le
fichier tar du pilote.
5. Installez le module à l’aide de la commande modprobe :
modprobe igb
Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes IGB sont supprimés du noyau,
avant de charger le nouveau module :
rmmod igb.ko; modprobe igb
6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au
numéro d’interface :
ifconfig eth<x> <adresse_IP> up
7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du
même sous-réseau que l’interface soumis au test :
ping <adresse_IP>
REMARQUE : certains systèmes éprouvent des difficultés à traiter les interruptions MSI et/ou MSI-X. Si votre système doit désactiver ce type d’interruption, le pilote peut être compilé et installé avec la commande suivante :
#make CFLAGS_EXTRA=-DDISABLE_PCI_MSI install
En temps normal, le pilote envoie une interruption toutes les deux secondes. Si les interruptions ne sont pas
reçues dans cat /proc/interrupts pour le périphérique ethX e1000e, ce contournement peut s’avérer nécessaire.
Pour créer un pilote igb avec DCA
Si votre noyau prend en charge DCA, DCA est activé par défaut lorsque le pilote est compilé.
Installer à l’aide de RPM KMP
REMARQUE : KMP est pris en charge uniquement sur SLES11 et ses versions ultérieures.
Les RPM KMP mettent à jour les RPM igb actuellement installés sur le système. Ces mises à jour sont fournies par
SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas.
Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus
est :
intel-<nom du composant>-<version du composant>.<type d’arch>.rpm
Par exemple, intel-igb-1.3.8.6-1.x86_64.rpm : igb est le nom du composant ; 1.3.8.6-1 est la version du composant ; et
x86_64 est le type d'architecture.
Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM
KMP inclus est :
intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type
d’arch>.rpm
Par exemple, intel-igb-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm : igb est le nom du composant ; default est le
type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est le numéro de version ; et x86_64 et le type
d'architecture.
Pour installer le RPM KMP, tapez les deux commandes suivantes :
rpm -i <nom de fichier rpm>
rpm -i <nom de fichier kmp rpm>
Par exemple, pour installer le paquetage RPM KMP igb, tapez ce qui suit :
rpm -i intel-igb-1.3.8.6-1.x86_64.rpm
rpm -i intel-igb-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Installation à partir d’un fichier RPM KMOD
Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers
RPM inclus est :
kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm
Par exemple, kmod-igb-2.3.4-1.x86_64.rpm :
l
igb est le nom du pilote
l
2.3.4 est la version
l
x86_64 est le type d'architecture
Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante :
rpm -i <nom de fichier rpm>
Par exemple, pour installer le package RPM KMOD igb depuis RHEL 6.4, tapez ce qui suit :
rpm -i kmod-igb-2.3.4-1.x86_64.rpm
Paramètres de ligne de commande
Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de
commande avec la commande modprobe et en utilisant la syntaxe suivante :
modprobe igb [<option>=<VAL1>,<VAL2>,...]
Une valeur (<VAL#>) doit être attribuée à chaque port réseau du système pris en charge par ce pilote. Les valeurs sont
appliquées à chaque instance, en fonction de l'ordre. Par exemple :
modprobe igb InterruptThrottleRate=16000,16000
Dans ce cas, deux ports réseau sont pris en charge par igb sur le système. La valeur par défaut de chaque paramètre
est généralement le paramètre recommandé, sauf indication contraire.
Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe :
Nom du paramètre
Plages/valeurs
valides
InterruptThrottleRate 0, 1, 3, 100100000 (0=ddésactivé, 1=ddynamique,
3=dynamique
conservatif)
Valeur par
défaut
Description
3
Interrupt Throttle Rate (ITR) contrôle le nombre
d'interruptions que chaque vecteur d'interruption peut générer par seconde. L’accroissement de la valeur ITR diminue
la latence au dépend de l’utilisation du processeur, bien
que cela puisse accélérer le débit dans certaines circonstances.
0 = Lorsqu’InterruptThrottleRate est défini sur 0, toute gestion des interruptions est désactivée, ce qui peut améliorer
la latence des petits paquets. Cependant, cette valeur n'est
généralement pas adaptée à un trafic important, en raison
de l'utilisation plus importante du processeur lorsque le
nombre des interruptions est plus élevé. REMARQUES :
pour les cartes réseau reposant sur les contrôleurs 82599,
X540 et X550, la désactivation d'InterruptThrottleRate
entraînera également la désactivation de HW RSC par le
pilote. - Pour les cartes réseau reposant sur le contrôleur
82598, la désactivation d'InterruptThrottleRate entraînera
également la désactivation du délestage des grandes
réceptions (Large Receive Offloads, LRO).
1 = En affectant au paramètre InterruptThrottleRate la
valeur Mode dynamique, la carte réseau tente de modérer
les interruptions par vecteur tout en maintenant une très
faible latence. Cela peut parfois entraîner une utilisation de
l'UC plus élevée. Si vous envisagez de déployer le pilote
igb dans un environnement sensible à la latence, ce paramètre doit être pris en considération.
<min_ITR>-<max_ITR> = 100-100000
En affectant au paramètre InterruptThrottleRate une valeur
supérieure ou égale à <min_ITR>, la carte réseau est programmée pour envoyer ce nombre maximum
d'interruptions par seconde, même s'il y a plus de paquets
entrants. Cela réduit la charge d'interruptions sur le système et peut diminuer l'utilisation de l'unité centrale en cas
de surcharge, mais augmente la latence car les paquets ne
sont pas traités aussi rapidement.
REMARQUE : cartes réseau non prises en charge :
le paramètre InterruptThrottleRate N'EST PAS pris
en charge par les cartes réseau reposant sur le
contrôleur 82542, 82543 ou 82544.
Nom du paramètre
Plages/valeurs
valides
Valeur par
défaut
Description
LLIPort
0-65535
0 (désactivé)
LLIPort configure le port pour des interruptions à faible
latence (LLI).
Les interruptions à faible latence permettent la création
immédiate d’une interruption lors du traitement de paquets
de réception correspondant à certains critères définis par
les paramètres ci-dessous. Les paramètres LLI ne sont pas
activés lorsque les interruptions héritées sont utilisées. MSI
ou MSI-X doivent être utilisés (voir cat /proc/interrupts) pour
utiliser les LLI avec succès.
Par exemple, l’utilisation de LLIPort-80 provoquerait l’envoi
par la carte d’une interruption immédiate dès réception
d’un paquet envoyé au port TCP 80 de la machine locale.
ATTENTION : l’activation de LLI peut provoquer
un nombre excessif d’interruptions/seconde avec
pour conséquence des problèmes au niveau du
système et, dans certains cas, une panique du
noyau.
LLIPush
0-1
0 (désactivé)
LLIPush peut être paramétré sur activé ou désactivé (par
défaut). Cette option est très efficace dans un environnement comportant de nombreuses petites transactions.
REMARQUE : l’activation de LLIPush peut permettre
une attaque par déni de service.
LLISize
0-1500
0 (désactivé)
LLISize provoque une interruption immédiate si la carte
reçoit un paquet plus petit que la taille spécifiée.
IntMode
0-2
2
Cela permet de contrôler le temps de chargement par rapport au type d’interruption enregistré par le pilote. MSI-X est
requis pour la prise en charge de plusieurs files d’attente.
Certains noyaux et certaines combinaisons d’options de
configurations de noyau forceront un niveau de prise en
charge inférieur des interruptions. ’cat/proc/interrupts’ affichera des valeurs différentes pour chaque type
d’interruption.
0 = interruptions héritées
1 = interruptions MSI
2 = interruptions MSI-X (par défaut).
RSS
0-8
1
0 = Attribue le plus petit des deux nombres entre celui des
processeurs et celui des files.
X = Attribue X file(s), où X est inférieur ou égal au nombre
maximal de files d’attente. Le pilote autorise une valeur
maximale de files d’attente prises en charge. Par exemple,
les cartes réseau I350 autorisent RSS=8, 8 étant le nombre
maximum de files autorisées.
REMARQUE : le nombre maximal de files d'attente
est 4 pour les cartes réseau reposant sur le
contrôleur 82575, 8 pour les cartes réseau reposant
sur le contrôleur 82576 et les cartes plus récentes, 4
pour les cartes réseau reposant sur le contrôleur
i210 et 2 pour les cartes réseau reposant sur le
contrôleur I211.
Nom du paramètre
Plages/valeurs
valides
Valeur par
défaut
Description
Ce paramètre est également affecté par le paramètre
VMDq car il limite davantage les files d'attente.
VMDQ
VMDQ
0-8
0
Modèle
0
1
2
3+
82575
4
4
3
1
82576
8
2
2
2
82580
8
1
1
1
Cela permet l’activation de pools VMDq, ce qui est nécessaire pour la prise en charge de SR-IOV.
Ce paramètre est forcé sur 1 ou plus si le paramètre de
module max_vfs est utilisé. En outre, le nombre de files disponibles pour RSS est limité s’il est paramétré sur 1 ou
plus.
0 = Désactivé
1 = Définit le netdev comme pool 0
2 ou plus = Ajouter des files d’attente supplémentaires.
Néanmoins, celles-ci ne sont pas utilisées.
REMARQUE : lorsque les modes SR-IOV ou VMDq
sont activés, le filtrage de VLAN matériel et la suppression/insertion de balises VLAN restent activés.
max_vfs
0-7
0
Ce paramètre assure la prise en charge SR-IOV. Il fait générer au pilote jusqu’à max_vfs de fonction virtuelle.
Si la valeur est supérieure à 0, il force la valeur du paramètre VMDQ sur 1 ou plus.
REMARQUE : lorsque les modes SR-IOV ou VMDq
sont activés, le filtrage de VLAN matériel et la suppression/insertion de balises VLAN restent activés.
Supprimez l'ancien filtre de VLAN avant d'ajouter le
nouveau filtre de VLAN. Par exemple,
ip link set eth0 vf 0 vlan
100 // définir vlan 100 pour
VF 0
ip link set eth0 vf 0 vlan 0
// supprimer vlan 100
ip link set eth0 vf 0 vlan
200 // définir un nouveau
vlan 200 pour VF 0
QueuePairs
0-1
1
Cette option peut être forcée en 1 si les interruptions disponibles ne sont pas suffisantes. Cela peut se produit si
une combinaison de RSS, VMDQ et max_vfs résulte en
l’utilisation de plus de 4 files.
0 = Si MSI-X est activé, les TX et RX tentent d’occuper des
vecteurs distincts.
1 = TX et RX sont appariés sur un vecteur d’interruption
(par défaut).
Nom du paramètre
Plages/valeurs
valides
Valeur par
défaut
Description
Node (nœud)
0-n, ou n est le
nombre de nœuds
NUMA devant être
utilisés pour
allouer une
mémoire à ce port
d’adaptation.
-1 (désactivé)
Les paramètres du nœud vous permettent de choisir à partir de quel nœud NUMA vous désirez que l’adaptateur
alloue la mémoire. Toutes les structures des pilotes, les
files d’attentes mémorisées et mémoires tampons seront
alloués au nœud spécifié. Ce paramètre n’est utile que
lorsque l’affinité d’interruption est spécifiée, au cas
contraire, l’interruption pourrait être exécutée pendant un
moment sur une machine autre que celle sur laquelle la
mémoire est allouée, ralentissant ainsi l’accès à la
mémoire et ayant un impact sur le CPU ou les deux.
1 (activé)
Cette option permet l’intégration d’IEEE802.3az, Energy
Efficient Ethernet (EEE), devant être annoncés sur le site
partenaire sur les équipements prenant en charge EEE.
-1, utilise le pilote
par défaut
d’allocation de la
mémoire sur
n’importe quel processeur exécutant
modprobe.
EEE
0-1
Une liaison entre les deux périphériques compatibles EEE
entraîne des paquets de données périodiques suivis de
période en mode veille. Ce mode basse consommation
(LPI) est pris en charge pour les vitesses de liaison 1 Gbit/s
et 100 Mbit/s.
REMARQUES :
l
La prise en charge EEE nécessite une négociation automatique.
l
la fonctionnalité EEE est désactivée par
défaut sur les cartes I350.
DMAC
0, 250, 500, 1000,
2000, 3000, 4000,
5000, 6000, 7000,
8000, 9000, 10000
0 (désactivé)
Active ou désactive la fonction de coalition DMA. Les
valeurs sont en microsecondes et augmentent le compteur
interne de la fonction de coalition DMA. Le DMA (Direct
Memory Access) permet au périphérique de réseau de
déplacer directement les données de paquet vers la
mémoire du système, réduisant ainsi l’utilisation du processeur. Cependant, la fréquence et les intervalles aléatoires d’arrivée de paquets ne permettent pas au système
d’entrer en mode faible consommation. La coalition DMA
permet à la carte réseau de collecter des paquets avant de
démarrer un événement DMA. La latence de réseau peut
augmenter, ainsi que les chances que le système entre en
mode faible consommation.
L’activation de la coalition DMA peut permettre
d’économiser de l’énergie avec le noyau 2.6.32 et version
ultérieure. Votre système consommera ainsi moins
d’énergie. La coalition DMA permet d’économiser potentiellement l’énergie de la plate-forme uniquement si elle est
activée sur tous les ports actifs.
La fonction InterruptThrottleRate (ITR) doit être définie en
mode dynamique. Quand ITR=0, la coalition DMA est automatiquement désactivée.
La meilleure configuration de votre plate-forme est expliquée dans un document disponible sur le site Web Intel.
Nom du paramètre
Plages/valeurs
valides
Valeur par
défaut
Description
MDD
0-1
1 (activé)
Le paramètre MDD (Malicious Driver Detection) n’est approprié que pour les périphériques I350 fonctionnant en mode
SR-IOV. Quand ce paramètre est sélectionné, le pilote
détecte un pilote VF malveillant et désactive ses files
d’attente TX/RX jusqu’à ce qu’une réinitialisation du pilote
VF se produise.
Configurations supplémentaires
Configuration du pilote sur des distributions différentes
La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la
distribution. Habituellement, le processus de configuration entraîne l'ajout d'une ligne d'alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de
fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportezvous à votre documentation de distribution. Si, lors de ce processus, vous êtes invité à fournir le nom du pilote ou du
module, le nom du pilote de base Red Hat Linux pour la famille de cartes Intel Gigabit est igb.
Par exemple, si vous installez le pilote igb pour deux cartes Intel Gigabit (eth0 et eth1) et que vous définissez une
vitesse et un duplex de 10 Full et 100 Half, ajoutez ce qui suit à modules.conf :
alias eth0 igb
alias eth1 igb
options igb IntMode=2,1
Affichage des messages de liaison
Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de
voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce
qui suit :
dmesg -n 8
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages.
Trames Jumbo
La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut
de 1500 octets. Utilisez la commande ifconfig pour augmenter la valeur MTU. Par exemple :
ifconfig eth<x> mtu 9000 up
Ce paramètre n’est pas sauvegardé lors des redémarrages. Ce paramètre peut être rendu permanent en ajoutant MTU
= 9000 MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x>, dans les distributions Red Hat.
Les autres distributions peuvent stocker ce paramètre à un autre emplacement.
REMARQUES :
l
L’utilisation de trames Jumbo à des vitesses de 10 ou 100 Mbit/s pourrait résulter en une baisse des performances ou une perte de liaison.
l
Pour activer les trames Jumbo, définissez une taille MTU supérieure à 1 500 dans l’interface.
l
La taille maximale des trames Jumbo est 9234 octets, avec une taille MTU correspondante de 9216
octets.
ethtool
Le pilote utilise l'interface ethtool pour la configuration et les diagnostics de pilote, ainsi que pour l'affichage des informations statistiques. La version 3 de ethtool ou une version ultérieure est requise pour cette fonctionnalité, mais nous
vous recommandons fortement de télécharger la dernière version à l'adresse : http://www.kernel.org/pub/software/network/ethtool/.
Configuration de la vitesse et du mode duplex
En mode par défaut, une carte réseau Intel® utilisant des connexions en cuivre tente de négocier automatiquement
avec son partenaire de liaison afin de déterminer la meilleure configuration. Si la carte réseau ne parvient pas à établir
de liaison avec son partenaire de liaison en utilisant la négociation automatique, vous devrez sans doute configurer
manuellement la carte et le partenaire de liaison de manière identique afin d’établir la liaison et transmettre des
paquets. Cette opération ne doit être exécutée que pour établir une liaison avec un commutateur ancien qui ne prend
pas en charge la négociation automatique ou utilisant une vitesse ou un mode duplex particuliers.
La configuration du partenaire de liaison doit correspondre à celle que vous avez choisie. Les cartes à fibres optiques
fonctionnent uniquement en Full duplex et seulement à leur vitesse native.
La vitesse et le duplex sont configurés à l'aide de l'utilitaire ethtool*. ethtool est inclus dans toutes les versions de
Red Hat ultérieures à la version Red Hat 7.2. Pour les autres distributions Linux, téléchargez et installez ethtool depuis
le site Web suivant : http://www.kernel.org/pub/software/network/ethtool/.
ATTENTION : seul un administrateur réseau expérimenté devrait forcer manuellement la vitesse et le mode
duplex. Les paramètres du commutateur doivent toujours concorder avec ceux de la carte. La carte sera sensiblement moins performante ou ne fonctionnera pas du tout si les paramètres de la carte diffèrent de ceux du
commutateur.
Activation de Wake on LAN*
Wake on LAN (WoL) est configuré à l'aide de l'utilitaire ethtool*. ethtool est inclus dans toutes les distributions Red Hat
ultérieures à la version Red Hat 7.2. Pour les autres distributions Linux, téléchargez et installez ethtool depuis le site
Web suivant : http://www.kernel.org/pub/software/network/ethtool/.
Pour obtenir des instructions sur l'activation de la fonctionnalité WoL avec ethtool, reportez-vous au site Web mentionné ci-dessus.
WoL sera activé sur le système lors de sa prochaine fermeture ou de son prochain redémarrage. Pour cette version de
pilote et pour activer la fonctionnalité WoL, le pilote igb doit être chargé avant l'arrêt ou la mise en veille du système.
REMARQUES :
l
La fonctionnalité Wake on LAN est prise en charge uniquement sur le port A des périphériques dotés de
plusieurs ports.
l
Wake On LAN n'est pas pris en charge sur la carte réseau pour serveur Intel® Gigabit VT Quad Port Server Adapter.
Multiqueue
Dans ce mode, un vecteur MSI-X distinct est attribué à chaque file d’attente, et un vecteur est attribué aux "autres" interruptions, telles qu’un changement d’état de la liaison et des erreurs. Toutes les interruptions sont limitées par la gestion des interruptions. La gestion des interruptions sert à éviter des perturbations d’interruptions lorsque le pilote traite
une interruption. La valeur de gestion doit être au moins aussi importante que la durée prévue pour que le pilote traite
une interruption. La fonction de file d’attente multiple est désactivée par défaut.
La prise en charge de MSI-X est nécessaire pour la fonction de file d’attente multiple. Si MSI-X n'est pas détecté, le système se replie sur MSI ou sur les interruptions héritées. Ce pilote prend en charge les files d’attente multiples dans les
versions de noyau 2.6.24 et supérieures et les files d’attente de réception multiples sur tous les noyaux prenant en
charge MSI-X.
REMARQUES :
l
N’utilisez pas MSI-X avec les noyaux 2.6.19 ou 2.6.20. Nous vous recommandons d’utiliser un noyau
2.6.21 ou ultérieur.
l
Certains noyaux nécessitent un redémarrage pour passer entre un mode de file d’attente unique et un
mode à plusieurs files d’attente et vice versa.
Large Receive Offload (LRO)
Large Receive Offload (LRO) est une technique permettant d’accroître le débit entrant de connexions réseau large
bande en réduisant la charge du processeur. Cette technique consiste à agréger plusieurs paquets entrants d’un flux
unique dans un tampon de grande taille avant de les faire monter dans la pile réseau, réduisant ainsi le nombre des
paquets devant être traités. LRO combine plusieurs trames Ethernet en une seule réception dans la pile, ce qui décroit
potentiellement l’utilisation du processeur pour les réceptions.
REMARQUE : LRO nécessite un noyau 2.6.22 ou de version ultérieure.
IGB_LRO est un indicateur de temps de compilation. Il peut être activé au moment de la compilation pour ajouter un
soutien du pilote au LRO. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIGB_LRO" au fichier make lorsqu’il
est compilé. Par exemple :
# make CFLAGS_EXTRA="-DIGB_LRO" install
Vous pouvez vérifier que le pilote utilise LRO en consultant ces compteurs dans ethtool :
l
lro_aggregated - nombre total des paquets qui ont été combinés
l
lro_flushed - compte le nombre de paquets vidés du LRO
l
lro_no_desc - compte le nombre de fois où un descripteur LRO n’était pas disponible pour le paquet LRO
REMARQUE : IPv6 et UDP ne sont pas pris en charge par LRO.
IEEE 1588 Precision Time Protocol (PTP) Hardware Clock (PHC)
Le protocole PTP (Precision Time Protocol) est une implémentation de la spécification IEEE 1588 permettant aux
cartes réseau de synchroniser leurs horloges sur un réseau compatible PTP. Pour cela, une série de transactions de
synchronisation et de notifications de délai est exécutée, permettant au daemon du logiciel d'implémenter un contrôleur PID pour synchroniser les horloges des cartes réseau.
REMARQUE : PTP nécessite un noyau de version 3.0.0 ou ultérieure avec prise en charge PTP activée dans le
noyau et un daemon de logiciel d'espace utilisateur.
IGB_PTP est un indicateur de temps de compilation. L’utilisateur peut l’activer au moment de la compilation pour ajouter la prise en charge LRO du pilote. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIGB_PTP" au fichier make
lorsqu’il est compilé :
make CFLAGS_EXTRA="-DIGB_PTP" install
REMARQUE : le pilote ne peut pas être compilé si votre noyau ne prend pas en charge PTP.
Vous pouvez vérifier que le pilote utilise PTP en consultant le journal système pour voir si l'enregistrement d'une horloge matérielle (PHC) a été tenté ou non. Si vous possédez un noyau et une version d'ethtool qui prennent en charge
PTP, vous pouvez vérifier la prise en charge PTP dans le pilote en exécutant :
ethtool -T ethX
Fonction anti-arnaque MAC et VLAN
Quand un pilote malveillant tente d’envoyer un paquet malveillant, il est rejeté par le matériel et n’est pas transmis.
Une interruption est envoyée au pilote PF pour signaler la tentative d’intrusion malveillante.
Quand un paquet malveillant est détecté, le pilote PF envoie le message suivant au journal du système (affiché avec la
commande "dmesg") :
Spoof event(s) detected on VF(n)
Où n=VF ayant tenté l’intrusion malveillante.
Configuration de l’adresse MAC, du VLAN et de la limite de taux utilisé par l’outil
IProute2
Vous pouvez définir un adresse MAC pour la fonction virtuelle (VF), un VLAN par défaut et la limite du taux utilisant
l’outil IProute2. Téléchargez la dernière version de l’outil iproute2 à partir de Sourceforge si votre version ne dispose
pas des fonctions requises.
Problèmes connus
REMARQUE : si la connexion réseau Ethernet Intel® ne fonctionne pas après l'installation du pilote, vérifiez
que vous avez installé le pilote correct. Les versions 2.0, 2.1 et 2.5 de la technologie d'administration active
Intel® ne sont pas prises en charge pour une utilisation avec le pilote Linux.
Changement inattendu de l'adresse MAC d'une fonction virtuelle
Si l'adresse MAC d'une fonction virtuelle n'est pas assignée à l'hôte, le pilote de la fonction virtuelle (VF) utilisera une
adresse MAC aléatoire. Cette adresse MAC aléatoire peut changer à chaque fois que le pilote VF est rechargé. Vous
pouvez attribuer une adresse MAC statique dans la machine hôte. Cette adresse MAC statique sera conservée après
le rechargement d'un pilote VF.
Utilisation du pilote igb sur des noyaux 2.4 ou de version 2.6 plus anciens
Compte tenu de la prise en charge limitée de PCI Express dans les noyaux de la version 2.4 et les noyaux plus
anciens de la version 2.6, le pilote igb peut se heurter à des problèmes d'interruption sur certains systèmes, tels que
des liaisons introuvables ou des blocages lors de l'invocation d'un périphérique.
Nous vous recommandons d'utiliser les noyaux les plus récents de la version 2.6, car ils configurent correctement
l'espace de configuration PCI Express de la carte et tous les ponts intervenants. Si vous devez utiliser un noyau 2.4, utilisez un noyau 2.4 plus récent que la version 2.4.30. Pour les noyaux 2.6, nous vous recommandons d'utiliser le
noyau 2.6.21 ou une version plus récente.
Autrement, sur les noyaux 2.6, vous pouvez désactiver la prise en charge MSI du noyau en démarrant avec l’option
"pci=nomsi" ou en désactivant la prise en charge MSI du noyau de façon permanente en configurant le noyau avec la
commande CONFIG_PCI_MSI unset.
Une unité de transmission détectée se bloque sur les cartes réseau à quatre ports
Dans certains cas, les ports 3 et 4 ne laissent pas passer le trafic et signalent des erreurs "Detected Tx Unit Hang" suivies des erreurs "NETDEV WATCHDOG: ethX: transmit timed out" (dépassement de délai d’ethX : dépassement de
délai d’émission). Les ports 1 et 2 n’affichent aucune erreur et laissent passer le trafic.
Le problème peut être résolu en effectuant une mise à jour vers les tous derniers noyaux et BIOS. Utilisez un SE qui
prend totalement en charge les interruptions MSI (Message Signaled Interrupts) et assurez-vous que la fonctionnalité
MSI est activée dans le BIOS de votre système.
Compilation du pilote
Lorsque vous essayez de compiler le pilote en exécutant la commande 'make install', l'erreur suivante peut survenir :
"Linux kernel source not configured - missing version.h" (Source de noyau Linux non configurée - version.h manquante)
Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source de Linux et en entrant :
# make include/linux/version.h
Dégradation des performances avec les trames Jumbo
Une dégradation du débit peut être observée avec certaines trames Jumbo. Dans ce cas, il peut s’avérer utile
d’augmenter la taille de socket de l’application et/ou les valeurs d’entrée de /proc/sys/net/ipv4/tcp_*mem.
Reportez-vous au manuel de l'application en question et à /usr/src/linux*/Documentation/networking/ip-sysctl.txt pour
de plus amples informations.
Trames Jumbo sur un commutateur Foundry BigIron 8000
L’utilisation des trames Jumbo lorsqu’un commutateur Foundry BigIron 8000 est connecté pose un problème. Il s’agit
d’une limitation d’une tierce partie. En cas de pertes de paquets, réduisez la taille de l’unité de transmission maximale
(MTU).
Plusieurs interfaces sur le même réseau de diffusion Ethernet
En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le
même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces
Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non
équilibré.
Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant :
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Ce processus fonctionne uniquement avec des noyaux de version supérieure à 2.4.5.
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Vous pouvez rendre la modification
de configuration permanente en ajoutant la ligne suivante dans le fichier /etc/sysctl.conf :
net.ipv4.conf.all.arp_filter = 1
Une autre solution consiste à installer les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un commutateur partitionné aux réseaux locaux virtuels).
Désactiver le contrôle de flux de réception avec ethtool
Pour désactiver le contrôle de flux de réception en utilisant ethtool, vous devez désactiver la négociation automatique
sur la même ligne de commande :
ethtool -A eth? autoneg off rx off
Débranchement du câble réseau alors qu'ethtool -p est en cours d’exécution
Sur les noyaux de versions 2.5.50 et plus récents, le clavier système ne répond plus (sauf à la commande
Ctrl+Alt+Supp.) si le câble réseau est débranché alors que ethtool -p est en cours d'exécution. Le redémarrage du système semble être le seul recours.
Problème de transmission du trafic sur les ports 1 et 2 en utilisant RHEL3
Il existe un problème de compatibilité matérielle connu sur certains systèmes avec les noyaux RHEL3. Le trafic sur les
ports 1 et 2 peut être plus lent que prévu, et les délais ping, plus élevés que prévu.
Le problème PEUT être résolu en effectuant une mise à jour vers les tout derniers noyaux et BIOS. Vous pouvez vérifier votre BIOS système en téléchargeant le Linux Firmware Developer Kit (kit de développement de microprogramme
Linux) à l'adresse
http://www.linuxfirmwarekit.org/.
N'utilisez pas LRO lors de l'acheminement de paquets
En raison d’un problème de compatibilité générale entre LRO et l’acheminement, n’utilisez pas LRO lors de
l’acheminement de paquets.
Erreur de création avec Asianux 3.0 - Redéfinition de typedef 'irq_handler_t'
Certains systèmes peuvent éprouver des problèmes de création liés à la redéfinition de irq_handler_t. Pour résoudre
ce problème, générez le pilote (étape 4 ci-dessus) en utilisant la commande :
# make CFLAGS_EXTRA=-DAX_RELEASE_CODE=1 install
Problèmes MSI-X avec les noyaux de versions 2.6.19 à 2.6.21 (comprise)
Des paniques et instabilités du noyau peuvent être observées sur le matériel MSI-X si vous utilisez irqbalance avec
des noyaux de versions 2.6.19 et 2.6.21. Si de tels problèmes surviennent, vous pouvez désactiver le démon irqbalance ou mettre votre noyau à niveau.
Erreurs d’allocation de la page de réception
Des erreurs de type 'Échec d'allocation de page. ordre : 0' peuvent se produire en cas de montée en charge avec les
noyaux 2.6.25 et de versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress.
Sous RedHat 5.4-GA, le système peut se bloquer en cas de fermeture de la fenêtre de SE invité, après chargement/déchargement du pilote PF (Physical Function). Ne supprimez pas le pilote igb de Dom0 pendants que les VF
(Virtual Function) sont attribuées aux invités. Les VF doivent utiliser la commande xm "pci-detach" pour le débranchement à chaud du périphérique VF de la VM à laquelle il est attribué ou alors fermer la VM.
Le déchargement du pilote PF entraîne le redémarrage du système quand la machine virtuelle est en cours
d’exécution et la VF est chargée sur la VM. Ne déchargez pas le pilote PF (igb) si les VF sont attribués aux hôtes.
L’hôte peut redémarrer après la suppression de PF lorsque des VF sont actives sur
l’invité
Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives.
Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage spontané du système.
Avant de décharger le pilote PF, vous devez d'abord vous assurer qu'aucune VF n'est encore active. Pour ce faire, arrêtez toutes les machines virtuelles et déchargez le pilote VF.
Pilote Linux* igbvf pour cartes réseau Intel® Gigabit
Présentation igbvf
Ce pilote prend en charge les versions de noyau en amont 2.6.30 (ou supérieure) x86_64.
Le pilote igbvf prend en charge les périphériques de fonction virtuelle basés sur les contrôleurs 82576 et I350 qui ne
peuvent être activés que sur les noyaux qui prennent en charge SR-IOV. SR-IOV nécessite la plate-forme appropriée
et la prise en charge du système d’exploitation.
Le pilote igbvf a besoin du pilote igb, version 2.0 ou ultérieure. Le pilote igbvf prend en charge les fonctions virtuelles
générées par le pilote igb avec une valeur max_vfs de 1 ou plus. Pour plus de détails sur le paramètre max_vfs, consultez la section traitant du pilote igb.
Le système d’exploitation hôte chargeant le pilote igbvf doit prendre en charge les interruptions MSI-X.
Actuellement, le pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs
à appliquer à la source du noyau pour permettre la liaison statique du pilote. Pour toutes questions concernant la configuration matérielle, reportez-vous à la documentation accompagnant la carte Gigabit Intel. Toutes les configurations
matérielles énumérées s’appliquent à une utilisation avec Linux.
REMARQUE : pour les réseaux locaux virtuels, il existe une limite d'un total de 32 réseaux locaux virtuels partagés sur une VF ou plus.
Appareils pris en charge par le pilote de base igbvf pour Linux
Les cartes réseau Intel suivantes sont compatibles avec le pilote igbvf de cette version :
l
Carte Intel® Gigabit 4P X550/I350 rNDC
l
Carte Intel® Gigabit 4P I350-t rNDC
l
Carte Intel® Gigabit 4P X540/I350 rNDC
l
Carte Intel® Gigabit 4P X520/I350 rNDC
l
Carte mezzanine Intel® Gigabit 4P I350-t
l
Carte Intel® Gigabit 4P X710/l350 rNDC
l
Carte Intel® Gigabit 4P I350 bNDC
l
Carte Intel® Gigabit 2P I350-t
l
Carte réseau Intel® Gigabit 4P I350-t
l
Carte Intel® Gigabit 2P I350-t LOM
l
Carte Intel® Gigabit I350-t LOM
l
Carte Intel® Gigabit 2P I350 LOM
Compilation et installation
Il existe deux méthodes d’installation du pilote igbvf :
l
Installation à partir du code source
l
Installer à l’aide de RPM KMP
Installation à partir du code source
Pour compiler un package RPM* binaire pour ce pilote, exécutez 'rpmbuild -tb <nomdefichier.tar.gz>'. Remplacez
<nomdefichier.tar.gz> par le nom de fichier spécifique du pilote.
REMARQUE : pour que la compilation fonctionne correctement, il est important que le noyau en cours
d’exécution CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez
de recompiler le noyau, redémarrez l’ordinateur maintenant.
1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez ’/home/username/igbvf’ ou ’/usr/local/src/igbvf’.
2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version
du paquetage du pilote :
tar zxf igbvf-<x.x.x>.tar.gz
3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier
du pilote :
cd igbvf-<x.x.x>/src/
4. Compilez le module du pilote :
# make install
Les instructions binaires sont installées comme suit :
/lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/igbvf/igbvf.ko
Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le
fichier tar du pilote.
5. Installez le module à l’aide de la commande modprobe :
modprobe igbvf
Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes igbvf sont supprimés du noyau,
avant de charger le nouveau module :
rmmod igbvf.ko; modprobe igbvf
6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au
numéro d’interface :
ifconfig eth<x> <adresse_IP> up
7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du
même sous-réseau que l’interface soumis au test :
ping <adresse_IP>
REMARQUE : certains systèmes éprouvent des difficultés à traiter les interruptions MSI et/ou MSI-X. Si votre système doit désactiver ce type d’interruption, le pilote peut être compilé et installé avec la commande suivante :
#make CFLAGS_EXTRA=-DDISABLE_PCI_MSI install
En temps normal, le pilote envoie une interruption toutes les deux secondes. Si les interruptions ne sont pas
reçues dans cat /proc/interrupts pour le périphérique ethX e1000e, ce contournement peut s’avérer nécessaire.
Pour créer un pilote igbvf avec DCA
Si votre noyau prend en charge DCA, DCA est activé par défaut lorsque le pilote est compilé.
Installer à l’aide de RPM KMP
REMARQUE : KMP est pris en charge uniquement sur SLES11 et ses versions ultérieures.
Les RPM KMP mettent à jour les RPM igbvf actuellement installés sur le système. Ces mises à jour sont fournies par
SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas.
Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus
est :
intel-<nom du composant>-<version du composant>.<type d’arch>.rpm
Par exemple, intel-igbvf-1.3.8.6-1.x86_64.rpm: igbvf est le nom du composant ; 1.3.8.6-1 est la version du composant ;
et x86_64 est le type d'architecture.
Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM
KMP inclus est :
intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type
d’arch>.rpm
Par exemple, intel-igbvf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm: igbvf est le nom du composant ; default est le
type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64 est le type
d'architecture.
Pour installer le RPM KMP, tapez les deux commandes suivantes :
rpm -i <nom de fichier rpm>
rpm -i <nom de fichier kmp rpm>
Par exemple, pour installer le package RPM KMP igbvf, tapez ce qui suit :
rpm -i intel-igbvf-1.3.8.6-1.x86_64.rpm
rpm -i intel-igbvf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Paramètres de ligne de commande
Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de
commande avec la commande modprobe et en utilisant la syntaxe suivante :
modprobe igbvf [<option>=<VAL1>,<VAL2>,...]
Une valeur (<VAL#>) doit être attribuée à chaque port réseau du système pris en charge par ce pilote. Les valeurs sont
appliquées à chaque instance, en fonction de l'ordre. Par exemple :
modprobe igbvf InterruptThrottleRate=16000,16000
Dans ce cas, deux ports réseau sont pris en charge par igb sur le système. La valeur par défaut de chaque paramètre
est généralement le paramètre recommandé, sauf indication contraire.
Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe :
Nom du paramètre
Plages/valeurs
valides
InterruptThrottleRate 0, 1, 3, 100100000 (0=ddésactivé, 1=ddynamique,
3=dynamique
conservatif)
Valeur
par
défaut
Description
3
Le pilote peut limiter le nombre d’interruptions par seconde
générées par la carte pour les paquets entrants. Pour ce faire,
il écrit une valeur sur la carte, basée sur le nombre maximum
d’interruptions que la carte générera par seconde.
En affectant au paramètre InterruptThrottleRate une valeur
supérieure ou égale à 100, la carte est programmée pour
envoyer ce nombre maximum d'interruptions par seconde,
même s'il y a plus de paquets entrants. Cela réduit la charge
d'interruptions sur le système et peut diminuer l'utilisation de
l'unité centrale en cas de surcharge, mais augmente la latence
car les paquets ne sont pas traités aussi rapidement.
Le comportement par défaut du pilote prenait pour hypothèse
que le paramètre InterruptThrottleRate possédait une valeur
statique de 8000, ce qui fournissait une bonne valeur de
secours pour tous les types de trafic, mais des performances
médiocres concernant le traitement des paquets et la latence.
Cependant, le matériel peut traiter beaucoup plus de paquets
par seconde et c’est pourquoi un algorithme de gestion adaptative des interruptions a été implémenté.
Le pilote possède deux modes adaptatifs (valeur 1 ou 3) avec
lesquels il ajuste de façon dynamique la valeur InterruptThrottleRate en fonction du trafic qu’il reçoit. Après avoir
déterminé le type de trafic entrant de la dernière tranche de
temps, il ajuste la valeur InterruptThrottleRate à une valeur
appropriée en fonction de ce trafic.
Nom du paramètre
Plages/valeurs
valides
Valeur
par
défaut
Description
L’algorithme trie le trafic entrant à chaque intervalle dans des
classes. Une fois que la classe est déterminée, la valeur InterruptThrottleRate est ajustée afin de correspondre au mieux au
type de trafic. Trois classes sont définies : "Bulk traffic" (Trafic
en vrac), pour les grandes quantités de paquets de taille
normale ; "Low latency" (Faible latence), pour les trafics de
petite quantité et/ou un pourcentage important de petits
paquets ; et "Lowest latency" (Plus faible latence), pour les trafics composés presque exclusivement de petits paquets et les
très faibles trafics.
En mode dynamique conservatif, la valeur InterruptThrottleRate est définie sur 4000 pour un trafic tombant
dans la classe "Bulk traffic" (Trafic en vrac). Si le trafic appartient à la classe « Low latency » (Faible latence) ou « Lowest
latency » (Plus faible latence), la valeur InterruptThrottleRate
est augmentée progressivement jusqu'à 20 000. Ce mode par
défaut est adapté à la plupart des applications.
Dans les cas où une faible latence est essentielle, par
exemple dans le cas de grappes ou de grilles d'ordinateurs,
l'algorithme peut réduire encore la latence lorsque le paramètre InterruptThrottleRate est réglé sur le mode 1. Dans ce
mode, qui fonctionne comme le mode 3, InterruptThrottleRate
est augmenté progressivement jusqu'à 70 000 pour le trafic de
la classe à plus faible latence.
Lorsqu’InterruptThrottleRate est défini sur 0, toute gestion des
interruptions est désactivée, ce qui peut améliorer la latence
des petits paquets, mais n’est généralement pas adapté à un
trafic important.
REMARQUES :
l
Si le pilote ixgbevf est chargé avec les paramètres par défaut et que des cartes multiples sont utilisées.
La limitation de requêtes d’interruption dynamique ne s’applique qu’aux cartes fonctionnant en mode
MSI ou hérité, en utilisant une file d’attente de réception unique.
l
Si le pilote igbvf est chargé avec les paramètres par défaut et que des cartes multiples sont utilisées
simultanément, le taux d’utilisation du processeur peut augmenter de façon non linéaire. Pour limiter le
taux d’utilisation du processeur sans affecter la performance globale, chargez le pilote de la manière
suivante :
modprobe igbvf InterruptThrottleRate=3000,3000,3000
Cela définit le paramètre InterruptThrottleRate sur 3000 interruptions/s pour la première, deuxième et troisième instance du pilote. La plage comprise entre 2000 à 3000 interruptions par seconde fonctionne sur
la plupart des systèmes et est un bon point de départ, mais la valeur optimale dépend toutefois de la
plate-forme. Si le taux d’utilisation du processeur n’est pas un problème, utilisez les paramètres par
défaut du pilote.
Configurations supplémentaires
Configuration du pilote sur des distributions différentes
La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la
distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de
fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportezvous à votre documentation de distribution. Si, lors de ce processus, vous êtes invité à fournir le nom du pilote ou du
module, le nom du pilote de base Linux pour la famille de cartes Intel Gigabit est igbvf.
Par exemple, si vous installez le pilote igbvf pour deux cartes Intel Gigabit (eth0 et eth1) et que vous définissez le
mode d’interruption sur MSI-X et MSI, ajoutez ce qui suit à modules.conf ou /etc/modprobe.conf :
alias eth0 igbvf
alias eth1 igbvf
options igbvf InterruptThrottleRate=3,1
Affichage des messages de liaison
Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de
voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce
qui suit :
dmesg -n 8
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages.
Trames Jumbo
La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut
de 1500 octets. Utilisez la commande ifconfig pour augmenter la valeur MTU. Par exemple :
ifconfig eth<x> mtu 9000 up
Ce paramètre n’est pas sauvegardé lors des redémarrages. Ce paramètre peut être rendu permanent en ajoutant MTU
= 9000 MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x>, dans les distributions Red Hat.
Les autres distributions peuvent stocker ce paramètre à un autre emplacement.
REMARQUES :
l
L’utilisation de trames Jumbo à des vitesses de 10 ou 100 Mbit/s pourrait résulter en une baisse des performances ou une perte de liaison.
l
Pour activer les trames Jumbo, définissez une taille MTU supérieure à 1 500 dans l’interface.
l
La taille maximale des trames Jumbo est 9234 octets, avec une taille MTU correspondante de 9216
octets.
ethtool
Le pilote utilise l'interface ethtool pour la configuration et les diagnostics de pilote, ainsi que pour l'affichage des informations statistiques. La version 3 de ethtool ou une version ultérieure est requise pour cette fonctionnalité, mais nous
vous recommandons fortement de télécharger la dernière version à l'adresse : http://www.kernel.org/pub/software/network/ethtool/.
Problèmes connus
Compilation du pilote
Lorsque vous essayez de compiler le pilote en exécutant la commande ’make install’, l’erreur suivante peut se
produire :
"Linux kernel source not configured - missing version.h" (source de noyau Linux non configurée - fichier
version.h manquant)
Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source du noyau Linux et en
entrant :
# make include/linux/version.h
Plusieurs interfaces sur le même réseau de diffusion Ethernet
En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le
même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces
Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non
équilibré.
Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant :
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
(fonctionne uniquement avec des noyaux de version supérieure à 2.4.5).
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Toutefois, pour rendre la modification
de configuration permanente, utilisez l’une des méthodes suivantes :
l
Ajoutez la ligne suivante à /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
l
Installez les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un
commutateur partitionné en réseaux VLAN).
N’utilisez pas LRO lors de l’acheminement de paquets
En raison d’un problème de compatibilité générale entre LRO et l’acheminement, n’utilisez pas LRO lors de
l’acheminement de paquets.
Problèmes MSI-X avec des noyaux de versions 2.6.19 à 2.6.21 (compris)
Des paniques et instabilités du noyau peuvent être observées sur le matériel MSI-X si vous utilisez irqbalance avec
des noyaux de versions 2.6.19 et 2.6.21. Si de tels problèmes surviennent, vous pouvez désactiver le démon irqbalance ou mettre votre noyau à niveau.
Erreurs d’allocation de la page de réception
Des erreurs d’allocation d’ordre d’échec:0 erreur peut se produire en cas de stress avec les noyaux 2.6.25 et de versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress.
Le déchargement du pilote PF entraîne le redémarrage du système quand VM est en
cours d’exécution et VF est chargé sur le VM
Ne déchargez pas le pilote PF (igb) si les VF sont attribués aux hôtes.
L’hôte peut redémarrer après la suppression de PF lorsque des VF sont actives sur
l’invité
Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives.
Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage spontané du système.
Pilote Linux* ixgbe pour cartes réseau Intel® 10 Gigabit pour
serveurs
Présentation des pilotes ixgbe
ATTENTION : par défaut, le pilote ixgbe est conforme à la fonctionnalité Large Receive Offload (LRO) (Important délestage reçu) lorsqu’elle est activée. Cette option permet l’utilisation la plus réduite du processeur pour
la réception mais est incompatible avec le transfert et le pontage de l’acheminement/ip. Si l’activation du transfert et du pontage ip est requise, il est nécessaire de désactiver LRO en utilisant les options de temps de compilation comme indiqué dans la section LRO plus bas dans cette section. La non désactivation de LRO alors
que le transfert et le pontage ip sont activés peut entraîner un faible débit ou même une panique du noyau.
REMARQUE : ne déchargez pas le pilote d'un port si une fonction virtuelle (VF) avec une machine virtuelle
(VM) lui est associée. Autrement, le port semblerait se bloquer. L'exécution de la commande est terminée
lorsque la machine virtuelle s'arrête, ou libère la VF.
REMARQUE : dans un environnement virtualisé, la fonction virtuelle peut être sujette à un comportement malveillant sur les cartes réseau Intel® pour serveurs prenant en charge SR-IOV. Les deux trames de couche générées par le logiciel, comme IEEE 802.3x (contrôle de flux de liaison), IEEE 802.1Qbb (contrôle de flux basé sur
des priorités) et les autres trames de ce type, ne sont pas attendues et peuvent ralentir le trafic entre l'hôte et le
commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous les ports
compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames inattendues et potentiellement malveillantes.
Ce fichier décrit le pilote de base Linux* pour cartes réseau 10 Gigabit des Connexions réseau Intel®. Ce pilote prend
en charge les noyaux 2.6.x et versions ultérieures, ainsi que tous les systèmes pris en charge par Linux, y compris
X86_64, i686 et PPC.
Ce pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs à appliquer à
la source du noyau pour permettre la liaison statique du pilote. Une version du pilote peut être déjà incluse dans votre
distribution ou noyau.
Les fonctionnalités suivantes sont maintenant disponibles pour les noyaux pris en charge :
l
Réseaux VLAN natifs
l
Channel Bonding (agrégation)
l
Délestage de réception générique
l
Pontage de centre de données
L’agrégation des cartes est à présent mise en œuvre en utilisant le module Channel Bonding natif de Linux. Cette fonctionnalité est incluse dans les noyaux Linux pris en charge. De la documentation concernant la fonctionnalité Channel
Bonding est disponible dans la source du noyau Linux : /documentation/networking/bonding.txt
Utilisez ethtool, lspci ou ifconfig pour obtenir des informations sur le pilote. Les instructions de mise à jour d’ethtool se
trouvent dans la section Configurations supplémentaires plus loin sur cette page.
Appareils pris en charge par le pilote de base ixgbe pour Linux
Les cartes réseau Intel suivantes sont compatibles avec le pilote Linux de cette version :
l
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
l
Carte réseau Ethernet Intel® 10G 2P X540-t
l
Carte réseau Ethernet Intel® 10G 2P X550-t
l
Carte réseau Ethernet Intel® 10G 4P X550 rNDC
l
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
l
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC
l
Carte Ethernet Intel® 10G 4P X520/I350 rNDC
l
Carte réseau Ethernet Intel® 10G 2P X520-k bNDC
l
Carte réseau Ethernet Intel® 10G 2P X520
l
Carte réseau Ethernet Intel® 10G X520 LOM
Périphériques SFP+ avec câble optique enfichable
REMARQUE : Pour les cartes à fibre optique SFP+ avec chipset 92500, l’utilisation de "ifconfig down" désactive le laser. "ifconfig up" active le laser.
Voir Appareils SFP+ et QSFP+ pour plus d'informations.
Compilation et installation
Il existe trois méthodes d’installation du pilote Linux :
l
Installation à partir du code source
l
Installer à l’aide de RPM KMP
l
Installation à partir d’un fichier RPM KMOD
Installation à partir du code source
Pour compiler un package RPM* binaire pour ce pilote, exécutez 'rpmbuild -tb <nomdefichier.tar.gz>'. Remplacez
<nomdefichier.tar.gz> par le nom de fichier spécifique du pilote.
REMARQUES :
l
Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution
CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de
recompiler le noyau, redémarrez l’ordinateur maintenant.
l
La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat.
1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez ’/home/username/ixgbe’ ou ’/usr/local/src/ixgbe’.
2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version
du paquetage du pilote :
tar zxf ixgbe-<x.x.x>.tar.gz
3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier
du pilote :
cd ixgbe-<x.x.x>/src/
4. Compilez le module du pilote :
make install
Les instructions binaires sont installées comme suit : /lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/ixgbe/ixgbe.ko
Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le
fichier tar du pilote.
REMARQUE : IXGBE_NO_LRO est un indicateur de temps de compilation. L’utilisateur peut l’activer au
moment de la compilation pour supprimer la prise en charge LRO du pilote. L’indicateur est utilisé en
ajoutant CFLAGS_EXTRA=-"DIXGBE_NO_LRO" au fichier make lorsqu’il est compilé. Par exemple :
make CFLAGS_EXTRA="-DIXGBE_NO_LRO" install
5. Installez le module à l’aide de la commande modprobe pour le noyau 2.6.x :
modprobe ixgbe <paramètre>=<valeur>
Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes IGB sont supprimés du noyau,
avant de charger le nouveau module :
rmmod ixgbe; modprobe ixgbe
6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au
numéro d’interface :
ifconfig eth<x> <adresse_IP> netmask <masque réseau>
7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du
même sous-réseau que l’interface soumis au test :
ping <adresse_IP>
Installer à l’aide de RPM KMP
REMARQUE : KMP est pris en charge uniquement sur SLES11 et ses versions ultérieures.
Les RPM KMP mettent à jour les RPM ixgbe actuellement installés sur le système. Ces mises à jour sont fournies par
SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas.
Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus
est :
intel-<nom du composant>-<version du composant>.<type d’arch>.rpm
Par exemple, intel-ixgbe-1.3.8.6-1.x86_64.rpm : ixgbe est le nom du composant ; 1.3.8.6-1 est la version du
composant ; et x86_64 est le type d'architecture.
Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM
KMP inclus est :
intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type
d’arch>.rpm
Par exemple, intel-ixgbe-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm : ixgbe est le nom du composant ; default est
le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64 est le type
d'architecture.
Pour installer le RPM KMP, tapez les deux commandes suivantes :
rpm -i <nom de fichier rpm>
rpm -i <nom de fichier kmp rpm>
Par exemple, pour installer le package RPM KMP ixgbe, tapez ce qui suit :
rpm -i intel-ixgbe-1.3.8.6-1.x86_64,rpm
rpm -i intel-ixgbe-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Installation à partir d’un fichier RPM KMOD
Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers
RPM inclus est :
kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm
Par exemple, kmod-ixgbe-2.3.4-1.x86_64.rpm :
l
ixgbe est le nom du pilote
l
2.3.4 est la version
l
x86_64 est le type d'architecture
Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante :
rpm -i <nom de fichier rpm>
Par exemple, pour installer le package RPM KMOD ixgbe depuis RHEL 6.4, tapez ce qui suit :
rpm -i kmod-ixgbe-2.3.4-1.x86_64.rpm
Paramètres de ligne de commande
Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de
commande avec la commande modprobe et en utilisant la syntaxe suivante :
modprobe ixgbe [<option>=<VAL1>,<VAL2>,...]
Par exemple :
modprobe ixgbe InterruptThrottleRate=16000,16000
La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire.
Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe :
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
RSS
0 - 16
La mise à l’échelle côté réception (Receive Side Scaling) permet l’existence de plusieurs files d’attente pour la réception
des données.
1
0 = le nombre de files de descripteurs prend la valeur la plus
basse entre 16 ou le nombre de CPU.
1 - 16 = le nombre de files de descripteurs prend la valeur indiquée entre 1 et 16.
RSS affecte également le nombre des files d’attente de transmission affectées sur les noyaux 2.6.23 et plus récents en définissant la valeur CONFIG_NET_MULTIQUEUE dans le fichier
.config du noyau. CONFIG_NETDEVICES_MULTIQUEUE est
pris en charge uniquement sur les noyaux 2.6.23 à 2.6.26.
Pour les noyaux 2.6.27 ou ultérieurs, d'autres options permettent d'activer les files d'attente multiples.
REMARQUE : le paramètre RSS n’a aucune incidence
sur les cartes avec chipset 82599 à moins que le paramètre FdirMode ne soit utilisé en même temps pour
désactiver le Flow Director. Reportez-vous à la section
Intel® Ethernet Flow Director pour plus de détails.
Multiqueue
0, 1
1
Prise en charge de plusieurs files d’attente.
0 = Désactive la prise en charge de plusieurs files d’attente.
1 = Active la prise en charge de plusieurs files d’attente (condition préalable pour RSS).
Direct Cache
Access (DCA)
0, 1
0 = Désactive la prise en charge DCA dans le pilote
1 = Active la prise en charge DCA dans le pilote
Si le pilote est activé pour le DCA, ce paramètre permet de
contrôler le temps de chargement de la fonction.
REMARQUE : DCA n'est pas pris en charge sur les
cartes réseau reposant sur le contrôleur X550.
IntMode
0-2
2
Le mode d’interruption contrôle le contrôle du temps de chargement autorisé sur le type d’interruption pour lequel le pilote
est enregistré. MSI-X est exigé pour la prise en charge de plusieurs files d’attente et certains noyaux et combinaisons
d’options de configurations de noyau forceront un niveau de
prise en charge inférieur des interruptions. ’cat /proc/interrupts’
affiche différentes valeurs pour chaque type d’interruption.
0 = interruption héritée
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
1 = MSI
2 = MSIX
InterruptThrottleRate 956 - 488, 281
(0=désactivé,
1=dynamique)
1
L'ITR (Interrupt Throttle Rate) contrôle le nombre d'interruptions
que chaque vecteur d'interruption peut générer par seconde.
L’accroissement de la valeur ITR diminue la latence au
dépend de l’utilisation du processeur, bien que cela puisse
accélérer le débit dans certaines circonstances.
0 = Lorsqu’InterruptThrottleRate est défini sur 0, toute gestion
des interruptions est désactivée, ce qui peut améliorer la
latence des petits paquets. Cependant, cette valeur n'est généralement pas adaptée à un trafic important, en raison de
l'utilisation plus importante du processeur lorsque le nombre
des interruptions est plus élevé. REMARQUES : pour les cartes
réseau reposant sur les contrôleurs 82599, X540 et X550, la
désactivation d'InterruptThrottleRate entraînera également la
désactivation de HW RSC par le pilote. - Pour les cartes
réseau reposant sur le contrôleur 82598, la désactivation
d'InterruptThrottleRate entraînera également la désactivation
du délestage des grandes réceptions (Large Receive Offloads,
LRO).
1 = En affectant au paramètre InterruptThrottleRate la valeur
Mode dynamique, la carte réseau tente de modérer les interruptions par vecteur tout en maintenant une très faible latence.
Cela peut parfois entraîner une utilisation de l'UC plus élevée.
Si vous envisagez de déployer le pilote igb dans un environnement sensible à la latence, ce paramètre doit être pris en
considération.
<min_ITR>-<max_ITR> = 100-100000
En affectant au paramètre InterruptThrottleRate une valeur
supérieure ou égale à <min_ITR>, la carte réseau est programmée pour envoyer ce nombre maximum d'interruptions
par seconde, même s'il y a plus de paquets entrants. Cela
réduit la charge d'interruptions sur le système et peut diminuer
l'utilisation de l'unité centrale en cas de surcharge, mais augmente la latence car les paquets ne sont pas traités aussi rapidement.
LLI
Les interruptions à faible latence permettent la création immédiate d’une interruption lors du traitement de paquets de réception correspondant à certains critères définis par les
paramètres ci-dessous. Les paramètres LLI ne sont pas activés
lorsque les interruptions héritées sont utilisées. MSI ou MSI-X
doivent être utilisés (voir cat /proc/interrupts) pour utiliser les
LLI avec succès.
REMARQUE : LLI n'est pas pris en charge sur les cartes
réseau reposant sur le contrôleur X550.
LLIPort
0 - 65535
0 (désactivé)
LLI est configuré avec le paramètre de ligne de commande
LLIPort, qui spécifie quel TCP doit générer les interruptions de
faible latence.
Par exemple, l’utilisation de LLIPort-80 provoquerait l’envoi par
la carte d’une interruption immédiate dès réception d’un
paquet envoyé au port TCP 80 de la machine locale.
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
ATTENTION : l’activation de LLI peut provoquer un
nombre excessif d’interruptions/seconde avec pour
conséquence des problèmes au niveau du système
et, dans certains cas, une panique du noyau.
LLI n'est pas pris en charge sur les cartes réseau reposant sur le contrôleur X550.
LLIPush
0-1
0 (désactivé)
LLIPush peut être paramétré sur activé ou désactivé (par
défaut). Cette option est très efficace dans un environnement
comportant de nombreuses petites transactions.
REMARQUES :
l
l’activation de LLIPush peut permettre une
attaque par déni de service.
l
LLI n'est pas pris en charge sur les cartes réseau
reposant sur le contrôleur X550.
LLISize
0 - 1500
0 (désactivé)
LLISize provoque une interruption immédiate si la carte reçoit
un paquet plus petit que la taille spécifiée.
REMARQUE : LLI n'est pas pris en charge sur les cartes
réseau reposant sur le contrôleur X550.
LLIEType
LLIVLANP
Contrôle de flux
0 - x8FFF
0-7
0 (désactivé)
Type de protocole Ethernet à interruption de faible latence.
0 (désactivé)
Interruption à faible latence sur seuil de priorité de VLAN.
REMARQUE : LLI n'est pas pris en charge sur les cartes
réseau reposant sur le contrôleur X550.
REMARQUE : LLI n'est pas pris en charge sur les cartes
réseau reposant sur le contrôleur X550.
Le contrôle du flux est activé par défaut. Pour désactiver un partenaire de liaison capable de contrôle de flux, utilisez ethtool :
ethtool -A eth? autoneg off rx off tx
off
REMARQUE : pour les cartes de fond de panier 82598
entrant en mode 1 Gbit/s, le comportement par défaut du
contrôle de flux passe à désactivé. Sur ces périphériques, le contrôle de flux en mode 1 Gbit/s peut provoquer des problèmes de transmission.
Intel® Ethernet Flow
Director
REMARQUE : les paramètres de Flow Director ne sont
pris en charge que sur les noyaux de version 2.6.30 ou
plus récente. Sur ces périphériques, le contrôle de flux
en mode 1 Gbit/s peut provoquer des problèmes de
transmission.
Le Flow Director exécute les tâches suivantes :
l
Dirige les paquets reçus vers différentes files d'attente
en fonction de leur flux.
l
Permet d'exercer un contrôle précis sur l'acheminement
d'un flux dans la plate-forme.
l
Associe les flux et les cœurs de processeur pour
l'affinité de flux.
l
Prend en charge plusieurs paramètres pour la clas-
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
sification des flux flexibles et l'équilibrage de charge
(en mode SFP uniquement).
Un script inclus (set_irq_affinity) automatise la détermination
des affinités des interruptions en fonction de l'UC.
Le masque de Flow Director a le fonctionnement inverse du
masque de sous-réseau. Dans la commande suivante :
#ethtool -N eth11 flow-type ip4 src-ip 172.4.1.2
m 255.0.0.0 dst-ip 172.21.1.1 m 255.128.0.0
action 31
La valeur src-ip écrite dans le filtre sera 0.4.1.2, et non
172.0.0.0 comme on pouvait s'y attendre. De même, la valeur
dst-ip écrite dans le filtre sera 0.21.1.1, et non 172.0.0.0.
Autres commandes ethtool :
Pour activer Flow Director
ethtool -K ethX ntuple on
Pour ajouter un filtre, utilisez le commutateur -U
ethtool -U ethX flow-type
tcp4 src-ip 192.168.0.100
action 1
Pour afficher la liste des filtres existants
ethtool -u ethX
Perfect Filter :
Perfect filter est une interface permettant de charger la table de
filtres qui dirige l’ensemble du flux dans la file d’attente queue_
0, à moins qu’une autre file d’attente ne soit spécifiée à l’aide
de la commande "action". Dans ce cas, le flux correspondant
aux critères de filtrage sera dirigé vers la file d’attente appropriée.
Virtual Function (VF) est prise en charge via le champ de données utilisateur. Vous devez mettre à jour la version d’ethtool
conçue pour le noyau 2.6.40. Perfect Filter est pris en charge
par tous les noyaux 2.6.30 et de version ultérieure. Les règles
peuvent être effacées à partir du tableau. Sélectionnez "ethtool
-U ethX delete N" (ethtool -U ethX efface N), N étant le numéro
de règle à effacer.
REMARQUE : les filtres Flow Director Perfect fonctionnent en mode file d’attente unique, quand SR-IOV
est activé, ou quand DCB est activé.
Si la file d’attente est définie sur -1, le filtre abandonnera les
paquets correspondants.
Pour prendre en compte les correspondances et manquements du filtre, deux statistiques existent dans ethtool : fdir_
match and fdir_miss. De plus, rx_queue_N_packets affiche le
nombre de paquets traités par la file d’attente Nth.
REMARQUES :
l
Receive Packet Steering (RPS) et Receive Flow
Steering (RFS) ne sont pas compatibles avec
Flow Director. Si Flow Director est activé, ils
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
l
l
seront désactivés.
Pour les masques de réseau local virtuel, seuls
4 masques sont pris en charge.
Après avoir défini une règle, les champs et les
masques doivent être identiques (si les masques
sont spécifiés).
Prise en charge d’UDP RSS
Cette fonction ajoute un commutateur ON/OFF pour le
hachage sur certains types de débit. Vous ne pouvez activer
qu’UDP. Le paramètre par défaut est désélectionné. Le
hachage d’activation/désactivation n’est pris en charge que sur
les ports pour UDP over IPv4 (udp4) ou IPv6 (udp6).
REMARQUE : les paquets fragmentés peuvent arriver
déclassés quand la prise en charge RSS UDP est configurée.
Commandes et options ethtool prises en charge
-n --show-nfc
Récupère les configurations de classification de débit de
réseau reçues.
rx-flow-hash
tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6
Récupère les options de hachage pour le type de trafic de
réseau spécifié.
-N --config-nfc
Configure la classification du débit de réseau reçu.
rx-flow-hash
tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6
m|v|t|s|d|f|n|r...
Configure les options de hachage pour le type de trafic de
réseau spécifié.
udp4
UDP sur IPv4
udp6
UDP sur IPv6
f
hachage sur les octets 0 et 1 de l’en-tête Couche 4 du paquet
rx.
n
hachage sur les octets 2 et 3 de l’en-tête Couche 4 du paquet
rx.
Ce qui suit est un exemple utilisant udp4 (UDP over IPv4) :
Pour inclure les numéros de port UDP dans un hachage RSS,
exécutez :
ethtool -N eth1 rx-flow-hash udp4 sdfn
Pour exclure les numéros de port UDP d’un hachage RSS,
exécutez :
ethtool -N eth1 rx-flow-hash udp4 sd
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
Pour afficher la configuration actuelle du hachage UDP,
exécutez :
ethtool -n eth1 rx-flow-hash udp4
Les résultats de cet appel, si le hachage UDP est activé, sont
les suivants :
Les débits UDP over IPv4 utilisent ces champs
pour calculer le débit de hachage :
IP SA
IP DA
L4 bytes 0 & 1 [TCP/UDP src port]
L4 bytes 2 & 3 [TCP/UDP dst port]
Les résultats avec un hachage UDP désactivé :
Les débits UDP over IPv4 utilisent ces champs
pour calculer le débit de hachage :
IP SA
IP DA
Les deux paramètres suivants affectent Flow Director : FdirPballoc et AtrSampleRate.
FdirPballoc
0-2
0 (64k)
Taille de tampon de paquet allouée par le flux.
0 = 64k
1 = 128k
2 = 256k
AtrSampleRate
1 - 100
20
Taux d’échantillonnage logiciel des paquets de transmission
ATR. Par exemple, lorsque ce paramètre est défini sur 20, un
échantillon est pris tous les 20 paquets pour déterminer si le
paquet va créer un nouveau flux.
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
max_vfs
1 - 63
Ce paramètre assure la prise en charge SR-IOV. Il fait générer
au pilote jusqu’à max_vfs de fonction virtuelle.
0
Si la valeur est supérieure à 0, il force la valeur du paramètre
VMDq sur 1 ou plus.
REMARQUE : lorsque les modes SR-IOV ou VMDq sont
activés, le filtrage de VLAN matériel et la suppression/insertion de balises VLAN restent activés. Supprimez l'ancien filtre de VLAN avant d'ajouter le
nouveau filtre de VLAN. Par exemple :
ip link set eth0 vf 0 vlan 100
// définir vlan 100 pour VF 0
ip link set eth0 vf 0 vlan 0 //
supprimer vlan 100
ip link set eth0 vf 0 vlan 200
// définir un nouveau vlan 200
pour VF 0
Ce paramètre est utilisé uniquement sur un noyau 3.7.x
et inférieur. Sur un noyau 3.8.x et supérieur, utilisez
sysfs pour activer les VF. Par ailleurs, ce paramètre est
uniquement utilisé sur la version 6.6 et supérieure pour
les distributions Red Hat. Pour la version 6.7 et supérieure, utilisez sysfs. Par exemple :
#echo $num_vf_enabled > /sys/class/net/$dev/device/sriov_numvfs //enable
VFs
#echo 0 > /sys/class/net/$dev/device/sriov_
numvfs //disable VFs
Les paramètres du pilote sont référencés par position. En
conséquence, si vous avez une carte 2 ports basée sur le chipset 82599 et que vous voulez N fonctions virtuelles par port,
vous devez spécifier un nombre pour chaque port, chaque
paramètre étant séparé par une virgule.
Par exemple : modprobe ixgbe max_vfs=63,63
REMARQUE : si des cartes 82598 et 82599 sont installées sur le même ordinateur, vous devez faire attention lorsque vous chargez le pilote avec les paramètres.
En fonction de la configuration du système, du nombre
de connecteurs, etc., il est impossible de prédire dans
tous les cas où se trouveront les positions sur la ligne
de commande et l’utilisateur devra spécifier zéro aux
positions occupées par un port 82598.
Avec le noyau 3.6, le pilote prend en charge l’utilisation simultanée de max_vfs et des fonctions DCB, dans les limites des
contraintes détaillées ci-dessous. Avant le noyau 3.6, le pilote
ne prenait pas en charge l’exploitation simultanée de max_vfs
> 0 et des fonctions DCB (multiplicité des classes de trafic utilisant Priority Flow Control et Extended Transmission Selection).
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
Lorsque DCB est activé, le trafic réseau est envoyé et reçu par
l’intermédiaire de plusieurs classes de trafic (tampons de
paquets dans la carte d’interface réseau). Le trafic est associé
à une classe spécifique en fonction de sa priorité, laquelle a
une valeur comprise entre 0 et 7 qui est utilisée dans la balise
VLAN. Lorsque SR-IOV n’est pas activé, chaque classe de trafic est associée à un ensemble de paires de files de descripteurs RX/TX. Le nombre de paires de files d’attente pour
une classe de trafic donnée dépend de la configuration du
matériel. Lorsque SR-IOV est activé, les paires de files de descripteurs sont regroupées en pools. À la fonction physique (PF)
et à chaque fonction virtuelle (VF) est alloué un pool de paires
de files de descripteurs RX/TX. Lorsque plusieurs classes de
trafic sont configurées (cas, par exemple, lorsque DCB est
activé), chaque pool contient une paire de files provenant de
chaque classe de trafic. Lorsqu’une seule classe de trafic est
configurée sur le matériel, les pools contiennent plusieurs
paires de files provenant de cette classe unique.
Le nombre de VF pouvant être allouées dépend du nombre de
classes de trafic pouvant être activées. Le nombre configurable
de classes de trafic pour chaque VF activée est le suivant :
0 - 15 VF = jusqu’à 8 classes de trafic, selon ce
que permet le périphérique
16 - 31 VF = jusqu’à 4 classes de trafic
32 - 63 = 1 classe de trafic
Lorsque des VF sont configurées, un seul pool est alloué à la
PF. Le PF prend en charge les fonctionnalités DCB avec cette
contrainte que chaque classe de trafic n’utilisera qu’une seule
paire de files. Lorsque zéro VF est configurée, le PF peut
prendre en charge plusieurs paires de files par classe de trafic.
L2LBen
0-1
LRO
0-1
1 (activé)
Ce paramètre contrôle le commutateur interne (bouclage L2
entre pf et vf). Le commutateur est activé par défaut.
0=désactivé, 1=activé
Large Receive Offload (LRO) est une technique permettant
d’accroître le débit entrant de connexions réseau large bande
en réduisant la charge du processeur. Cette technique
consiste à agréger plusieurs paquets entrants d’un flux unique
dans un tampon de grande taille avant de les faire monter
dans la pile réseau, réduisant ainsi le nombre des paquets
devant être traités. LRO combine plusieurs trames Ethernet en
une seule réception dans la pile, ce qui décroit potentiellement
l’utilisation du processeur pour les réceptions.
Cette technique est également appelée coalition matérielle
des paquets entrants (HW RSC). Les cartes réseau reposant
sur les contrôleurs 82599, X540 et X550 prennent en charge
HW RSC. Le paramètre LRO contrôle l'activation de HW RSC.
Vous pouvez vérifier que le pilote utilise LRO en consultant ces
compteurs dans ethtool :
l
hw_rsc_aggregated - compte le nombre total des
paquets combinés
l
hw_rsc_flushed - compte le nombre de paquets vidés
Nom du paramètre
Plages/valeurs Valeur par
valides
défaut
Description
du LRO
REMARQUE : IPv6 et UDP ne sont pas pris en charge
par LRO.
EEE
0-1
0 = Désactive la fonctionnalité EEE
1 = Active la fonctionnalité EEE
Une liaison entre les deux périphériques compatibles EEE
entraîne des paquets de données périodiques suivis de
période en mode veille. Ce mode basse consommation inactif
(Low Power Idle, LPI) est pris en charge pour les vitesses de
liaison de 1 Gbit/s et 10 Gbit/s.
REMARQUES :
l
La prise en charge EEE nécessite une négociation automatique. Les deux partenaires de liaison doivent prendre en charge la technologie
EEE.
l
La technologie EEE n'est pas pris en charge sur
tous les périphériques réseau Ethernet Intel® ni
à toutes les vitesses de connexion.
DMAC
0, 41-10000
Ce paramètre active ou désactive la fonction de coalition DMA.
Les valeurs sont en microsecondes et définissent le compteur
interne de la fonction de coalition DMA. DMAC est disponible
sur les cartes réseau reposant sur le contrôleur Intel® X550 (et
version ultérieure).
Le DMA (Direct Memory Access) permet au périphérique de
réseau de déplacer directement les données de paquet vers la
mémoire du système, réduisant ainsi l’utilisation du processeur. Cependant, la fréquence et les intervalles aléatoires
d’arrivée de paquets ne permettent pas au système d’entrer en
mode faible consommation. La coalition DMA permet à la carte
réseau de collecter des paquets avant de démarrer un événement DMA. La latence de réseau peut augmenter, ainsi que
les chances que le système entre en mode faible consommation.
L'activation de la coalition DMA peut permettre d'économiser
de l'énergie avec le noyau 2.6.32 et version ultérieure. La coalition DMA doit être activée sur tous les ports actifs afin
d'économiser la puissance de la plate-forme.
La fonction InterruptThrottleRate (ITR) doit être définie en
mode dynamique. Quand ITR=0, la coalition DMA est automatiquement désactivée.
La meilleure configuration de votre plateforme est expliquée
dans un document disponible sur le site Web Intel.
MDD
0-1
1 (activé)
Le paramètre MDD (Malicious Driver Detection) n'est approprié
que pour les périphériques fonctionnant en mode SR-IOV.
Quand ce paramètre est sélectionné, le pilote détecte un pilote
VF malveillant et désactive ses files d’attente TX/RX jusqu’à ce
qu’une réinitialisation du pilote VF se produise.
Configurations supplémentaires
Configuration du pilote sur des distributions différentes
La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la
distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de
fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportezvous à votre documentation de distribution. Si, lors de ce processus, le nom du pilote ou du module vous est demandé,
le nom du pilote de base Linux pour la famille de cartes Intel® 10 Gigabit PCI Express est ixgbe.
Affichage des messages de liaison
Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de
voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce
qui suit :
dmesg -n 8
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages.
Trames Jumbo
La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut
de 1500 octets. La valeur MTU maximale est 9 710. Utilisez la commande ifconfig pour augmenter la valeur MTU.
Entrez, par exemple, la commande suivante, où <x> est le numéro d’interface :
ifconfig ethx mtu 9000 up
Ce paramètre n’est pas sauvegardé lors des redémarrages. La modification du paramètre peut être permanente en
ajoutant MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x> pour RHEL ou au fichier
/etc/sysconfig/network/<config_file> pour SLES.
Le paramètre MTU maximal pour les trames Jumbo est 9 710. Cette valeur correspond à la taille maximale des trames
Jumbo, qui est de 9 728. Ce pilote tentera d'utiliser des tampons de tailles différentes pour recevoir chaque paquet
Jumbo. Cela aide à éviter les problèmes de famine de tampon lors de l’allocation des paquets de réception.
Pour les connexions réseau 82599, si vous activez les trames Jumbo dans une fonction virtuelle (VF), les trames
Jumbo doivent d'abord être activées dans la fonction physique (PF). Le paramètre MTU VF ne peut pas être supérieur
au paramètre MTU PF.
ethtool
Le pilote utilise l’interface ethtool pour la configuration et du pilote et les diagnostics, ainsi que pour afficher les informations statistiques. La toute dernière version d’ethtool est nécessaire pour cette fonctionnalité.
La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel.
NAPI
Le NAPI (mode d’interrogation de réception) est pris en charge par le pilote ixgbe.
Consultez la page https://wiki.linuxfoundation.org/networking/napi pour en savoir plus sur le NAPI.
Large Receive Offload (LRO)
Large Receive Offload (LRO) est une technique permettant d’accroître le débit entrant de connexions réseau large
bande en réduisant la charge du processeur. Cette technique consiste à agréger plusieurs paquets entrants d’un flux
unique dans un tampon de grande taille avant de les faire monter dans la pile réseau, réduisant ainsi le nombre des
paquets devant être traités. LRO combine plusieurs trames Ethernet en une seule réception dans la pile, ce qui décroit
potentiellement l’utilisation du processeur pour les réceptions.
IXGBE_NO_LRO est un indicateur de temps de compilation. L’utilisateur peut l’activer au moment de la compilation
pour supprimer la prise en charge LRO du pilote. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIXGBE_NO_
LRO" au fichier make lorsqu’il est compilé.
make CFLAGS_EXTRA="-DIXGBE_NO_LRO" install
Vous pouvez vérifier que le pilote utilise LRO en consultant ces compteurs dans ethtool :
l
lro_flushed - le nombre total de réceptions utilisant LRO.
l
lro_coal - compte le nombre total de paquets Ethernet ayant été combinés.
HW RSC (Coalition matérielle des paquets entrants)
Les cartes basées sur le chipset 82599 prennent en charge la coalition matérielle des paquets entrants (RSC) qui peut
fusionner plusieurs trames du même flux IPv4 TCP/IP en une structure unique pouvant s’étendre sur plusieurs descripteurs. Cette fonctionnalité fonctionne de manière similaire à la technique LRO logicielle. Par défaut, HW RSC est
activé et la technique SW LRO ne peut pas être utilisée sur les cartes 82599 à moins que HW RSC soit désactivé.
IXGBE_NO_HW_RSC est un indicateur de temps de compilation pouvant être activé au moment de la compilation
pour supprimer la prise en charge HW RSC du pilote. L’indicateur est utilisé en ajoutant CFLAGS_EXTRA="-DIXGBE_
NO_HW_RSC" au fichier make lorsqu’il est compilé.
make CFLAGS_EXTRA="-DIXGBE_NO_HW_RSC" install
Vous pouvez vérifier que le pilote utilise HW RSC en consultant les compteurs dans ethtool :
hw_rsc_count - compte le nombre total de paquets Ethernet ayant été combinés.
rx_dropped_backlog
En mode non Napi (ou Interruption), ce compteur indique que la pile ignore des paquets. Il existe un paramètre
réglable dans la pile permettant de régler la taille de la file d’attente. Nous vous recommandons d’augmenter le paramètre netdev_max_backlog si la valeur du compteur s’élève.
# sysctl -a |grep netdev_max_backlog
net.core.netdev_max_backlog = 1000
# sysctl -e net.core.netdev_max_backlog=10000
net.core.netdev_max_backlog = 10000
Contrôle de flux
Le contrôle de flux est désactivé par défaut. Pour l’activer, utilisez ethtool :
ethtool -A eth? autoneg off rx on tx on
REMARQUE : vous devez disposer d’un partenaire de liaison capable de contrôle de flux.
Fonction anti-arnaque MAC et VLAN
Quand un pilote malveillant tente d’envoyer un paquet malveillant, il est rejeté par le matériel et n’est pas transmis.
Une interruption est envoyée au pilote PF pour signaler la tentative d’intrusion malveillante. Quand un paquet malveillant est détecté, le pilote PF envoie le message suivant au journal du système (affiché avec la commande
"dmesg") :
ixgbe ethx: ixgbe_spoof_check: n spoofed packets detected
Quand x=PF interface# et n=VF ayant tenté l’intrusion malveillante.
REMARQUE : cette fonctionnalité peut être désactivée pour une fonction virtuelle (VF) spécifique.
Prise en charge d’UDP RSS
Cette fonction ajoute un commutateur ON/OFF pour le hachage sur certains types de débit. Le paramètre par défaut est
désélectionné. REMARQUE : les paquets fragmentés peuvent arriver déclassés quand la prise en charge RSS UDP
est configurée.
Commandes et options ethtool prises en charge
-n --show-nfc
Récupère les configurations de classification de débit de réseau reçues.
rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6
Récupère les options de hachage pour le type de trafic de réseau spécifié.
-N --config-nfc
Configure la classification du débit de réseau reçu.
rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6 m|v|t|s|d|f|n|r...
Configure les options de hachage pour le type de trafic de réseau spécifié.
udp4 UDP over IPv4
udp6 UDP over IPv6
f hachage sur les octets 0 et 1 de l’en-tête Couche 4 du paquet rx.
n hachage sur les octets 2 et 3 de l’en-tête Couche 4 du paquet rx.
Problèmes connus
REMARQUE : si la connexion réseau Ethernet Intel® ne fonctionne pas après l'installation du pilote, vérifiez
que vous avez installé le pilote correct. Les versions 2.0, 2.1 et 2.5 de la technologie d'administration active
Intel® ne sont pas prises en charge pour une utilisation avec le pilote Linux.
Changement inattendu de l'adresse MAC d'une fonction virtuelle
Si l'adresse MAC d'une fonction virtuelle n'est pas assignée à l'hôte, le pilote de la fonction virtuelle (VF) utilisera une
adresse MAC aléatoire. Cette adresse MAC aléatoire peut changer à chaque fois que le pilote VF est rechargé. Vous
pouvez attribuer une adresse MAC statique dans la machine hôte. Cette adresse MAC statique sera conservée après
le rechargement d'un pilote VF.
Problèmes MSI-X avec des noyaux de versions 2.6.19 à 2.6.21 (comprise)
Des paniques et instabilités du noyau peuvent être observées sur le matériel MSI-X si vous utilisez irqbalance avec
des noyaux de versions 2.6.19 et 2.6.21. Si de tels problèmes surviennent, vous pouvez désactiver le démon irqbalance ou mettre à niveau votre
noyau.
Incompatibilité de LRO et de iSCSI
LRO n’est pas comptatible avec la cible iSCSI ou le trafic de l’initiateur. Une situation de panique peut se produire en
cas de réception du trafic iSCSI via le pilote ixgbe alors que le délestage LRO est activé. Pour contourner ce problème,
le pilote doit être construit et installé avec :
# make CFLAGS_EXTRA=-DIXGBE_NO_LRO install
Plusieurs interfaces sur le même réseau de diffusion Ethernet
En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le
même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces
Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non
équilibré.
Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant :
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Ce processus fonctionne uniquement avec des noyaux de version supérieure à 2.4.5.
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Vous
pouvez rendre la modification de configuration permanente en ajoutant la ligne
suivante dans le fichier /etc/sysctl.conf :
net.ipv4.conf.all.arp_filter = 1
Une autre solution consiste à installer les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un commutateur partitionné
aux réseaux locaux virtuels).
Problème de perte de paquet lors du test de montée en charge UDP
Sous la montée en charge UDP de petits paquets avec le pilote ixgbe, le système peut abandonner des paquets UDP
à la suite de la saturation des tampons de sockets. Vous pouvez résoudre le problème en réglant les variables Contrôle de flux du pilote sur la valeur minimale. Vous pouvez également essayer d'augmenter les tailles de tampon par
défaut du noyau en modifiant les valeurs sous /proc/sys/net/core/rmem_default et rmem_max
Les réinitialisations du port Cisco Catalyst 4948-10GE peuvent entraîner la fermeture
des ports par le commutateur
Le matériel basé sur le contrôleur 82598 peut rétablir rapidement la liaison et, lorsqu’il est connecté à certains commutateurs, les réinitialisations rapides dans le pilote peuvent entraîner l’isolation du port du commutateur en raison
d’un "link flap". Cette condition est habituellement indiquée par un témoin de liaison de couleur jaune plutôt que verte.
Plusieurs opérations peuvent causer ce problème, telles que l’exécution répétée de commandes ethtool entraînant
une réinitialisation.
Un contournement potentiel consiste à utiliser la commande Cisco IOS "no errdisable detect cause all" depuis l’invite
de configuration globale, qui permet au commutateur de garder les interfaces en fonctionnement, sans tenir compte
des erreurs.
Erreurs d’allocation de la page de réception
Des erreurs de type 'Échec d'allocation de page. ordre : 0' peuvent se produire en cas de montée en charge avec les
noyaux 2.6.25 et de versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress.
DCB : le délestage de segmentation générique cause des problèmes d’allocation de
bande passante lorsqu’il est activé
Pour que DCB fonctionne correctement, GSO (Generic Segmentation Offload, appelé également TSO logiciel) doit être
désactivé à l'aide de ethtool. Comme le matériel prend en charge TSO (délestage matériel de la segmentation), GSO
n'est pas exécuté par défaut. L’état de GSO peut être obtenu à l’aide d’ethtool avec ethtool -k ethX. Lorsque vous utilisez des connexions réseau basées sur le chipset 82598, le pilote ixgbe prend en charge seulement 16 files d'attente
sur une plate-forme comportant plus de 16 cœurs.
En raison de limitations matérielles connues, RSS peut filtrer au maximum 16 files d’attente de réception.
Les connexions réseau reposant sur les contrôleurs 82599, X540 et X550, prennent en charge jusqu'à 64 files
d'attente.
Performances inférieures aux attentes
Certains connecteurs PCIe x8 sont en fait configurés comme des connecteurs x4. Ces connecteurs ont une bande passante insuffisante pour les débits de ligne avec des périphériques à 2 et 4 ports. En outre, si vous placez une carte
réseau compatible PCIe Generation 3 sur un connecteur PCIe Generation 2, vous n'obtiendrez pas la totalité de la
bande passante. Le pilote détecte cette situation et écrit le message suivant dans le journal système :
"PCI-Express bandwidth available for this card is not sufficient for optimal performance. For optimal performance a x8
PCI-Express slot is required" (La bande passante PCI-Express disponible pour cette carte est insuffisante pour obtenir
des performances optimales. Pour des performances optimales, un connecteur PCI-Express x8 est exigé).
Si cette erreur se produit, placez la carte dans un véritable connecteur PCIe Generation 3 x8 pour résoudre le problème.
Il est possible qu'ethtool affiche incorrectement un module SFP+ Fiber comme un
câble à fixation directe
En raison de limitations du noyau, le type de port ne peut être affiché correctement que sur les noyaux 2.6.33 ou de versions supérieures.
Sous Redhat 5.4, le système peut se bloquer en cas de fermeture de la fenêtre de SE invité, après le chargement/déchargement du pilote PF (Physical Function). Ne supprimez pas le pilote ixgbe de Dom0 pendant que les
VF (fonctions virtuelles) sont attribuées aux invités. Les VF doivent utiliser la commande xm "pci-detach" pour le
débranchement à chaud du périphérique VF de la VM à laquelle il est attribué ou alors fermer la VM.
Le déchargement du pilote PF entraîne le redémarrage du système quand la machine virtuelle (VM) est en cours
d’exécution et la VF est chargée sur la VM. Sur les noyaux antérieurs à la version 3.2, le déchargement du pilote PF
entraîne le redémarrage du système lorsque la machine virtuelle est en cours d’exécution et la VF est chargée sur la
VM. Ne déchargez pas le pilote PF (ixgbe) si les VF sont attribuées aux invités.
L'exécution de la commande ethtool -t ethX cause des plantages entre la PF et le
client de test
Lorsqu’il y a des VF actifs, la commande "ethtool -t" n’exécutera qu’un test de lien. Le pilote enregistrera également
dans le syslog que les VF devraient être arrêtées pour effectuer un test complet de diagnostic.
Impossible d’obtenir le bail DHCP au démarrage avec Red Hat
Dans les configurations où la négociation automatique prend plus de cinq secondes, le script de démarrage risque
d'échouer avec le message suivant :
"ethX: failed. No link present. Check cable?"
Cette erreur peut se produire même si la présence de lien peut être confirmée en utilisant ethtool ethx. Dans ce cas,
essayez de définir "LINKDELAY=30" dans /etc/sysconfig/network-scripts/ifdfg-ethx.
Le même problème peut se produire pendant un démarrage réseau (via PXE) sur les distributions RedHat qui utilisent
le script dracut :
"Attention : aucune porteuse détectée sur l'interface <nom_interface>"
Dans ce cas, ajoutez "rd.net.timeout.carrier=30" à la ligne de commande du noyau.
REMARQUE : la durée du lien peut varier. Ajustez la valeur de LINKDELAY en
conséquence.
L’hôte peut redémarrer après la suppression de PF lorsque des VF sont actives sur
l’invité
Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives.
Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage spontané du système.
Avant de décharger le pilote PF, vous devez d'abord vous assurer qu'aucune VF n'est encore active. Pour ce faire, arrêtez toutes les machines virtuelles et déchargez le pilote VF.
Problèmes de mémoire insuffisante sur les systèmes IA32
Le pilote peut consommer beaucoup de mémoire en fonction du nombre de processeurs et d'interfaces réseau. Cela
conduit à la segmentation de la mémoire. Le pilote ne peut donc pas toujours allouer suffisamment de mémoire. Pour
résoudre ce problème, réduisez le nombre de descripteurs en utilisant ethtool -G ou le nombre de files d'attente via le
paramètre RSS.
Les balises VLAN sont supprimées sur les noyaux antérieurs à la version 2.6.36
Pour prendre en charge DCB, les noyaux antérieurs à la version 2.6.36 suppriment les balises VLAN pour VLAN0.
Cette opération garantit la connectivité à l'aide de trames 802.1p entre les noyaux qui disposent d'une prise en charge
intégrée et les noyaux qui n'en disposent pas.
Si les balises VLAN sont nécessaires ET que DCB N'EST PAS utilisé, désactivez la suppression VLAN sur les anciens
noyaux au moment de la création, en entrant la commande suivante :
# make CFLAGS_EXTRA=-DIXGBE_DISABLE_8021P_SUPPORT
Pilote Linux* ixgbevf pour cartes réseau Intel® 10 Gigabit pour
serveurs
Présentation ixgbevf
SR-IOV est pris en charge par le pilote ixgbevf, qui doit être chargé aussi bien sur l’hôte que sur les VM. Ce pilote
prend en charge les versions de noyau en amont 2.6.30 (ou supérieure) x86_64.
Le pilote ixgbevf prend en charge les appareils de fonction virtuelle 82599, X540 et X550 qui ne peuvent être activés
que sur les noyaux qui prennent en charge SR-IOV. SR-IOV nécessite la plate-forme appropriée et la prise en charge
du système d’exploitation.
Le pilote ixgbevf a besoin du pilote ixgbe, version 2.0 ou ultérieure. Le pilote ixgbevf prend en charge les fonctions virtuelles générées par le pilote ixgbe avec une valeur max_vfs de 1 ou plus. Pour plus de détails sur le paramètre max_
vfs, consultez la section traitant du pilote ixgbe.
Le système d’exploitation hôte chargeant le pilote ixgbevf doit prendre en charge les interruptions MSI-X.
Actuellement, le pilote est pris en charge uniquement en tant que module chargeable. Intel ne fournit pas de correctifs
à appliquer à la source du noyau pour permettre la liaison statique du pilote. Pour toutes questions concernant la configuration matérielle, reportez-vous à la documentation accompagnant la carte Intel 10GbE. Toutes les configurations
matérielles énumérées s’appliquent à une utilisation avec Linux.
Cartes prises en charge par le pilote de base ixgbevf pour Linux
Les cartes réseau Intel suivantes sont compatibles dans cette version avec le pilote Linux ixgbevf et elles peuvent
prendre en charge jusqu’à 63 fonctions virtuelles par port.
l
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
l
Carte réseau Ethernet Intel® 10G 2P X540-t
l
Carte réseau Ethernet Intel® 10G 2P X550-t
l
Carte réseau Ethernet Intel® 10G 4P X550 rNDC
l
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
l
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC
l
Carte Ethernet Intel® 10G 4P X520/I350 rNDC
l
Carte réseau Ethernet Intel® 10G 2P X520-k bNDC
l
Carte réseau Ethernet Intel® 10G 2P X520
l
Carte réseau Ethernet Intel® 10G X520 LOM
Systèmes d’exploitation compatibles SR-IOV
l
l
l
l
Citrix XenServer 6.0 avec Red Hat Enterprise Linux
VMWare* ESXi* 6.0 U3
Red Hat* Enterprise Linux* (RHEL) 6.9
Novell* SUSE* Linux Enterprise Server (SLES) 12 SP3
Compilation et installation
Pour activer SR-IOV sur votre système :
1. La virtualisation et SR-IOV doivent être activés dans le BIOS.
2. Installez le système d’exploitation Linux. Pour vérifier que le pilote KVM est chargé, tapez : lsmod | grep -i
kvm.
3. Chargez le pilote de base Linux à l’aide de la commande modprobe : modprobe ixgbe option max_
vfs=xx,yy
xx et yy étant le nombre de fonctions virtuelles que vous voulez créer. Vous devez spécifier un numéro pour
chaque port, chacun des paramètres étant séparé par une virgule. Par exemple, xx est le nombre des fonctions
virtuelles du port 1 et yy, du port 2. Vous pouvez créer jusqu'à 63 fonctions par port.
4. Compilez et installez le pilote ixgbevf pour SR-IOV. Le pilote est chargé par rapport aux fonctions virtuelles qui
ont été créées.
REMARQUE : pour les réseaux locaux virtuels, il existe une limite d’un total de 32 VLAN partagés sur 1 ou plusieurs fonctions virtuelles.
Il existe trois méthodes d’installation du pilote Linux :
l
Installation à partir du code source
l
Installer à l’aide de RPM KMP
l
Installation à partir d’un fichier RPM KMOD
Installation à partir du code source
Pour compiler un package RPM* binaire pour ce pilote, exécutez 'rpmbuild -tb <nomdefichier.tar.gz>'. Remplacez
<nomdefichier.tar.gz> par le nom de fichier spécifique du pilote.
REMARQUES :
l
Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution
CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de
recompiler le noyau, redémarrez l’ordinateur maintenant.
l
La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat.
1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez ’/home/username/ixgbevf’ ou ’/usr/local/src/ixgbevf’.
2. Déballez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version du tar du pilote :
tar zxf ixgbevf-<x.x.x>.tar.gz
3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier
du pilote :
cd ixgbevf-<x.x.x>/src/
4. Compilez le module du pilote :
make install
Les instructions binaires sont installées en tant que : /lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/ixgbevf/ixgbevf.ko
Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le
fichier tar du pilote.
5. Installez le module à l’aide de la commande modprobe pour le noyau 2.6.x :
modprobe ixgbevf <paramètre>=<valeur>
Pour les noyaux basés sur la version 2.6, assurez-vous que les anciens pilotes ixgbevf sont supprimés du
noyau, avant de charger le nouveau module :
rmmod ixgbevf; modprobe ixgbevf
6. Affectez une adresse IP à l’interface et activez-la en entrant la commande suivante, où <x> correspond au
numéro d’interface :
ifconfig eth<x> <adresse_IP> netmask <masque réseau>
7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du
même sous-réseau que l’interface soumis au test :
ping <adresse_IP>
Installer à l’aide de RPM KMP
REMARQUE : KMP est pris en charge uniquement sur SLES11 et ses versions ultérieures.
Les RPM KMP mettent à jour les RPM ixgbevf actuellement installés sur le système. Ces mises à jour sont fournies par
SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas.
Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus
est :
intel-<nom du composant>-<version du composant>.<type d’arch>.rpm
Par exemple, intel-ixgbevf-1.3.8.6-1.x86_64.rpm : ixgbevf est le nom du composant ; 1.3.8.6-1 est la version du
composant ; et x86_64 est le type d'architecture.
Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM
KMP inclus est :
intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type
d’arch>.rpm
Par exemple, intel-ixgbevf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm : ixgbevf est le nom du composant ; default
est le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64 est le
type d'architecture.
Pour installer le RPM KMP, tapez les deux commandes suivantes :
rpm -i <nom de fichier rpm>
rpm -i <nom de fichier kmp rpm>
Par exemple, pour installer le package ixgbevf KMP RPM, tapez ce qui suit :
rpm -i intel-ixgbevf-1.3.8.6-1.x86_64.rpm
rpm -i intel-ixgbevf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Installation à partir d’un fichier RPM KMOD
Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers
RPM inclus est :
kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm
Par exemple, kmod-ixgbevf-2.3.4-1.x86_64.rpm :
l
ixgbevf est le nom du pilote.
l
2.3.4 est la version
l
x86_64 est le type d'architecture
Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante :
rpm -i <nom de fichier rpm>
Par exemple, pour installer le package RPM KMOD ixgbevf depuis RHEL 6.4, tapez ce qui suit :
rpm -i kmod-ixgbevf-2.3.4-1.x86_64.rpm
Paramètres de ligne de commande
Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de
commande avec la commande modprobe et en utilisant la syntaxe suivante :
modprobe ixgbevf [<option>=<VAL1>,<VAL2>,...]
Par exemple :
modprobe ixgbevf InterruptThrottleRate=16000,16000
La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire.
Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe :
Nom du paramètre
Plages/
valeurs
valides
Valeur
par
défaut
InterruptThrottleRate
0, 1, 956 - 488, 8000
281 (0=ddésactivé, 1=ddynamique)
Description
Le pilote peut limiter le nombre d’interruptions par seconde générées par la carte pour les paquets entrants. Pour ce faire, il écrit
une valeur sur la carte, basée sur le nombre maximum
d’interruptions que la carte générera par seconde.
En affectant au paramètre InterruptThrottleRate une valeur supérieure ou égale à 100, la carte est programmée pour envoyer ce
nombre maximum d'interruptions par seconde, même s'il y a plus
de paquets entrants. Cela réduit la charge d'interruptions sur le
système et peut diminuer l'utilisation de l'unité centrale en cas de
surcharge, mais augmente la latence car les paquets ne sont pas
traités aussi rapidement.
Le comportement par défaut du pilote prenait pour hypothèse
que le paramètre InterruptThrottleRate possédait une valeur statique de 8000, ce qui fournissait une bonne valeur de secours
pour tous les types de trafic, mais des performances médiocres
concernant le traitement des paquets et la latence. Cependant, le
matériel peut traiter beaucoup plus de paquets par seconde et
c’est pourquoi un algorithme de gestion adaptative des interruptions a été implémenté.
Le pilote possède un mode adaptatif (valeur 1) avec lequel il
ajuste de façon dynamique la valeur InterruptThrottleRate en fonction du trafic qu’il reçoit. Après avoir déterminé le type de trafic
entrant de la dernière tranche de temps, il ajuste la valeur InterruptThrottleRate à une valeur appropriée en fonction de ce trafic.
L’algorithme trie le trafic entrant à chaque intervalle dans des
classes. Une fois que la classe est déterminée, la valeur InterruptThrottleRate est ajustée afin de correspondre au mieux au
type de trafic. Trois classes sont définies : "Bulk traffic" (Trafic en
vrac), pour les grandes quantités de paquets de taille normale ;
"Low latency" (Faible latence), pour les trafics de petite quantité
et/ou un pourcentage important de petits paquets ; et "Lowest
latency" (Plus faible latence), pour les trafics composés presque
exclusivement de petits paquets et les très faibles trafics.
En mode dynamique conservatif, la valeur InterruptThrottleRate
est définie sur 4000 pour un trafic tombant dans la classe "Bulk
traffic" (Trafic en vrac). Si le trafic appartient à la classe « Low
latency » (Faible latence) ou « Lowest latency » (Plus faible
latence), la valeur InterruptThrottleRate est augmentée progressivement jusqu'à 20 000. Ce mode par défaut est adapté à la
plupart des applications.
Nom du paramètre
Plages/
valeurs
valides
Valeur
par
défaut
Description
Dans les cas où une faible latence est essentielle, par exemple
dans le cas de grappes ou de grilles d'ordinateurs, l'algorithme
peut réduire encore la latence lorsque le paramètre InterruptThrottleRate est réglé sur le mode 1. Dans ce mode, InterruptThrottleRate est augmenté progressivement jusqu'à 70 000
pour le trafic de la classe à plus faible latence.
Lorsqu’InterruptThrottleRate est défini sur 0, toute gestion des
interruptions est désactivée, ce qui peut améliorer la latence des
petits paquets, mais n’est généralement pas adapté à un trafic
important.
REMARQUES :
l
Si le pilote ixgbevf est chargé avec les paramètres
par défaut et que des cartes multiples sont utilisées. La limitation de requêtes d’interruption dynamique ne s’applique qu’aux cartes fonctionnant en
mode MSI ou hérité, en utilisant une file d’attente
de réception unique.
l
Si le pilote ixgbevf est chargé avec les paramètres
par défaut et que des cartes multiples sont utilisées
simultanément, le taux d’utilisation du processeur
peut augmenter de façon non linéaire. Pour limiter
le taux d’utilisation du processeur sans affecter la
performance globale, chargez le pilote de la
manière suivante :
modprobe ixgbevf InterruptThrottleRate=3000,3000,3000
Cela définit le paramètre InterruptThrottleRate sur
3000 interruptions/s pour la première, deuxième et
troisième instance du pilote. La plage comprise
entre 2000 à 3000 interruptions par seconde fonctionne sur la plupart des systèmes et est un bon
point de départ, mais la valeur optimale dépend
toutefois de la plate-forme. Si le taux d’utilisation
du processeur n’est pas un problème, utilisez les
paramètres par défaut du pilote.
REMARQUES :
l
pour plus de détails sur le paramètre InterruptThrottleRate, reportez-vous au site http://www.intel.com/design/network/applnots/ap450.htm.
l
un descripteur décrit un tampon de données et les attributs qui lui sont liés. Le matériel accède à ces
informations.
Configurations supplémentaires
Configuration du pilote sur des distributions différentes
La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la
distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de
fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportezvous à votre documentation de distribution. Si, lors de ce processus, le nom du pilote ou du module vous est demandé,
le nom du pilote de base Linux pour la famille de cartes Intel® 10 Gigabit PCI Express est ixgbevf.
Affichage des messages de liaison
Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de
voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce
qui suit :
dmesg -n 8
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages.
ethtool
Le pilote utilise l’interface ethtool pour la configuration et du pilote et les diagnostics, ainsi que pour afficher les informations statistiques. La toute dernière version d’ethtool est nécessaire pour cette fonctionnalité.
La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel.
MACVLAN
ixgbevf prend en charge MACVLAN sur ces noyaux ayant la fonction comprise. La prise en charge du noyau pour
MACVLAN peut être testée en vérifiant si le pilote MACVLAN est chargé. L’utilisateur peut exécuter ’lsmod | grep
macvlan’ pour vérifier si le pilote MACVLAN est chargé ou exécuter ’modprobe macvlan’ pour essayer de charger le
pilote MACVLAN.
La mise à jour vers une version plus récente du package iproute2 peut s’avérer nécessaire pour obtenir la prise en
charge de MACVLAN via la commande ’ip’.
NAPI
Le NAPI (mode d’interrogation de réception) est pris en charge par le pilote ixgbevf et est toujours activé. Consultez la
page https://wiki.linuxfoundation.org/networking/napi pour en savoir plus sur le NAPI.
Problèmes connus
REMARQUE : si la connexion réseau ne fonctionne pas après l’installation du pilote, vérifiez que vous avez installé le pilote correct.
Compilation du pilote
Lorsque vous essayez de compiler le pilote en exécutant la commande 'make install', l'erreur suivante peut survenir :
"Linux kernel source not configured - missing version.h" (Source de noyau Linux non configurée - version.h manquante)
Pour résoudre ce problème, créez le fichier version.h en allant dans l’arborescence source de Linux et en entrant :
make include/linux/version.h
Plusieurs interfaces sur le même réseau de diffusion Ethernet
En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le
même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces
Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non
équilibré.
Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant :
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
(ceci ne fonctionne que si la version du noyau est postérieure à 2.4.5), ou installez les interfaces dans des domaines
de diffusion différents.
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. La modification de la configuration
peut être rendue permanente en ajoutant la ligne :
net.ipv4,conf.all.arp_filter= 1 au fichier /etc/sysctl.conf
ou
Installez les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou
sur un commutateur partitionné aux réseaux locaux virtuels).
Problèmes MSI-X avec des noyaux de versions 2.6.19 à 2.6.21 (compris)
Des paniques et instabilités du noyau peuvent être observées sur le matériel MSI-X si vous utilisez irqbalance avec
des noyaux de versions 2.6.19 et 2.6.21. Si de tels problèmes surviennent, vous pouvez désactiver le démon irqbalance ou mettre votre noyau à niveau.
Erreurs d’allocation de la page de réception
Des erreurs d’allocation d’ordre d’échec:0 erreur peut se produire en cas de stress avec les noyaux 2.6.25 et de versions supérieures. Cela est dû à la façon dont le noyau Linux signale cette condition de stress.
L’hôte peut redémarrer après la suppression de la PF lorsque des VF sont actives sur l’invité
Lorsque vous utilisez des versions du noyau antérieures à la 3.2, ne déchargez pas le pilote PF avec des VF actives.
Cela entraînerait l’arrêt des VF jusqu’à ce que vous rechargiez le pilote PF et pourrait provoquer un redémarrage spontané du système.
Pilote Linux* i40e pour la famille de cartes réseau Intel X710
Ethernet Controller
Présentation d'i40e
REMARQUE : le noyau suppose que TC0 est disponible, et désactive le contrôle de flux des priorités (Priority
Flow Control - PFC) sur le périphérique si TC0 n'est pas disponible. Pour résoudre ce problème, vérifiez que
TC0 est activé lorsque vous configurez DCB sur votre commutateur.
REMARQUE : si le lien à la fonction physique (PF) est interrompu, vous pouvez forcer l'activation du lien (à partir de la fonction physique de l'hôte) sur toutes les fonctions virtuelles (VF) liées à la PF. Cette procédure nécessite la prise en charge du noyau (noyau Redhat 3.10.0-327 ou version ultérieure, noyau en amont 3.11.0 ou
version ultérieure, et prise en charge de l'espace utilisateur iproute2 associé). Si la commande suivante ne fonctionne pas, il est possible que votre système ne la prenne pas en charge. La commande suivante force
l'activation de la liaison sur VF 0 liée à la PF eth0 :
ip link set eth0 vf 0 state enable
REMARQUE : ne déchargez pas le pilote d'un port si une fonction virtuelle (VF) avec une machine virtuelle
(VM) active lui est associée. Autrement, le port semblerait se bloquer. L'exécution de la commande se termine
lorsque la machine virtuelle s'arrête, ou libère la VF.
REMARQUE : dans un environnement virtualisé, la fonction virtuelle peut être sujette à un comportement malveillant sur les cartes réseau Intel® pour serveurs prenant en charge SR-IOV. Les deux trames de couche générées par le logiciel, comme IEEE 802.3x (contrôle de flux de liaison), IEEE 802.1Qbb (contrôle de flux basé sur
des priorités) et les autres trames de ce type, ne sont pas attendues et peuvent ralentir le trafic entre l'hôte et le
commutateur virtuel, et ainsi réduire les performances. Pour résoudre ce problème, configurez tous les ports
compatibles SR-IOV pour l'étiquetage des VLAN. Cette configuration autorise l'abandon des trames inattendues et potentiellement malveillantes.
Le pilote de base i40e Linux* pour la famille de cartes réseau Ethernet X710/XL710 prend en charge les noyaux
2.6.32 et versions ultérieures, et inclut la prise en charge des systèmes x86_64 gérés par Linux.
Les fonctionnalités suivantes sont maintenant disponibles pour les noyaux pris en charge :
l
Encapsulation VXLAN
l
Réseaux VLAN natifs
l
Channel Bonding (agrégation)
l
Délestage de réception générique
l
Pontage de centre de données
L’agrégation des cartes est à présent mise en œuvre en utilisant le module Channel Bonding natif de Linux. Cette fonctionnalité est incluse dans les noyaux Linux pris en charge. De la documentation concernant la fonctionnalité Channel
Bonding est disponible dans la source du noyau Linux : /Documentation/networking/bonding.txt
Utilisez ethtool, lspci ou iproute2's ip pour obtenir des informations sur le pilote. Les instructions de mise à jour
d'ethtool se trouvent dans la section Configurations supplémentaires.
Appareils pris en charge par le pilote de base i40e pour Linux
Les cartes réseau Intel suivantes sont compatibles avec ce pilote :
l
Carte réseau Ethernet Intel® 10G 4P X710-k bNDC
l
Carte réseau Ethernet Intel® 10G 2P X710-k bNDC
l
Carte réseau Ethernet Intel® 10G X710-k bNDC
l
Carte réseau convergent Ethernet Intel® X710
l
Carte réseau convergent Ethernet Intel® X710-T
l
Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC
l
Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC
l
Carte réseau Ethernet Intel® 10G X710 rNDC
l
Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP
l
Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
l
l
l
Carte réseau convergent Ethernet Intel® XL710-Q2
Carte réseau Ethernet Intel® 25G 2P XXV710
Carte mezzanine Ethernet Intel® 25G 2P XXV710
Périphériques SFP+ avec câble optique enfichable
REMARQUE : pour les cartes à fibre optique SFP+, l’utilisation de "ifconfig down" désactive le laser. "ifconfig up" active le laser.
Voir Appareils SFP+ et QSFP+ pour plus d'informations.
Compilation et installation
Il existe trois méthodes d’installation du pilote Linux :
l
Installation à partir du code source
l
Installer à l’aide de RPM KMP
l
Installation à partir d’un fichier RPM KMOD
Installation à partir du code source
Pour compiler un package RPM* binaire pour ce pilote, exécutez 'rpmbuild -tb <nomdefichier.tar.gz>'. Remplacez
<nomdefichier.tar.gz> par le nom de fichier spécifique du pilote.
REMARQUES :
l
Pour que la compilation fonctionne correctement, il est important que le noyau en cours d’exécution
CORRESPONDE à la version et à la configuration de la source de noyau installée. Si vous venez de
recompiler le noyau, redémarrez l’ordinateur maintenant.
l
La fonctionnalité RPM a été testée uniquement sur les distributions Red Hat.
1. Téléchargez le fichier tar du pilote de base dans le répertoire de votre choix. Par exemple, utilisez ’/home/username/i40e’ ou ’/usr/local/src/i40e’.
2. Ouvrez/décompressez l’archive en entrant la commande suivante, où <x.x.x> correspond au numéro de version
du paquetage du pilote :
tar zxf i40e-<x.x.x>.tar.gz
3. Passez au répertoire src du pilote, <x.x.x> correspond au numéro de version du logiciel d’archivage de fichier
du pilote :
cd i40e-<x.x.x>/src/
4. Compilez le module du pilote :
make install
Le binaire sera installé en tant que : /lib/modules/<VERSION DU NOYAU>/kernel/drivers/net/i40e/i40e.ko
Les emplacements d’installation répertoriés ci-dessus sont les emplacements par défaut. Ils peuvent être différents selon les distributions Linux. Pour de plus amples informations, voir le fichier ldistrib.txt inclus dans le
fichier tar du pilote.
5. Installez le module à l’aide de la commande modprobe :
modprobe i40e <paramètre>=<valeur>
Assurez-vous que les anciens pilotes i40e sont supprimés du noyau, avant de charger le nouveau module :
rmmod i40e ; modprobe i40e
6. Affectez une adresse IP à l’interface Ethernet et activez celle-ci en entrant la commande suivante, où <x> correspond au nom d’interface :
ifconfig <ethx> <adresse_IP> netmask <masque réseau> up
7. Vérifiez que l’interface fonctionne. Entrez ce qui suit, où <adresse_IP> est l’adresse IP d’un autre ordinateur du
même sous-réseau que l’interface soumis au test :
ping <adresse_IP>
Installer à l’aide de RPM KMP
REMARQUE : KMP est pris en charge uniquement sur SLES11 et ses versions ultérieures.
Les RPM KMP mettent à jour les RPM i40e actuellement installés sur le système. Ces mises à jour sont fournies par
SuSE dans la version SLES. Si un RPM n’existe pas actuellement sur le système, le KMP ne s’installe pas.
Les RPM sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM inclus
est :
intel-<nom du composant>-<version du composant>.<type d’arch>.rpm
Par exemple, intel-i40e-1.3.8.6-1.x86_64.rpm:i40e est le nom du composant ; 1.3.8.6-1 et la version du composant ; et
x86_64 est le type d'architecture.
Les RPM KMP sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers RPM
KMP inclus est :
intel-<nom du composant>-kmp-<type de noyau>-<version du composant>_<version du noyau>.<type
d’arch>.rpm
Par exemple, intel-i40e-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm:i40e est le nom du composant ; default (par
défaut) est le type de noyau ; 1.3.8.6 est la version du composant ; 2.6.27.19_5-1 est la version du noyau ; et x86_64
est le type d'architecture.
Pour installer le RPM KMP, tapez les deux commandes suivantes :
rpm -i <nom de fichier rpm>
rpm -i <nom de fichier kmp rpm>
Par exemple, pour installer le package RPM KMP i40e, tapez ce qui suit :
rpm -i intel-i40e-1.3.8.6-1.x86_64.rpm
rpm -i intel-i40e-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Installation à partir d’un fichier RPM KMOD
Les RPM KMOD sont fournis pour les distributions Linux prises en charge. La convention de nom pour les fichiers
RPM inclus est :
kmod-<nom du pilote>-<version>-1.<type d'arch>.rpm
Par exemple, kmod-i40e-2.3.4-1.x86_64.rpm :
l
i40e est le nom du pilote
l
2.3.4 est la version
l
x86_64 est le type d'architecture
Pour installer les fichiers RPM KMOD, accédez au répertoire des fichiers RPM et tapez la commande suivante :
rpm -i <nom de fichier rpm>
Par exemple, pour installer le package RPM KMOD i40e depuis RHEL 6.4, tapez ce qui suit :
rpm -i kmod-i40e-2.3.4-1.x86_64.rpm
Paramètres de ligne de commande
En général, ethtool et les autres commandes spécifiques au SE sont utilisées pour configurer les paramètres modifiables par l'utilisateur après le chargement du pilote. Le pilote i40e ne prend en charge le paramètre de noyau max_
vfs kernel que sur les anciens noyaux qui n'ont pas d'interface sysfs standard. Le seul autre paramètre du module est
le paramètre debug qui peut commander la verbosité de la journalisation par défaut du pilote.
Si le pilote est compilé comme un module, utilisez les paramètres optionnels suivants en les entrant sur la ligne de
commande avec la commande modprobe et en utilisant la syntaxe suivante :
modprobe i40e [<option>=<VAL1>]
Par exemple :
modprobe i40e max_vfs=7
La valeur par défaut de chaque paramètre est généralement le paramètre recommandé, sauf indication contraire.
Le tableau suivant contient les paramètres et les valeurs possibles des commandes modprobe :
Nom du
paramètre
Plages/valeurs
valides
Valeur
par
défaut
Description
max_vfs
1 - 63
0
Ce paramètre assure la prise en charge SR-IOV. Il fait générer au
pilote jusqu’à max_vfs de fonction virtuelle.
REMARQUES :
l
Ce paramètre est utilisé uniquement sur un noyau 3.7.x et
inférieur. Sur un noyau 3.8.x et supérieur, utilisez sysfs pour
activer les VF. Par ailleurs, ce paramètre est uniquement utilisé sur la version 6.6 et supérieure pour les distributions Red
Hat. Pour la version 6.7 et supérieure, utilisez sysfs. Par
exemple :
#echo $num_vf_enabled > /sys/class/net/$dev/device/sriov_
numvfs
//enable VFs
#echo 0 > /sys/class/net/$dev/device/sriov_numvfs
l
ip
//
ip
//
ip
//
//disable VFs
Lorsque le mode SR-IOV est activé, le filtrage de VLAN matériel et la suppression/l'insertion de balises VLAN restent activés. Supprimez l'ancien filtre de VLAN avant d'ajouter le
nouveau filtre de VLAN. Par exemple :
link set eth0 vf 0 vlan 100
set vlan 100 for VF 0
link set eth0 vf 0 vlan 0
Delete vlan 100
link set eth0 vf 0 vlan 200
set a new vlan 200 for VF 0
Les paramètres du pilote sont référencés par position. En conséquence, si vous avez une carte 2 ports ou si votre système est
équipé de plusieurs cartes réseau et que vous voulez N fonctions virtuelles par port, vous devez spécifier un nombre pour chaque port,
chaque paramètre étant séparé par une virgule. Par exemple :
modprobe i40e max_vfs=4
Cela va générer 4 VF sur le premier port.
modprobe i40e max_vfs=2,4
Cela va générer 2 VF sur le premier port et 4 VF sur le deuxième
port.
Vous devez faire attention lorsque vous chargez le pilote avec ces
paramètres. En fonction de la configuration du système, du nombre
de connecteurs, etc., il est impossible de prédire dans tous les cas
où se trouveront les positions sur la ligne de commande.
Ni le périphérique ni le pilote ne peuvent contrôler le mappage des
VF dans l'espace de configuration. La disposition du bus varie en
fonction du système d'exploitation. Sur les systèmes d'exploitation
qui prennent cette fonction en charge, vous pouvez consulter sysfs
pour trouver le mappage.
Nom du
paramètre
Plages/valeurs
valides
Valeur
par
défaut
Description
Certaines configurations matérielles prennent en charge moins
d'instances SR-IOV, puisque le contrôleur XL710 entier (toutes les
fonctions) est limité à un total de 128 interfaces SR-IOV.
Régulation
des paquets
de balise
VLAN
Permet d'envoyer tous les paquets dotés d'une balise VLAN spécifique à une fonction virtuelle (VF) SR-IOV spécifique. De plus, cette
fonction vous permet de désigner une VF comme fiable, et permet à
cette VF fiable de demander un mode promiscuous (mode de proximité) sélectif sur la fonction physique (PF).
Pour définir une VF comme fiable ou non fiable, entrez la commande
suivante dans l'hyperviseur :
# ip link set dev eth0 vf 1 trust [on|off]
Une fois la VF désignée comme fiable, utilisez les commandes suivantes dans la machine virtuelle pour définir la VF en mode promiscuous.
Pour toutes les communications en mode promiscuous : #ip link set
eth2 promisc on
Où eth2 représente une interface VF dans la machine virtuelle (VM)
Pour le multicast en mode promiscuous :
#ip link set eth2 allmulticast on
Où eth2 représente une interface VF dans la machine virtuelle
REMARQUE : par défaut, le paramètre ethtool priv-flag vftrue-promisc-support est réglé sur "off" (désactivé), signifiant
que le mode promiscuous pour la VF sera limité. Pour définir
le mode promiscuous (mode de proximité) de la VF sur "true
promiscuous" et permettre à la VF de voir tout le trafic entrant,
utilisez la commande suivante.
#ethtool -set-priv-flags p261p1 vf-true-promisc-support on
Le paramètre vf-true-promisc-support priv-flag n'active pas le
mode promiscuous ; il désigne le type de mode promiscuous
(limited ou true) [limité ou vrai] que vous obtenez lorsque vous
activez le mode promiscuous en utilisant les commandes ip
link ci-dessus. Il s'agit d'un paramètre global qui affecte
l'ensemble du périphérique. Cependant, le paramètre vf-truepromisc-support priv-flag affecte uniquement la première fonction physique (PF) du périphérique. La fonction physique (PF)
reste limitée en mode promiscuous (sauf en mode MFP), quel
que soit le paramètre vf-true-promisc-support.
Ajoutez maintenant une interface VLAN sur l'interface VF.
#ip link add link eth2 name eth2.100 type vlan id 100
L'ordre dans lequel vous définissez la VF en mode promiscuous et
ajoutez l'interface VLAN n'a aucune d'importance (vous pouvez commencer par l'opération de votre choix). Le résultat final de cet
exemple est que la VF reçoit tout le trafic marqué par la balise VLAN
100.
Nom du
paramètre
Intel® Ethernet Flow
Director
Plages/valeurs
valides
Valeur
par
défaut
Description
REMARQUE : les paramètres de Flow Director ne sont pris en
charge que sur les noyaux de version 2.6.30 ou plus récente.
Sur ces périphériques, le contrôle de flux en mode 1 Gbit/s
peut provoquer des problèmes de transmission.
Flow Director exécute les tâches suivantes :
l
Dirige les paquets reçus vers différentes files d'attente en
fonction de leur flux.
l
Permet d'exercer un contrôle précis sur l'acheminement d'un
flux dans la plate-forme.
l
Associe les flux et les cœurs de processeur pour l'affinité de
flux.
l
Prend en charge plusieurs paramètres pour la classification
des flux flexibles et l'équilibrage de charge (en mode SFP uniquement).
REMARQUES :
l
Un script inclus (set_irq_affinity) automatise la détermination des affinités des interruptions (IRQ) en fonction de l'UC.
l
Le pilote Linux i40e prend en charge les types de flux
suivants : IPv4, TCPv4 et UDPv4. Pour un flux donné, il
prend en charge les combinaisons valides d'adresses
IP (source ou cible) et les ports TCP/UDP (source et
destination). Par exemple, vous pouvez fournir uniquement une adresse IP source, une adresse IP
source et un port de destination, ou une combinaison
d'un ou plusieurs de ces quatre paramètres.
l
Le pilote Linux i40e vous permet de filtrer le trafic en
fonction d'un modèle flexible de deux octets défini par
l'utilisateur et décalé en utilisant des champs ethtool
user-def et des masques. Seuls les types de flux L3 et
L4 sont pris en charge pour les filtres flexibles définis
par l'utilisateur. Pour un type de flux donné, vous
devez effacer tous les filtres de Flow Director avant de
modifier le jeu d'entrée (pour ce type de flux).
Autres commandes ethtool :
Pour activer/désactiver Flow Director
ethtool -K ethX ntuple <on|off>
Si vous désactivez les filtres ntuple, tous les filtres programmés par
l'utilisateur sont purgés du cache de pilote et du matériel. Lorsque
ntuple est activé à nouveau, vous devez recréer les filtres.
Pour ajouter un filtre qui dirige les paquets vers la file d'attente 2, utilisez le commutateur -U ou -N, par ex. :
# ethtool -N ethX flow-type tcp4 src-ip 192.168.10.1
dst-ip \ 192.168.10.2 src-port 2000 dst-port 2001
action 2 [loc 1]
Pour définir un filtre en utilisant uniquement des adresses IP source
et destination :
# ethtool -N ethX flow-type tcp4 src-ip 192.168.10.1
dst-ip \
Nom du
paramètre
Plages/valeurs
valides
Valeur
par
défaut
Description
192.168.10.2 action 2 [loc 1]
Pour définir un filtre basé sur un modèle défini par l'utilisateur et le
décalage :
# ethtool -N ethX flow-type tcp4 src-ip 192.168.10.1
dst-ip \
192.168.10.2 user-def 0xffffffff00000001 m 0x40
action 2 [loc 1]
Où la valeur du champ user-def (0xffffffff00000001) est le modèle et
m 0x40 le décalage.
Dans ce cas, le paramètre masque (m 0x40) est utilisé avec le
champ user-def, alors qu'il ne l'est pas pour la prise en charge du
filtre Cloud.
ATR (application Targeted Routing) Perfect Filter :
ATR est activé par défaut lorsque le noyau est en mode de file
d'attente de transfert multiple. Une règle de filtre Flow Director ATR
est ajoutée lorsqu'un flux TCP-IP débute et elle est effacée quand le
flux s'arrête. Lorsqu'une règle de filtre Flow Director TCP-IP est ajoutée depuis ethtool (filtre de bande latérale), ATR est désactivé par le
pilote. Afin de réactiver ATR, l'utilisateur peut désactiver la bande
latérale à l'aide de l'option ethtool -K. Si la bande latérale est réactivée par la suite, ATR reste activé jusqu'à l'ajout d'un flux TCP-IP.
Filtres Sideband Perfect
Des filtres Sideband Perfect sont utilisés pour diriger le trafic correspondant aux caractéristiques spécifiées. Ils sont activés par
l'interface ntuple d'ethtool. Pour ajouter un nouveau filtre, utilisez la
commande suivante :
ethtool -U <périphérique> flow-type <type> src-ip
<ip> dst-ip <ip> src-port <port> dst-port <port>
action <file>
Où :
<périphérique> - le périphérique Ethernet à programmer
<type> - peut être ip4, tcp4, udp4 ou sctp4
<ip> - l'adresse IP utilisée pour la correspondance
<port> - le numéro de port utilisé pour la correspondance
<file> - la file d'attente vers laquelle diriger le trafic (-1 supprime le trafic correspondant)
Utilisez la commande suivante pour afficher tous les filtres actifs :
ethtool -u <périphérique>
Utilisez la commande suivante pour supprimer un filtre :
ethtool -U <périphérique> delete <N>
<N> représente l'id de filtre qui s'affiche lors de l'impression de tous
les filtres actifs, et peut également avoir été spécifié à l'aide de "loc
<N>" lors de l'ajout du filtre.
Nom du
paramètre
Plages/valeurs
valides
Valeur
par
défaut
Description
L'exemple suivant identifie le trafic TCP envoyé à partir de
192.168.0.1, port 5300, adressé à 192.168.0.5, port 80, et l'envoie à
la file d'attente 7 :
ethtool -U enp130s0 flow-type tcp4 src-ip 192.168.0.1
dst-ip 192.168.0.5 src-port 5300 dst-port 7 action 7
Pour chaque type de flux, les filtres programmés doivent tous utiliser
le même jeu d'entrée correspondant. Par exemple, l'émission des
deux commandes suivantes est acceptable :
ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1
src-port 5300 action 7
ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.5
src-port 55 action 10
L'émission des deux commandes suivantes, cependant, n'est pas
acceptable, car la première spécifie scr-ip et la seconde spécifie dstip :
ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1
src-port 5300 action 7
ethtool -U enp130s0 flow-type ip4 dst-ip 192.168.0.5
src-port 55 action 10
La deuxième commande échoue avec une erreur. Vous pouvez programmer plusieurs filtres en utilisant les mêmes champs, mais avec
des valeurs différentes ; sur un périphérique, cependant, vous ne
pouvez pas programmer deux filtres tcp4 en utilisant des champs correspondants différents.
Le pilote i40e ne prenant pas en charge la correspondance à une
sous-partie d'un champ, les champs de masque partiels ne sont
donc pas pris en charge.
Le pilote prend également en charge les données définies par
l'utilisateur correspondant à la charge utile du paquet.
Ces données flexibles sont spécifiées comme suit à l'aide du champ
"user-def" de la commande ethtool :
31 28 24 20 16
15 12 8 4 0
décalage dans la charge utile du
paquet
2 octets de données
flexibles
Par exemple,
... user-def 0x4FFFF ...
indique au filtre de rechercher 4 octets dans la charge utile et de
faire correspondre cette valeur à 0xFFFF. Le décalage est basé sur
le début de la charge utile, et non sur le début du paquet. Ainsi
flow-type tcp4 ... user-def 0x8BEAF ...
correspondrait aux paquets TCP/IPv4 dont la charge utile TCP/IPv4
contient la valeur 0xBEAF sur 8 octets.
Nom du
paramètre
Plages/valeurs
valides
Valeur
par
défaut
Description
Veuillez noter que les en-têtes ICMP sont analysés comme suit :
4 octets d'en-tête et 4 octets de charge utile. Ainsi, pour faire correspondre le premier octet de la charge utile, vous devez ajouter
4 octets au décalage. Veuillez également noter que les filtres ip4 correspondent à la fois aux trames ICMP et aux trames raw (inconnues)
ip4 , où la charge utile sera la charge utile 3 de la trame IP4.
Le décalage maximal est 64. Le matériel lira jusqu'à 64 octets de
données uniquement à partir de la charge utile. Le décalage doit
avoir une valeur paire, car les données flexibles ont une longueur de
2 octets et doivent être alignées sur l'octet 0 de la charge utile du
paquet.
Le décalage flexible défini par l'utilisateur est également considéré
comme faisant partie du jeu d'entrée et il ne peut pas être programmé séparément pour plusieurs filtres du même type. Cependant, les données flexibles ne sont pas incluses dans le jeu d'entrée
et plusieurs filtres peuvent utiliser le même ldécalage, tout en correspondant à des données différentes.
Pour créer des filtres qui dirigent le trafic vers une fonction virtuelle
(VF) spécifique, utilisez le paramètre "action". Spécifiez l'action sous
la forme d'une valeur sur 64 bits, où les 32 bits inférieurs représentent le numéro de la file d'attente, tandis que les 8 bits suivants
représentent la VF. Puisque 0 correspond à la fonction physique
(PF), l'identifiant VF est décalé par la valeur 1. Par exemple :
... action 0x800000002 ...
spécifie de diriger le trafic vers la fonction virtuelle 7 (8 moins 1) dans
la file d'attente 2 de cette VF.
Ces filtres ne contreviennent pas aux règles de routage interne, et ils
n'acheminent pas le trafic qui n'aurait autrement pas été envoyé à la
fonction virtuelle spécifiée.
Prise en
charge du
filtre Cloud
Sur un réseau complexe prenant en charge plusieurs types de trafic
(le trafic de stockage et le trafic cloud, par exemple), la prise en
charge de filtre Cloud vous permet d'envoyer un seul type de trafic
(le trafic de stockage, par exemple) à la fonction physique (PF) et un
autre type (le trafic Cloud, par exemple) à une fonction virtuelle (VF).
Puisque les réseaux Cloud sont généralement de type VXLAN/Geneve, vous pouvez définir un filtre Cloud afin d'identifier les paquets
VXLAN/Geneve et de les envoyer à une file d'attente dans la VF,
pour traitement par la machine virtuelle (VM). De même, d'autres
filtres Cloud peuvent être conçus pour divers autres tunnels de trafic.
REMARQUES :
l
Les filtres Cloud sont uniquement pris en charge
lorsque le périphérique sous-jacent utilise un mode de
fonction unique par port.
l
L'option "action -1", qui abandonne les paquets correspondants dans des filtres Flow Director réguliers,
ne permet pas de déposer des paquets lorsqu'elle est
utilisée avec les filtres cloud.
l
Pour les types de flux IPv4 et ether, les filtres Cloud ne
peuvent pas être utilisés avec les filtres TCP ou UDP.
l
Les filtres Cloud peuvent être utilisés pour fractionner
la file d'attente dans la fonction physique (PF).
Nom du
paramètre
Plages/valeurs
valides
Valeur
par
défaut
Description
Les filtres suivants sont pris en charge :
Filtres Cloud
l
Adresse MAC intérieure, VLAN intérieure (pour les paquets
NVGRE, VXLAN ou Geneve)
l
Adresse MAC intérieure, VLAN intérieure, ID locataire (pour
les paquets NVGRE, VXLAN ou Geneve)
l
Adresse MAC intérieure, ID locataire (paquet NVGRE ou
paquets VXLAN/Geneve)
l
Filtre MAC L2 extérieure
l
Filtre MAC intérieure
l
MAC extérieure, ID locataire, MAC intérieure
l
IP de destination d'application
l
IP source d'application, MAC intérieure
l
ToQueue : utiliser MAC, VLAN pour pointer vers une file
d'attente
Filtres L3
l
ID de destination d'application
Les filtres Cloud sont spécifiés en utilisant l'interface ntuple d'ethtool,
mais le pilote utilise user-def pour déterminer s'il faut traiter le filtre
comme un filtre Cloud ou comme un filtre régulier. Pour activer un
filtre Cloud, définissez le bit le plus significatif du champ user-def,
"user-def 0x8000000000000000", pour activer les fonctionnalités
Cloud décrites ci-dessous. Cela indique au pilote d'appliquer un traitement spécifique au filtre, au lieu de le traiter comme les filtres réguliers décrits ci-dessus. Notez que les filtres Cloud peuvent aussi lire
séparément les autres bits du champ user-def ; vous ne pouvez donc
pas utiliser la fonction de données flexibles décrite ci-dessus.
Pour les filtres Flow Director régulier :
- Aucun user-def spécifié ou le bit le plus élevé (bit 63) a la valeur 0
Exemple :
ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1
dst-ip 192.168.0.109 action 6 loc
Pour les filtres L3 (paquets non tunnélisés) :
- "user-def 0x8000000000000000" (aucun paramètre ID locataire/VNI spécifié dans les bits restants du champ user-def)
- Seuls les paramètres L3 (src-IP, dst-IP) sont pris en compte
Exemple :
ethtool -U enp130s0 flow-type ip4 src-ip
192.168.42.13 dst-ip 192.168.42.33 / src-port 12344
dst-port 12344 user-def 0x8000000000000000 action /
0x200000000 loc 3
Redirige le trafic provenant de 192.168.42.13 port 12344 avec la destination 192.168.42.33 port 12344 vers VF id 1 et lui donne le nom
"règle 3"
Pour les filtres Cloud (paquets tunnélisés) :
l
Tous les autres filtres, y compris lorsque les paramètres ID
locataire/VNI sont spécifiés.
Nom du
paramètre
Plages/valeurs
valides
Valeur
par
défaut
Description
l
l
l
l
Les 32 bits inférieurs du champ user-def peuvent transporter
le paramètre ID locataire/VNI si nécessaire.
La VF peut être spécifiée en utilisant le champ "action", tout
comme les filtres réguliers décrits dans la section Filtre Flow
Director ci-dessus.
Les filtres cloud peuvent être définis en utilisant l'adresse
MAC intérieure, MAC extérieure, IP intérieure, VLAN intérieure et VNI, dans le cadre de l'interface tuple Cloud. Les
filtres Cloud filtrent sur l'adresse MAC et IP destination (non
source). Les champs d'adresse MAC destination et source de
la commande ethtool sont surchargés, puisque dst = adresse
MAC extérieure, src = adresse MAC intérieure afin de simplifier la définition de tuple pour un filtre Cloud.
Le paramètre 'loc' spécifie que le numéro de la règle du filtre
est stocké dans le pilote de base
Exemple :
ethtool –U enp130s0 flow-type ether dst 8b:9d:ed:6a:ce:43 src 1d:44:9d:54:da:de user-def
0x8000000000000022 loc 38 action 0x200000000
Redirige le trafic vers VXLAN en utilisant le tunnel id 34 (hexadécimal 0x22) provenant de l'adresse MAC extérieure 8b:9d:ed:6a:ce:43 et de l'adresse MAC intérieure 1d:44:9d:54:da:de vers VF id 1
et lui donne le nom "règle 38".
Configurations supplémentaires
Configuration du pilote sur des distributions différentes
La configuration d’un pilote réseau pour qu’il se charge correctement lors du démarrage d’un système dépend de la
distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du système et/ou de
fichiers de configuration. De nombreuses distributions Linux sont livrées avec des outils qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique réseau sur votre système, reportezvous à votre documentation de distribution. Si, lors de ce processus, le nom du pilote ou du module vous est demandé,
le nom du pilote de base Linux pour la famille de cartes Intel® 10 Gigabit PCI Express est i40e.
Affichage des messages de liaison
Les messages de liaison ne sont pas affichés sur la console si la distribution restreint les messages système. Afin de
voir les messages de liaison du pilote réseau sur votre console, définissez le paramètre dmesg sur huit en entrant ce
qui suit :
dmesg -n 8
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages.
Trames Jumbo
La prise en charge des trames Jumbo est activée en définissant une valeur MTU plus élevée que la valeur par défaut
de 1500 octets. La valeur MTU maximale est 9 710. Utilisez la commande ifconfig pour augmenter la valeur MTU.
Entrez, par exemple, la commande suivante, où <x> est le numéro d’interface :
ifconfig ethx mtu 9000 up
Ce paramètre n’est pas sauvegardé lors des redémarrages. La modification du paramètre peut être permanente en
ajoutant MTU = 9000 au fichier /etc/sysconfig/network-scripts/ifcfg-eth<x> pour RHEL ou au fichier
/etc/sysconfig/network/<config_file> pour SLES.
Le paramètre MTU maximal pour les trames Jumbo est 9702. Cette valeur correspond à la taille maximale des trames
Jumbo, qui est de 9 728. Ce pilote tentera d'utiliser des tampons de tailles différentes pour recevoir chaque paquet
Jumbo. Cela aide à éviter les problèmes de famine de tampon lors de l’allocation des paquets de réception.
ethtool
Le pilote utilise l’interface ethtool pour la configuration et du pilote et les diagnostics, ainsi que pour afficher les informations statistiques. La toute dernière version d’ethtool est nécessaire pour cette fonctionnalité.
La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel.
NAPI
Le NAPI (mode d’interrogation de réception) est pris en charge par le pilote i40e.
Consultez la page https://wiki.linuxfoundation.org/networking/napi pour en savoir plus sur le NAPI.
Contrôle de flux
Le contrôle de flux est désactivé par défaut. Pour l’activer, utilisez ethtool :
ethtool -A eth? autoneg off rx on tx on
REMARQUE : vous devez disposer d’un partenaire de liaison capable de contrôle de flux.
Débit de hachage RSS
Permet de définir les octets de hachage par type de débit et toute combinaison d'une ou de plusieurs options pour la
configuration Receive Side Scaling (RSS).
#ethtool -N <dev> rx-flow-hash <type> <option>
Où <type> peut être remplacé par :
tcp4 signifiant TCP sur IPv4
udp4 signifiant UDP sur IPv4
tcp6 signifiant TCP sur IPv6
udp6 signifiant UDP sur IPv6
Et <option> peut être remplacé par un ou plusieurs des éléments suivants :
s hachage sur l'adresse IP source du paquet rx.
d hachage de l'adresse IP destination du paquet rx.
f hachage sur les octets 0 et 1 de l’en-tête Couche 4 du paquet rx.
n hachage sur les octets 2 et 3 de l’en-tête Couche 4 du paquet rx.
Fonction anti-arnaque MAC et VLAN
Quand un pilote malveillant tente d’envoyer un paquet malveillant, il est rejeté par le matériel et n’est pas transmis.
Une interruption est envoyée au pilote PF pour signaler la tentative d’intrusion malveillante. Quand un paquet malveillant est détecté, le pilote PF envoie le message suivant au journal du système (affiché avec la commande
"dmesg") :
i40e ethx: i40e_spoof_check: n paquets malveillants détectés
Quand x=PF interface# et n=VF ayant tenté l’intrusion malveillante.
REMARQUE : cette fonctionnalité peut être désactivée pour une fonction virtuelle (VF) spécifique.
IEEE 1588 Precision Time Protocol (PTP) Hardware Clock (PHC)
Le protocole PTP (Precision Time Protocol) est utilisé pour synchroniser les horloges d'un réseau informatique. La
prise en charge PTP varie selon les périphériques Intel qui prennent en charge ce pilote.
Utilisez "ethtool -T <nom netdev>" pour obtenir la liste définitive des fonctionnalités PTP prises en charge par le périphérique.
Déchargement matériel VXLAN Overlay
Le pilote i40e pour Linux offre la prise en charge du déchargement matériel VXLAN Overlay. Les deux commandes suivantes sont utilisées pour afficher et configurer VXLAN sur un périphérique prenant en charge le déchargement
VXLAN-overlay.
Cette commande affiche les déchargements et leur état actuel :
# ethtool -k ethX
Cette commande active/désactive la prise en charge VXLAN par le pilote.
# ethtool -K ethX tx-udp_tnl-segmentation [off|on]
Pour plus d'informations sur la configuration de votre réseau pour la prise en charge de VXLAN overlay, consultez le
dossier technique Intel "Création de réseaux overlay en utilisant les cartes réseau convergent Ethernet" (Division Intel
Networking Division, août 2013) :
http://www.intel.com/content/dam/www/public/us/en/documents/technology-briefs/ overlay-networks-using-convergednetwork-adapters-brief.pdf
Optimisation des performances
Les paramètres par défaut du pilote lui permettent de s'adapter à un grand nombre de charges de travail différentes. Si
des optimisations sont nécessaires, il est conseillé d'essayer les paramètres ci-après.
Reliez les IRQ de la carte réseau à des cœurs spécifiques en désactivant le service irqbalance et en exécutant le script
set_irq_affinity inclus.
Les paramètres suivants permettront de répartir les IRQ de manière équitable sur tous les cœurs :
# scripts/set_irq_affinity –x all <interface1> , [ <interface2>,… ]
Les paramètres suivants permettront de répartir les IRQ sur tous les cœurs en local de la carte (même nœud NUMA) :
# scripts/set_irq_affinity –x local <interface1> ,[ <interface2>,… ]
Consultez le texte d'aide du script pour plus d'options.
Pour des charges de travail demandant une fréquence du processeur élevée, il est conseillé de relier les IRQ à tous
les cœurs.
Pour le Transfert IP : désactiver la fonction ITR adaptative et baisser les interruptions rx et tx par file d'attente à l'aide
d'ethtool. La définition de rx-usecs et de tx-usecs à 125 limitera les interruptions à environ 8 000 par seconde par file
d'attente.
# ethtool <interface> adaptive-rx off adaptive-tx off rx-usecs 125 tx-usecs 125
Pour réduire l'utilisation du processeur : désactiver la fonction ITR adaptative et baisser les interruptions rx et tx par file
d'attente à l'aide d'ethtool. La définition de rx-usecs et de tx-usecs à 250 limitera les interruptions à environ 4000 par
seconde et par file d'attente.
# ethtool <interface> adaptive-rx off adaptive-tx off rx-usecs 250 tx-usecs 250
Pour une latence plus faible : désactiver les fonctions ITR et ITR adaptative en définissant rx et tx sur 0 à l'aide
d'ethtool.
# ethtool <interface> adaptive-rx off adaptive-tx off rx-usecs 0 tx-usecs 0
Problèmes connus
Les périphériques X710/XXV710 ne parviennent pas à activer le nombre MAX de VF
lorsque NPAR et SR-IOV sont activés
Les périphériques X710/XXV710 ne parviennent pas à activer Max VFs (64) lorsque NPAR et SR-IOV sont activés.
Une erreur d'i40e est consignée, indiquant "add vsi failed for VF N, aq_err 16" (l'ajout de vsi a échoué pour VF N, aq_
err 16). Pour résoudre ce problème, activez moins de 64 fonctions virtuelles (VF).
La commande "ip link show" affiche une VF MAC incorrecte si la VF MAC a été définie à partir du côté VF
L'exécution de la commande "ip link show" affiche uniquement les adresses MAC si elles ont été définies par la fonction physique (PF). Sinon, elle affiche des zéros uniquement.
Il s'agit d'un comportement normal. Le pilote PF transmet des zéros au pilote VF pour qu'il puisse générer sa propre
adresse MAC aléatoire et la signaler au SE invité. Sans cette fonction, certains systèmes d'exploitation invités
assignent à tort un nouveau nom d'interface à la VF à chaque redémarrage.
Erreur SSL (Aucun fichier de ce type) lors de l'installation du pilote sur Ubuntu 14.04
Lors de l'installation du pilote sur Ubuntu 14.04, vous pouvez obtenir une erreur SSL indiquant "no such file or directory" (aucun fichier ou répertoire de ce type). Ce problème n'affecte pas l'installation ni les performances du pilote et
peut être ignoré.
Le délestage de la somme de contrôle IPv6/UDP ne fonctionne pas sur certains
noyaux plus anciens
Certaines distributions utilisant des noyaux plus anciens n'activent pas correctement le délestage de la somme de
contrôle IPv6/UDP. Pour utiliser le délestage de la somme de contrôle IPv6, il peut être nécessaire de mettre le noyau
à niveau.
Performances médiocres lors de l'utilisation de l'encapsulation VXLAN
Lors de l'utilisation de l'encapsulation VXLAN sur Red Hat Enterprise Linux 7.2 et 7.3, vous pouvez constater des performances médiocres liées aux limitations du noyau sur ces versions de SE. Pour résoudre ce problème, mettez votre
noyau à niveau.
Messages d'avertissement depmod concernant un symbole inconnu lors de
l'installation
Pendant l'installation du pilote, vous pouvez voir des messages d'avertissement depmod renvoyant à des symboles
inconnus i40e_register_client et i40e_unregister_client. Ces messages sont fournis à titre d'information uniquement et
aucune intervention n'est requise. L'installation devrait s'achever normalement.
Erreur : <ifname> selects TX queue XX but real number of TX queues is YY
Lorsque vous configurez le nombre de files d'attente sous une forte charge du trafic, vous pouvez voir un message
d'erreur indiquant "<ifname> selects TX queue XX, but real number of TX queues is YY" (<ifname> sélectionne la file
de transmission XX, mais il y a en réalité YY files d'attente). Ce message est fourni à titre d'information uniquement et
n'affecte pas les fonctionnalités.
Windows Server 2016 ne fonctionne pas comme un SE invité sur les anciens KVM
RHEL et SLES
Microsoft* Windows Server 2016* ne fonctionne pas comme un système d'exploitation invité sur la version de
l'hyperviseur KVM incluse dans Red Hat* Enterprise Linux* (RHEL) version 6.8 et Suse* Linux Enterprise Server
(SLES) version 11.4. Windows Server 2016 fonctionne comme un système d'exploitation invité sur RHEL 7.2 et SLES
12.1.
Correction des problèmes de performances lors de l'utilisation d'IOMMU dans les
environnements virtualisés
La fonctionnalité IOMMU du processeur empêche les périphériques d'E/S d'accéder à la mémoire hors des limites
fixées par le SE. Elle permet également d'affecter directement les périphériques à une machine virtuelle. Cependant,
la fonctionnalité IOMMU peut affecter les performances, aussi bien pour la latence (chaque accès DMA par le périphérique doit être traduit par IOMMU) que pour l'utilisation de l'UC (chaque tampon affecté à chaque périphérique doit
être connecté dans l'IOMMU).
Si vous rencontrez des problèmes de performances avec IOMMU, essayez de l'utiliser en mode "passthrough", en ajoutant la ligne suivante dans la ligne de commande de démarrage du noyau :
intel_iommu=on iommu=pt
REMARQUE : ce mode permet le remappage pour attribuer les périphériques aux machines virtuelles, proposant des performances d'E/S quasi-natives, mais il n'offre pas de protection de mémoire supplémentaire.
La transmission se bloque, suspendant le trafic
La désactivation du contrôle de flux pendant que le périphérique est soumis à une montée en charge peut bloquer la
transmission et éventuellement suspendre le trafic. Vous devez redémarrer le système pour résoudre ce problème.
Messages incomplets dans le journal système
L'utilitaire NVMUpdate peut écrire plusieurs messages incomplets dans le journal système.
Ces messages prennent la forme suivante :
in the driver Pci Ex config function byte index 114
in the driver Pci Ex config function byte index 115
Vous pouvez ignorer ces messages.
Le compteur de la somme de contrôle effectue une incrémentation incorrecte lors de
l'utilisation de VxLAN
Lorsque vous transmettez du trafic non-UDP sur une interface VxLAN, le compteur port.rx_csum_bad effectue
l'incrémentation des paquets.
Réinitialisation des compteurs de statistiques lors du changement du mode promiscuous
Le changement du mode promiscuous (mode de proximité) entraîne la réinitialisation du pilote de fonction physique.
Cela entraîne la réinitialisation du compteur de statistiques.
Aucun lien établi à la machine virtuelle
Si plusieurs ports sont affectés à la machine virtuelle et que ces ports sont associés à différents ports physiques, vous
ne pourrez peut-être pas obtenir de liaison sur tous les ports virtuels. La commande suivante peut permettre de
résoudre le problème :
ethtool -r <PF>
Où <PF> est l'interface PF dans l'hôte, par exemple : p5p1. Vous devrez peut-être exécuter plusieurs fois la commande
pour obtenir un lien sur tous les ports virtuels.
Changement inattendu de l'adresse MAC d'une fonction virtuelle (VF)
Si l'adresse MAC d'une fonction virtuelle n'est pas assignée à l'hôte, le pilote de la fonction virtuelle (VF) utilisera une
adresse MAC aléatoire. Cette adresse MAC aléatoire peut changer à chaque fois que le pilote VF est rechargé. Vous
pouvez attribuer une adresse MAC statique dans la machine hôte. Cette adresse MAC statique sera conservée après
le rechargement d'un pilote VF.
La modification du nombre de files d'attente de réception ou de transmission en utilisant ethtool -L peut causer une panique du noyau
La modification du nombre de files d'attente de réception ou de transmission en utilisant ethtool -L pendant que le trafic
est en cours et que l'interface est active peut causer une panique du noyau. Commencez par arrêter l'interface pour éviter le problème. Par exemple :
ip link set ethx down
ethtool -L ethx combined 4
Échec incorrectement signalé de l'ajout d'une règle Sideband à Flow Director
Si vous essayez d'ajouter une règle à Flow Director alors qu'il n'y a plus d'espace disponible pour la règle Sideband,
i40e consigne une erreur indiquant que la règle ne peut pas être ajoutée, mais ethtool signale le succès de l'opération.
Vous pouvez supprimer des règles pour libérer de l'espace. Vous pouvez aussi supprimer la règle qui a échoué. Vous
la retirez ainsi de la mémoire cache du pilote.
Sideband Logic de Flow Director ajoute un filtre dupliqué
Sideband Logic de Flow Director ajoute un filtre dupliqué dans la liste des filtres logiciels si l'emplacement n'est pas
spécifié ou qu'il est spécifié mais qu'il est différent de l'emplacement du précédent tout en ayant les mêmes critères de
filtre. Dans ce cas, le second des deux filtres qui apparaissent est le filtre valide dans le matériel et il décide de l'action
de filtre.
Plusieurs interfaces sur le même réseau de diffusion Ethernet
En raison du comportement ARP par défaut sur Linux, il n’est pas possible qu’un système sur deux réseaux IP dans le
même domaine de diffusion Ethernet (commutateur non partitionné) se comporte normalement. Toutes les interfaces
Ethernet répondront au trafic IP pour toute adresse IP affectée au système. Il en résultera un trafic de réception non
équilibré.
Si un serveur dispose de plusieurs interfaces, activez le filtrage ARP en entrant :
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Ce processus fonctionne uniquement avec des noyaux de version supérieure à 2.4.5.
REMARQUE : ce paramètre n’est pas sauvegardé lors des redémarrages. Vous pouvez rendre la modification
de configuration permanente en ajoutant la ligne suivante dans le fichier /etc/sysctl.conf :
net.ipv4.conf.all.arp_filter = 1
Une autre solution consiste à installer les interfaces dans des domaines de diffusion séparés (sur différents commutateurs ou sur un commutateur partitionné aux réseaux locaux virtuels).
Problème de perte de paquet lors du test de montée en charge UDP
Sous une montée en charge de petits paquets UDP avec le pilote i40e, le système peut abandonner des paquets UDP
à la suite de la saturation des sockets. Vous pouvez résoudre le problème en réglant les variables Contrôle de flux
(Flow Control) du pilote sur la valeur minimale. Vous pouvez également essayer d'augmenter les tailles de tampon par
défaut du noyau en modifiant les valeurs sous /proc/sys/net/core/rmem_default et rmem_max
Débranchement du câble réseau alors qu'ethtool -p est en cours d’exécution
Sur les noyaux de versions 2.6.32 et supérieures, le clavier système ne répond plus (sauf à la commande
Ctrl+Alt+Supp.) si le câble réseau est débranché alors que ethtool -p est en cours d’exécution. Le redémarrage du système semble être le seul recours.
Erreurs d’allocation de la page de réception
Des erreurs de type 'Échec d'allocation de page. ordre : 0' peuvent se produire en cas de montée en charge avec les
noyaux 2.6.25 et de versions supérieures.
Cela est dû à la façon dont le noyau Linux signale cette condition de stress.
Performances inférieures aux attentes
Certains connecteurs PCIe x8 sont en fait configurés comme des connecteurs x4. Ces connecteurs ont une bande passante insuffisante pour les débits de ligne avec des périphériques à 2 et 4 ports. En outre, si vous placez une carte
réseau compatible PCIe Generation 3 sur un connecteur PCIe Generation 2, vous n'obtiendrez pas la totalité de la
bande passante. Le pilote détecte cette situation et écrit le message suivant dans le journal système :
"PCI-Express bandwidth available for this card is not sufficient for optimal performance. For optimal performance a x8
PCI-Express slot is required" (La bande passante PCI-Express disponible pour cette carte est insuffisante pour obtenir
des performances optimales. Pour des performances optimales, un connecteur PCI-Express x8 est exigé).
Si cette erreur se produit, placez la carte dans un véritable connecteur PCIe Generation 3 x8 pour résoudre le problème.
Il est possible qu'ethtool affiche incorrectement un module SFP+ Fiber comme un
câble à fixation directe
En raison de limitations du noyau, le type de port ne peut être affiché correctement que sur les noyaux 2.6.33 ou de versions supérieures.
L'exécution de la commande ethtool -t ethX cause des plantages entre la PF et le
client test
En présence de VF actives, "ethtool -t" effectue un diagnostic complet. Au cours de ce processus, il se réinitialise, ainsi
que toutes les VF liées. Les pilotes VF subissent une perturbation, mais sont en mesure de récupérer.
Activation de SR-IOV sur un SE invité Microsoft* Windows Server* 2012/R2 64 bits
sous Linux KVM
KVM Hypervisor/VMM prend en charge l’attribution d’un périphérique PCIe vers un VM. Cela comprend les appareils
PCIe classiques ainsi que les périphériques compatibles SR-IOV utilisant les contrôleurs Intel® XL710.
Impossible d’obtenir le bail DHCP au démarrage avec Red Hat
Dans les configurations où la négociation automatique prend plus de cinq secondes, le script de démarrage risque
d'échouer avec le message suivant :
"ethX: failed. No link present. Check cable?"
Cette erreur peut se produire même si la présence de lien peut être confirmée en utilisant ethtool ethx. Dans ce cas,
essayez de définir "LINKDELAY=30" dans /etc/sysconfig/network-scripts/ifdfg-ethx.
Le même problème peut se produire pendant un démarrage réseau (via PXE) sur les distributions RedHat qui utilisent
le script dracut :
"Attention : aucune porteuse détectée sur l'interface <nom_interface>"
Dans ce cas, ajoutez "rd.net.timeout.carrier=30" à la ligne de commande du noyau.
REMARQUE : la durée du lien peut varier. Ajustez la valeur de LINKDELAY en conséquence. Il est également
possible d’utiliser NetworkManager pour configurer les interfaces, ce qui évite d’avoir à définir des délais. Pour
savoir comment effectuer des configurations à l’aide de NetworkManager, reportez-vous à la documentation
fournie avec votre distribution.
Le chargement du pilote i40e dans les noyaux 3.2.x et supérieurs affiche le message
comme quoi le noyau est taché (tainted)
En raison de modifications récentes du noyau, le chargement d’un pilote "out of tree" "tache" le noyau.
Pontage de centre de données (DCB) pour Connexions
réseau Intel® :
Data Center Bridging offre une couche de transport de centre de données sans perte pour l'utilisation des LAN et SAN
dans un maillage unifié unique.
Le Pontage de centre de données inclut les fonctionnalités suivantes :
l
Priority-based flow control (PFC ; IEEE 802.1Qbb) (Contrôle de flux basé sur des priorités)
l
Enhanced transmission selection (ETS ; IEEE 802.1Qaz) (Sélection améliorée des transmissions)
l
Congestion notification (CN) (Notification de congestion)
l
Extensions de la norme Link Layer Discovery Protocol (IEEE 802.1AB) permettant l’utilisation du protocole
DCBX (Data Center Bridging Capability Exchange)
Deux versions de DCBX sont prises en charge :
Version CEE : la spécification est accessible en suivant un lien dans le document suivant : http://www.ieee802.org/1/files/public/docs2008/dcb-baseline-contributions-1108-v1.01.pdf
Version IEEE : la spécification est accessible en suivant un lien dans le document suivant : https://standards.ieee.org/findstds/standard/802.1Qaz-2011.html
REMARQUE : la pile DCBX du SE est par défaut la version CEE de DCBX et, si un pair transmet des TLV IEEE,
elle passera automatiquement à la version IEEE.
Pour davantage d’informations sur DCB, y compris la spécification du protocole DCBX, visitez le site
http://www.ieee802.org/1/pages/dcbridges.html.
Configuration de DCB pour Windows :
Les fonctions DCB de la carte réseau Ethernet Intel peuvent être configurées à l'aide du Gestionnaire de périphériques
Windows. Ouvrez la feuille de propriétés de la carte et sélectionnez l'onglet Data Center.
Vous pouvez utiliser Intel® PROSet pour effectuer les tâches suivantes :
l
Afficher l'état :
l
Sélection de transmission avancée
l
Contrôle de flux des priorités (Priority Flow Control)
l
FCoE Priority
État non opérationnel : si l'indicateur d'état indique que DCB n'est pas opérationnel, plusieurs raisons
peuvent en être la cause.
l
Le pontage de centre de données n'est pas activé - cochez la case pour activer le pontage de
centre de données.
l
Une ou plusieurs fonctionnalités DCB se trouvent dans un état non opérationnel. Les fonctionnalités qui contribuent à l’état non opérationnel sont PFC et APP:FCoE.
l
l
Un état non opérationnel est généralement dû à l’activation des fonctionnalités Use Switch Settings
(Utilisation des paramètres du commutateur) ou Using Advanced Settings (Utilisation des paramètres
avancés). Cette activation résulte habituellement de difficultés de communication des informations sur
les fonctionnalités DCB avec le commutateur. Les problèmes possibles comprennent :
l
Une des fonctionnalités n’est pas prise en charge par le commutateur.
l
Le commutateur n'annonce pas la fonctionnalité ;
l
Le commutateur ou l’hôte a désactivé la fonctionnalité (sur l’hôte, il s’agirait d’une fonctionnalité
avancée).
Désactiver/Activer le DCB
Informations de dépannage
Hyper-V (DCB et VMQ)
REMARQUE : la configuration du mode VMQ + DCB réduit le nombre de VMQ disponibles pour les SE invités.
DCB pour Linux
DCB est pris en charge sur RHEL 6 ou version ultérieure ou SLES11 SP1 ou version ultérieure. Pour des informations
spécifiques, consultez la documentation de votre système d’exploitation.
iSCSI Over DCB
Les cartes Ethernet Intel® prennent en charge les initiateurs de logiciel iSCSI natifs sur le système d’exploitation sousjacent. Le pontage de centre de données (DCB) est le plus souvent configuré au niveau du commutateur. Si le commutateur n’est pas compatible avec le DCB, l’établissement de liaison DCB échoue mais la connexion iSCSI n’est pas
perdue.
REMARQUE : DCB ne s'installe pas dans une machine virtuelle. iSCSI over DCB n'est pris en charge que dans
le système d'exploitation de base. Un initiateur iSCSI fonctionnant dans une machine virtuelle ne tirera aucun
avantage des améliorations de DCB Ethernet.
Configuration de Microsoft Windows
L’installation iSCSI comprend l’installation de l’agent iSCSI DCB (iscsidcb.exe), qui est un service de mode utilisateur.
L'initiateur du logiciel Microsoft iSCSI permet de connecter un hôte Windows à une batterie de disques de stockage
externe iSCSI en utilisant une carte Ethernet Intel. Veuillez consulter la documentation de votre système d'exploitation
pour connaître les détails de configuration.
Activez DCB sur la carte par la méthode suivante :
1. Dans Windows Device Manager (Gestionnaire de périphériques Windows), ouvrez Networking Adapters
(Cartes réseau) et mettez en surbrillance la carte appropriée (comme la carte réseau Ethernet Intel® X520 pour
serveurs). Cliquez avec le bouton droit de la souris sur Intel adapter (Carte Intel) et sélectionnez Properties
(Propriétés).
2. Dans Property Page (Page propriétés), sélectionnez l’onglet Data Center (Centre de données).
L’onglet Data Center (Centre de données) permet d’obtenir un retour d’information comme l’état du DCB, opérationnel
ou non opérationnel, ainsi que les détails supplémentaires, même s’ils sont non opérationnels.
Utilisation d’iSCSI over DCB avec l’association ANS
L’agent Intel® iSCSI est responsable du maintien de tous les routeurs filtrants en ce qui concerne le trafic iSCSI de balisage de priorité sur les cartes activée DCB. L’agent iSCSI crée et maintient un filtre de trafic pour une association ANS
si au moins un membre de l’association a un état DCB "opérationnel". Cependant, si une carte de l’association n’a pas
l’état DCB "opérationnel", l’agent iSCSI enregistre une erreur pour cette carte dans le journal d’événements Windows.
Ces messages d’erreur signalent à l’administrateur les problèmes de configuration qui doivent être traités, mais n’ont
aucun effet sur le balisage ou le flux du trafic iSCSI de cette association, à moins que le retrait du filtre TC ne soit mentionné.
Configuration Linux
Dans le cas de distributions Open Source, pratiquement toutes les distributions prennent en charge un initiateur de
logiciel iSCSI ouvert et les cartes Ethernet Intel® les prennent en charge. Consultez la documentation traitant de votre
distribution pour obtenir plus de détails de configuration sur chaque initiateur iSCSI ouvert.
Les cartes Intel® avec chipset 82599 et X540 prennent en charge l'iSCSI dans un nuage de Pontage de centre de données. Utilisée avec les commutateurs et les cibles prenant en charge la fonction TVL de l’application iSCSI/DCB, cette
solution peut garantir la bande passante minimum pour le trafic iSCSI entre l’hôte et la cible. Cette solution permet aux
administrateurs de stockage de segmenter le trafic iSCSI du trafic du réseau local, de la même façon qu’ils peuvent
actuellement segmenter le FCoE à partir du trafic du réseau local. Auparavant, le trafic iSCSI dans un environnement
pris en charge par DCB était considéré comme un trafic de réseau local par les fournisseurs de commutateur. Consultez votre fournisseur de commutateurs et de cibles pour vérifier qu’il prend en charge la fonction TVL de
l’application iSCSI/DCB.
Démarrage à distance
Le démarrage à distance vous permet de démarrer un système en utilisant uniquement une carte Ethernet. Vous vous
connectez à un serveur qui contient une image du système d'exploitation et l'utilise pour démarrer votre système local.
Images Flash
"Flash" est un terme générique désignant la RAM non volatile (NVRAM), le microprogramme et la ROM optionnelle
(OROM). En fonction du périphérique, la mémoire flash peut se trouver sur la carte réseau ou sur la carte mère.
Mise à jour de la mémoire flash à partir de Linux
L'utilitaire de ligne de commande BootUtil peut mettre à jour la mémoire flash d'une carte réseau Ethernet Intel. Exécutez BootUtil avec les options de ligne de commande suivantes pour mettre à jour la mémoire flash sur toutes les
cartes réseau Intel prises en charge. Entrez par exemple la ligne de commande suivante :
bootutil64e –up=efi –all
BootUtil ne peut être utilisé que pour programmer des cartes d'extension réseau Intel. Les connexions réseau LOM
(LAN On Motherboard) ne peuvent pas être programmées à l'aide de la ROM optionnelle du pilote réseau UEFI.
Consultez le fichier bootutil.txt pour les détails sur l'utilisation de BootUtil.
Installation de la ROM optionnelle du pilote réseau UEFI depuis le shell
UEFI
L'utilitaire de ligne de commande BootUtil peut installer le pilote réseau UEFI sur la ROM optionnelle d'une carte
réseau Intel. Le pilote réseau UEFI se charge automatiquement lors du démarrage UEFI du système lorsqu'il est installé dans la ROM optionnelle. Par exemple, exécutez BootUtil avec les options de ligne de commande suivantes pour
installer le pilote réseau UEFI sur toutes les cartes réseau Intel prises en charge :
FS0:\>bootutil64e –up=efi –all
BootUtil ne peut être utilisé que pour programmer des cartes d'extension réseau Ethernet Intel supplémentaires. Les
connexions réseau LOM (LAN On Motherboard) ne peuvent pas être programmées à l'aide de la ROM optionnelle du
pilote réseau UEFI.
Consultez le fichier bootutil.txt pour les détails sur l'utilisation de BootUtil.
Activation du démarrage à distance
Si une carte Intel pour PC de bureau est installée sur votre ordinateur, le périphérique ROM flash est déjà disponible et
aucune installation n'est nécessaire. Pour les cartes réseau Intel pour serveurs, la ROM flash peut être activée avec
l'utilitaire BootUtil. Par exemple, à partir de l'invite de commande, tapez :
BOOTUTIL -E
BOOTUTIL -NIC=1 -FLASHENABLE
La première ligne énumère les ports disponibles dans le système. Choisissez un port. Puis tapez la seconde ligne en
sélectionnant le port à activer. Pour plus de détails, consultez le fichier bootutil.txt.
Cartes réseau Intel dans le menu de démarrage (Boot Menu)
La section Boot Menu du gestionnaire de démarrage Boot Manager signale les ports compatibles PXE sur une carte
réseau Intel x710 comme des ports 40G, comme le montre la figure suivante. En fait les ports d'une carte x710 sont des
ports 10G.
Dans le menu Boot du gestionnaire de démarrage Boot Manager, les cartes réseau Intel sont identifiées de la manière
suivante :
l
Cartes réseau contrôlées par X710 : "IBA 40G"
l
Autres cartes réseau 10G : "IBA XE"
l
Cartes réseau 1G : "IBA 1G"
Configuration d'Intel® Boot Agent
Configuration du client Boot Agent
Le logiciel Intel® Boot Agent propose des options de configuration permettant de personnaliser son exécution. Vous
pouvez configurer Intel® Boot Agent dans les environnements suivants :
l
Un environnement Microsoft* Windows*
l
Un environnement Microsoft* MS-DOS*
l
Un environnement de pré-démarrage (avant le chargement du système d'exploitation)
Intel® Boot Agent prend en charge PXE dans les environnements de pré-démarrage, Microsoft Windows* et DOS.
Dans chacun de ces environnements, une interface utilisateur unique vous permet de configurer les protocoles PXE
sur les cartes réseau Ethernet Intel®.
Configuration d'Intel® Boot Agent dans un environnement Microsoft Windows
Si le système d'exploitation Windows est installé sur l'ordinateur client, vous pouvez utiliser le programme Intel®
PROSet pour le Gestionnaire de périphériques Windows* afin de configurer et de mettre à jour le logiciel Intel® Boot
Agent. Intel® PROSet est disponible via le Gestionnaire de périphériques Windows. Intel® PROSet contient l'onglet
spécial Boot Options qui permet de configurer et de mettre à jour le logiciel Intel® Boot Agent.
Pour accéder à l'onglet Options de démarrage :
1. Ouvrez Intel® PROSet pour le Gestionnaire de périphériques Windows en ouvrant le Panneau de configuration
Système. Sous l'onglet Matériel, cliquez sur Gestionnaire de périphériques.
2. Sélectionnez la carte appropriée et cliquez sur l'onglet Options de démarrage. S'il n'apparaît pas, mettez votre
pilote réseau à jour.
3. L'onglet Options de démarrage contient la liste des paramètres de configuration en cours et leurs valeurs. Les
valeurs de configuration correspondant au paramètre sélectionné apparaissent dans une liste déroulante.
4. Sélectionnez le paramètre à modifier dans la zone de sélection Paramètres.
5. Sélectionnez la valeur du paramètre dans la liste déroulante Value (Valeur).
6. Répétez les deux opérations précédentes pour changer d'autres paramètres.
7. Une fois les modifications effectuées, cliquez sur le bouton Appliquer les modifications pour mettre à jour les
valeurs de la carte.
Configuration d'Intel® Boot Agent dans un environnement de pré-démarrage PXE
REMARQUE : Intel® Boot Agent peut être désactivé dans le BIOS.
Vous pouvez personnaliser l'exécution du logiciel Intel® Boot Agent via un programme de configuration de pré-démarrage (indépendant du système d'exploitation) figurant dans la ROM flash de la carte. Vous pouvez accéder à ce programme de configuration de pré-démarrage lors de chaque cycle de démarrage de l'ordinateur.
Lorsque la procédure de redémarrage commence, l'écran s'efface et l'ordinateur lance la procédure d'autotest à la
mise sous tension. Peu après l'autotest POST, le logiciel Intel® Boot Agent, stocké dans la ROM flash, s'exécute. Intel®
Boot Agent affiche ensuite un message d'initialisation, similaire à celui qui figure ci-dessous, pour indiquer qu'il est
actif.
Initializing Intel(R) Boot Agent Version X.X.XX PXE 2.0 Build 083
REMARQUE : il se peut que cet écran soit masqué par l'écran de bienvenue du fabricant. Pour des détails,
consultez la documentation du fabricant.
Le menu de configuration affiche la liste des paramètres de configuration à gauche et les valeurs correspondantes à
droite. Les descriptions de touches figurant au bas du menu indiquent comment changer les valeurs des paramètres
de configuration. Chaque fois que vous sélectionnez un paramètre, une brève description de la fonction du paramètre
s'affiche juste au-dessus des descriptions de touches.
1. Utilisez les touches de déplacement pour sélectionner le paramètre à modifier.
2. Une fois le paramètre sélectionné, appuyez sur la barre d'espacement pour afficher la valeur appropriée.
3. Une fois les modifications effectuées, appuyez sur F4 pour appliquer les nouvelles valeurs à la carte. Toutes
les modifications apportées à la configuration sont appliquées lors de la reprise du démarrage.
Le tableau ci-dessous répertorie les paramètres de configuration accompagnés de leurs valeurs et d'une description
détaillée :
Paramètre de
configuration
Valeurs
possibles
Network Boot Protocol
PXE (Preboot
eXecution
Environment)
Description
Sélectionnez PXE pour une utilisation avec des programmes
d'administration réseau, tels que LANDesk* Management Suite.
REMARQUE : selon la configuration d'Intel® Boot Agent, ce paramètre peut
ne pas être modifiable.
Boot Order
Utiliser
l'ordre de
démarrage
configuré
dans le BIOS.
Essayer le
réseau
d'abord, puis
les disques
locaux.
Essayer les
disques
locaux
d'abord, puis
le réseau.
Définit l'ordre de démarrage des périphériques si l'ordinateur ne dispose
pas de sa propre méthode de contrôle.
Si le BIOS de l'ordinateur client prend en charge la spécification BBS (BIOS
Boot Specification) ou permet de sélectionner l'ordre de démarrage compatible PnP dans son programme de configuration, le paramètre correspondra toujours à Use BIOS Setup Boot Order (Utiliser l'ordre de
démarrage configuré dans le BIOS) et ne peut pas être modifié. Dans ce cas,
reportez-vous au manuel de configuration du BIOS spécifique à l'ordinateur
client pour configurer les options de démarrage.
Si l'ordinateur client ne dispose pas d'un BIOS compatible BBS ou Plug &
Play, vous pouvez sélectionner n'importe quelle autre valeur possible du
paramètre, à l'exception de Utiliser l'ordre de démarrage configuré dans le
BIOS.
Essayer le
réseau uniquement.
Essayer les
disques
locaux uniquement.
Legacy OS
Wakeup Support
(Pour les cartes
réseau 82559 uniquement)
0 = Désactivée (par
défaut)
1 = Activée
Si le paramètre est défini sur 1, Intel® Boot Agent active PME dans l'espace
de configuration PCI de la carte lors de l'initialisation. Cela permet le réveil à
distance sur les systèmes d'exploitation hérités ne le prenant généralement
pas en charge. Notez que lorsque cette fonctionnalité est activée, la carte
n'est techniquement plus conforme à la spécification ACPI, c'est pourquoi
elle est désactivée par défaut.
REMARQUE : si plusieurs cartes sont installées sur un ordinateur à l'occasion d'un démarrage PXE et que vous
souhaitez utiliser la ROM de démarrage située sur une carte spécifique, installez la carte en haut de l'ordre de
démarrage configuré dans le BIOS ou désactivez la mémoire flash sur les autres cartes.
Configuration Intel® Boot Agent du serveur/de la cible
Présentation
Pour que le logiciel Intel® Boot Agent fonctionne correctement, il doit exister un serveur sur le même réseau que le
client. Ce serveur doit reconnaître et prendre en charge les protocoles de démarrage PXE ou BOOTP utilisés par
Intel® Boot Agent.
REMARQUE : lorsque le logiciel Intel® Boot Agent est installé en tant que mise à jour d'une ancienne version
de la ROM de démarrage, le logiciel associé sur le serveur risque de ne pas être compatible avec la nouvelle
version d'Intel® Boot Agent. Contactez l'administrateur système pour déterminer si une mise à jour serveur est
nécessaire.
Mise en place d'un serveur Linux*
Contactez votre éditeur Linux* pour obtenir des informations sur la configuration du serveur Linux.
Windows* Deployment Services (services de déploiement Windows)
Seuls sont nécessaires les fichiers de pilote standard fournis sur le support. Microsoft* est propriétaire du processus et
des instructions connexes pour les services de déploiement Windows. Pour plus d'informations sur les services de
déploiement Windows, effectuez une recherche dans les articles de Microsoft à l'adresse : http://technet.microsoft.com/en-us/library/default.aspx
Messages d'Intel® Boot Agent
Texte du message
Cause
Invalid PMM function number
(numéro de fonction PMM non
valide).
PMM n'est pas installé ou ne fonctionne pas correctement. Mettez à niveau le
BIOS.
PMM allocation error (erreur
d'allocation PMM).
PMM n'a pas pu ou n'a pas alloué la quantité de mémoire demandée nécessaire au pilote.
Option ROM initialization error.
64-bit PCI BAR addresses not
supported, AX= (Erreur
d'initialisation de la ROM optionnelle. Adresses PCI BAR 64 bits
non prises en charge, AX=)
Cela peut être dû au fait que le BIOS système attribue unregistre des adresses
de base (BAR ou Base Address Register) de 64 bits au port réseau.
L'exécution de l'utilitaire BootUtil avec la ligne de commande -64d peut
résoudre le problème.
PXE-E00 : This system does not
have enough free conventional
memory (le système ne dispose
pas de la quantité de mémoire
conventionnelle suffisante).
Intel® Boot Agent ne peut continuer à s'exécuter (Boot Agent ne
peut continuer à s'exécuter.)
Le système ne dispose pas de la quantité de mémoire suffisante pour exécuter
l'image PXE. Intel® Boot Agent n'a pas trouvé une quantité de mémoire de
base suffisante (elle est inférieure à 640 Ko) pour installer le client PXE. Le système ne peut pas démarrer via PXE dans sa configuration actuelle. Le BIOS
reprend le contrôle et le système ne tente pas de lancer le démarrage à distance. Si cette erreur persiste, mettez le BIOS du système à jour en utilisant la
toute dernière version. Contactez l'administrateur système ou l'assistance clientèle du fabricant de l'ordinateur pour résoudre le problème.
PXE-E01: PCI Vendor and
Device IDs do not match! (les ID
du constructeur PCI et du périphérique ne correspondent pas)
Le fournisseur de l'image et l'ID du périphérique ne correspondent pas à ceux
de la carte. Assurez-vous que l'image flash appropriée est installée sur la
carte.
PXE-E04: Error reading PCI configuration space (erreur de lecture
de l'espace de configuration
PCI). Intel® Boot Agent ne peut
continuer à s'exécuter (Boot
Agent ne peut continuer à
s'exécuter.)
Impossible de lire l'espace de configuration PCI. Il s'agit probablement d'une
machine non compatible PCI. Intel® Boot Agent n'a pas pu lire au moins un
registre de configuration PCI de la carte. La carte est mal configurée ou
contient une image d'Intel® Boot Agent incorrecte. Intel® Boot Agent rend le
contrôle au BIOS et ne tente pas de lancer le démarrage à distance. Mettez à
jour l'image flash. Si l'incident persiste, contactez l'administrateur système ou
contactez l'assistance clientèle d'Intel.
PXE-E05 : The LAN adapter's
configuration is corrupted or has
not been initialized (la configuration de la carte de réseau
local est endommagée ou n'a
pas été initialisée). Intel® Boot
Agent ne peut continuer à
s'exécuter (Boot Agent ne peut
continuer à s'exécuter.)
La mémoire EEPROM de la carte est altérée. Intel® Boot Agent a détecté que
la somme de contrôle EEPROM de la carte est incorrecte. L'agent rend le
contrôle au BIOS et ne tente pas de lancer le démarrage à distance. Mettez à
jour l'image flash. Si l'incident persiste, contactez l'administrateur système ou
contactez l'assistance clientèle d'Intel.
PXE-E06: Option ROM requires
Le BIOS système ne prend pas en charge DDIM. Le BIOS ne prend pas en
Pour remédier à ce problème sur la carte réseau Ethernet X710 ou
XL710 Intel®, désactivez les modes NPar et NParEP. Vous pouvez également
faire passer le système en mode d'amorçage UEFI.
DDIM support (l'option ROM
nécessite le support DIMM).
charge le mappage des ROM d'extension PCI dans la mémoire supérieure,
comme exigé par les spécifications PCI. Intel® Boot Agent ne peut pas fonctionner dans ce système. Intel® Boot Agent rend le contrôle au BIOS et ne
tente pas de lancer le démarrage à distance. Tentez de résoudre le problème
en mettant à niveau le BIOS du système. Si cette opération ne résout pas le problème, contactez l'administrateur système ou l'assistance technique du fabricant de l'ordinateur.
PXE-E07: PCI BIOS calls not supported (appels BIOS PCI non pris
en charge).
Services PCI du BIOS non disponibles. Il s'agit probablement d'une machine
non compatible PCI.
PXE-E09: Unexpected UNDI loader error (erreur de chargeur
UNDI inattendue). Status (état)
== xx
Le chargeur d'interface UNDI a renvoyé un état d'erreur inconnu. L'état renvoyé est xx.
PXE-E20: BIOS extended
memory copy error (erreur de
copie en mémoire étendue
BIOS).
Le BIOS n'a pas pu placer l'image dans la mémoire étendue.
PXE-E20: BIOS extended
memory copy error (erreur de
copie en mémoire étendue
BIOS). AH == xx
Une erreur s'est produite en tentant de copier l'image dans la mémoire étendue. xx est le code d'échec du BIOS.
PXE-E51: No DHCP or BOOTP
offers received (aucune offre
DHCP ou BOOTP reçue).
Intel® Boot Agent n'a pas reçu de réponse DHCP ou BOOTP à sa demande initiale. Vérifiez que le serveur DHCP (et/ou le serveur proxyDHCP, le cas
échéant) est correctement configuré et qu'il dispose de suffisamment
d'adresses IP à affecter. Si vous utilisez BOOTP, vérifiez que le service BOOTP
est actif et correctement configuré.
PXE-E53: No boot filename received (aucun nom de fichier de
démarrage reçu).
Intel® Boot Agent a reçu une offre DHCP ou BOOTP, mais pas de nom de
fichier valide à télécharger. Si vous utilisez PXE, vérifiez la configuration PXE
et BINL. Si vous utilisez BOOTP, vérifiez que le service est actif et que le chemin d’accès et le nom de fichier sont corrects.
PXE-E61: Media test failure
(échec du test du support).
La carte n'a pas détecté de liaison. Vérifiez l'état du câble et que ce dernier est
connecté à un concentrateur ou un commutateur qui fonctionne correctement.
Le voyant de liaison sur la face arrière de la carte doit être allumé.
PXE-EC1: Base-code ROM ID
structure was not found (structure
d'ID ROM du code de base introuvable).
Aucun code de base trouvé. Une image flash incorrecte est chargée ou l'image
a été altérée. Mettez à jour l'image flash.
PXE-EC3: BC ROM structure is
invalid (structure d'ID ROM de
code de base non valide).
Le code de base n'a pas pu être installé. Une image flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash.
PXE-EC4: UNDI ID structure was
not found. (structure d'ID UNDI
introuvable).
Signature ID ROM UNDI incorrecte. Une image flash incorrecte est chargée ou
l'image a été altérée. Mettez à jour l'image flash.
PXE-EC5: UNDI ROM ID structure is invalid (structure d'ID
ROM de code de base non
valide).
La longueur de la structure est incorrecte. Une image flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash.
PXE-EC6: UNDI driver image is
invalid (image de pilote UNDI
non valide).
La signature de l'image de pilote UNDI n'est pas valide. Une image flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash.
PXE-EC8: !PXE structure was not
found in UNDI driver code segment (structure !PXE non trouvée
dans UNDI)
Intel® Boot Agent n'a pas trouvé la structure !PXE nécessaire. Une image flash
incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image flash.
PXE-EC9: PXENV + structure
was not found in UNDI driver
code segment (structure PXENV
+ non trouvée dans UNDI)
Intel® Boot Agent n'a pas trouvé la structure PXENV+ nécessaire. Une image
flash incorrecte est chargée ou l'image a été altérée. Mettez à jour l'image
flash.
PXE-M0F: Exiting Intel Boot
Agent (quitter Intel® Boot Agent).
Fin de l'exécution de l'image en ROM.
This option has been locked and
cannot be changed (cette option
a été verrouillée et ne peut être
changée).
Vous avez tenté de changer un paramètre de configuration verrouillé par
l'administrateur système. Ce message peut apparaître dans l'onglet Options de
démarrage (Boot Options) d'Intel® PROSet sous Windows*, ou dans le menu
Setup (Configuration) dans un environnement autonome. Si vous voulez changer le paramètre de configuration, contactez l'administrateur système.
PXE-M0E: Retrying network
boot; press ESC to cancel (nouvelle tentative de démarrage
réseau ; appuyez sur ÉCHAP
pour annuler).
Intel® Boot Agent n'a pas réussi à démarrer le réseau en raison d'une erreur
réseau (telle que la non réception d'une offre DHCP). L'agent Intel® Boot
Agent continuera les tentatives de démarrage à partir du réseau jusqu'à ce
qu'il réussisse ou jusqu'à annulation par l'utilisateur. Cette fonctionnalité est
désactivée par défaut. Pour obtenir des informations sur l'activation de cette
fonctionnalité, contactez l'assistance à la clientèle d'Intel.
Cela peut également être dû au fait que le BIOS système attribue une adresse
BAR (Base Address Register) 64 bits au port réseau. L'exécution de l'utilitaire
BootUtil avec la ligne de commande -64d peut résoudre le problème.
Procédures de dépannage d'Intel® Boot Agent
Problèmes courants
La liste suivante de problèmes et de solutions associées répertorie les problèmes éventuels auxquels vous pouvez
être confrontés lors de l'utilisation d'Intel® Boot Agent.
Des problèmes apparaissent après le démarrage
Dès qu'Intel® Boot Agent a terminé d'exécuter son unique tâche (le démarrage à distance), il n'a plus aucun impact sur
le fonctionnement de l'ordinateur client. Par conséquent, tout problème survenant lorsque le processus de démarrage
est terminé est probablement pas sans rapport avec le logiciel Intel® Boot Agent.
Si les problèmes proviennent du système d'exploitation local (client) ou du réseau, contactez le fabricant du système
pour obtenir de l'aide. Si les problèmes concernent une application, contactez le fournisseur de l'application pour obtenir de l'aide. Pour tout problème concernant le matériel de l'ordinateur ou le BIOS, contactez le service d'assistance à
la clientèle du fabricant du système.
Impossible de modifier l'ordre de démarrage
Si vous redéfinissez habituellement l'ordre de démarrage de l'ordinateur à l'aide du programme de configuration du
BIOS de la carte mère, les paramètres par défaut du programme de configuration d'Intel® Boot Agent peuvent changer
cette configuration. Pour modifier la séquence de démarrage, vous devez tout d'abord annuler les valeurs par défaut
du programme de configuration d'Intel® Boot Agent. Un menu de configuration s'affiche pour vous permettre de définir
les valeurs de configuration d'Intel® Boot Agent. Pour modifier le paramètre d'ordre de démarrage de l'ordinateur,
consultez la rubrique Configuration de Boot Agent dans un environnement de pré-démarrage PXE.
L'ordinateur interrompt la séquence POST
Si l'ordinateur ne démarre pas alors qu'une carte est installée mais démarre sans difficulté lorsque vous la retirez,
essayez d'installer la carte sur un autre ordinateur et d'utiliser BootUtil pour désactiver la ROM flash.
Si le problème persiste, il se peut qu'il soit antérieur à l'exécution du logiciel Intel® Boot Agent. Dans ce cas, le problème provient du BIOS. Pour résoudre le problème, contactez le service d'assistance à la clientèle du fabricant de
l'ordinateur.
Des problèmes de configuration/de fonctionnement se produisent lors du processus de démarrage
Si votre client PXE reçoit une adresse DHCP mais ne parvient pas à démarrer, vous savez que le client PXE fonctionne correctement. Vérifiez la configuration de votre serveur réseau ou PXE pour détecter l'origine du problème. Contactez le service d'assistance à la clientèle d'Intel si vous avez besoin d'une assistance supplémentaire.
La ROM optionnelle PXE ne respecte pas les spécifications PXE en matière de cycle final de « détection ».
Afin d'éviter de longues attentes, la ROM optionnelle ne comprend plus le cycle final de détection de 32 secondes. (S'il
n'y a eu aucune réponse pendant le cycle de 16 secondes précédent, il est presque certain qu'il n'y en aura pas au
cours du cycle final de détection de 32 secondes.)
Configuration d'iSCSI Boot
Installation de l’initiateur iSCSI
Configuration du démarrage Intel® Ethernet iSCSI Boot sur un initiateur Microsoft*
Windows* Client
Conditions requises
1. Assurez-vous que le système de l’initiateur iSCSI démarre le microprogramme iSCSI Boot. Le microprogramme
doit être configuré correctement, pouvoir se connecter à la cible iSCSI et détecter le disque de démarrage.
2. Vous aurez besoin de l'initiateur logiciel Microsoft* iSCSI avec prise en charge du démarrage logiciel intégré.
Cette version de démarrage de l'initiateur est disponible ici.
3. Pour activer la prise en charge du vidage sur incident, suivez les étapes de Prise en charge du vidage sur incident.
Configuration d'Intel® Ethernet iSCSI Boot sur un initiateur de client Linux*
1. Installez les utilitaires de l’initiateur Open-iSCSI.
#yum -y install iscsi-initiator-utils
2. Consultez le fichier README (Lisez-moi) à l'adresse https://github.com/mikechristie/open-iscsi.
3. Configurez votre batterie de disques iSCSI pour obtenir l’accès.
a. Consultez /etc/iscsi/initiatorname.iscsi pour le nom de l’initiateur hôte Linux.
b. Mettez à jour votre gestionnaire de volume avec ce nom d’initiateur hôte.
4. Définissez iscsi pour démarrer au démarrage.
#chkconfig iscscd on
#chkconfig iscsi on
5. Démarrez le service iSCSI (192.168.x.x correspond à l’adresse IP de votre cible).
#iscsiadm -n discovery -t s -p 192.168.x.x
Observez les noms cibles donnés par la détection iscsi.
6. Connectez-vous sur la cible (-m XXX -T correspond à XXX -l XXX -).
iscsiadm -m node -T iqn.2123-01.com:yada:yada: -p 192.168.2.124 -l
Configuration POST d'iSCSI Boot
L’utilitaire Intel® Ethernet iSCSI Boot comporte un menu de configuration permettant d’activer deux ports réseau sur un
système comme des périphériques iSCSI Boot. Pour configurer Intel® iSCSI Boot, mettez le système sous tension ou
réinitialisez-le, puis appuyez sur les touches Ctrl-D lorsque le message "Press <Ctrl-D> to run setup..."
s’affiche. Une fois que vous avez appuyé sur les touches Ctrl-D, le menu Intel® iSCSI Boot de sélection des ports
s’ouvre.
REMARQUE : lors du démarrage d’un système d’exploitation depuis un disque local, Intel® Ethernet iSCSI Boot
doit être désactivé sur tous les ports réseau.
Menu Intel® Ethernet iSCSI Boot de sélection des ports
Le premier écran du menu de configuration Intel® iSCSI Boot affiche une liste des cartes compatibles avec Intel®
iSCSI Boot. Pour chaque port de la carte, l’adresse MAC associée, l’ID de périphérique PCI, l’emplacement du bus
PCI, du périphérique ou de la fonction et un champ indiquant l’état Intel® Ethernet iSCSI Boot s’affichent. Le menu de
sélection des ports peut afficher jusqu’à 10 ports compatibles avec iSCSI Boot. S’il existe d’autres cartes compatibles
avec Intel® iSCSI Boot, elles ne sont pas répertoriées dans le menu de configuration.
L’utilisation de ce menu est décrite ci-dessous :
l
Un port réseau du système peut être sélectionné comme port de démarrage principal en appuyant sur la
touche "P" une fois que le port est mis en surbrillance. Le port de démarrage principal sera le premier port utilisé par Intel® Ethernet iSCSI Boot pour connecter la cible iSCSI. Un seul port peut être sélectionné comme port
de démarrage principal.
l
Un port réseau du système peut être sélectionné comme port de démarrage secondaire en appuyant sur la
touche "S" une fois que le port est mis en surbrillance. Le port de démarrage secondaire sera utilisé pour se
connecter à la cible iSCSI uniquement si le port de démarrage principal ne peut pas établir la connexion. Un
seul port peut être sélectionné comme port de démarrage secondaire.
l
Appuyez sur la touche "D" lorsqu’un port réseau est mis en surbrillance pour désactiver Intel® Ethernet iSCSI
Boot sur ce port.
l
Appuyez sur la touche "B" lorsqu’un port réseau est mis en surbrillance pour faire clignoter un témoin sur ce
port.
l
Appuyez sur la touche Échap pour quitter l'écran.
Menu Intel® Ethernet iSCSI Boot spécifique aux ports
Le menu de configuration iSCSI spécifique aux ports possède quatre options :
l
Configuration d'Intel® iSCSI Boot - Sélectionnez cette option pour accéder au menu de configuration d’Intel®
iSCSI Boot. Le menu Configuration d'iSCSI Boot est décrit en détails dans la section ci-dessous ; il vous permettra de configurer les paramètres iSCSI du port réseau sélectionné.
l
Configuration de CHAP - Sélectionnez cette option pour accéder à l’écran de configuration CHAP. Le menu
Configuration de CHAP est décrit en détails dans la section ci-dessous.
l
Ignorer les modifications et quitter - Sélectionnez cette option pour ignorer toutes les modifications apportées
dans les écrans Configuration de iSCSI Boot et Configuration de CHAP et pour retourner au menu Intel® iSCSI
Boot de sélection des ports.
l
Enregistrer les modifications et quitter - Sélectionnez cette option pour enregistrer toutes les modifications
apportées dans les écrans Configuration de iSCSI Boot et Configuration de CHAP. Après avoir sélectionné
cette option, le menu Intel® iSCSI Boot de sélection des ports s’affiche.
Menu de configuration Intel® iSCSI Boot
Le menu Configuration de iSCSI Boot permet de configurer les paramètres de iSCSI Boot et IP (Internet Protocol) d’un
port spécifique. Les paramètres iSCSI peuvent être configurés manuellement ou récupérés de façon dynamique
depuis un serveur DHCP.
Vous trouverez ci-dessous les options du menu de configuration d’Intel® iSCSI Boot :
l
Utiliser une configuration IP dynamique (DHCP) - Cochez cette case pour que iSCSI Boot tente d’obtenir
l’adresse IP du client, le masque de sous-réseau et l’adresse IP de la passerelle d’un serveur DHCP. Si cette
case est cochée, les champs suivants ne sont pas visibles.
l
Nom de l’initiateur - Entrez le nom de l’initiateur iSCSI devant être utilisé par Intel® iSCSI Boot lors de la
connexion à une cible iSCSI. La valeur entrée dans ce champ est globale et utilisée par tous les ports activés
pour iSCSI Boot du système. Ce champ peut être laissé vide si la case "Use DHCP For Target Configuration" (Utiliser DHCP pour la configuration cible) est cochée. Pour obtenir des informations sur
l'obtention dynamique du nom de l'initiateur iSCSI d'un serveur DHCP, reportez-vous à la section Configuration
du serveur DHCP.
l
IP de l’initiateur - Entrez dans ce champ l’adresse IP du client devant être utilisée pour ce port dans une configuration IP statique. Cette adresse IP sera utilisée par le port pendant toute la session iSCSI. Cette option est
visible si DHCP n’est pas activé.
l
Masque de sous-réseau - Entrez l’adresse IP du masque de sous-réseau dans ce champ. Il s’agit de l’adresse
IP du masque de sous-réseau utilisé sur le réseau et auquel le port sélectionné se connectera pour iSCSI.
Cette option est visible si DHCP n’est pas activé.
l
IP de la passerelle - Entrez dans ce champ l’adresse IP de la passerelle réseau. Ce champ doit être rempli si
la cible iSCSI se trouve sur un sous-réseau différent de celui du port Intel® iSCSI Boot sélectionné. Cette option
est visible si DHCP n’est pas activé.
l
Utiliser DHCP pour les informations de la cible iSCSI - Cochez cette case pour que Intel® iSCSI Boot tente
d’obtenir l’adresse IP de la cible iSCSI, le numéro de port IP, le nom de la cible iSCSI et l’ID de l’unité logique
LUN SCSI d’un serveur DHCP du réseau. Pour obtenir des informations sur la configuration des paramètres
iSCSI de la cible en utilisant DHCP, voir la section Configuration du serveur DHCP. Lorsque cette case est
cochée, les champs suivants ne sont pas visibles.
l
Nom de la cible - Entrez dans ce champ le nom IQN de la cible iSCSI. Cette option est visible si DHCP n’est
pas activé pour la cible iSCSI.
l
IP de la cible - Entrez dans ce champ l’adresse IP de la cible iSCSI. Cette option est visible si DHCP n’est pas
activé pour la cible iSCSI.
l
Port de la cible - Numéro du port TCP.
l
Unité logique de démarrage - Entrez dans ce champ l’ID d'unité logique du disque de démarrage de la cible
iSCSI. Cette option est visible si DHCP n’est pas activé pour la cible iSCSI.
Configuration CHAP iSCSI
Intel® iSCSI Boot prend en charge l’authentification CHAP MD5 mutuelle avec une cible iSCSI. Intel® iSCSI Boot utilise l'algorithme "MD5 Message Digest Algorithm" pour l'authentification RSA.
Le menu iSCSI CHAP Configuration comporte les options suivantes pour activer l'authentification CHAP :
l
Utiliser CHAP - Cochez cette case pour activer l’authentification CHAP sur ce port. CHAP permet à la cible
d’authentifier l’initiateur. Après l’activation de l’authentification CHAP, le nom d’utilisateur et mot de passe de la
cible doivent être entrés.
l
Nom d’utilisateur - Entrez le nom d’utilisateur CHAP dans ce champ. Ce nom doit être identique au nom
d’utilisateur CHAP configuré sur la cible iSCSI.
l
Secret de la cible - Entrez le mot de passe CHAP dans ce champ. Il doit être identique au mot de passe CHAP
configuré sur la cible iSCSI et doit comporter entre 12 et 16 caractères. Ce mot de passe ne doit pas être identique au Secret de l’initiateur.
l
Utiliser CHAP mutuel - Cochez cette case pour activer l’authentification CHAP mutuelle sur ce port.
L’authentification CHAP mutuelle permet à l’initiateur d’authentifier la cible. Après l’activation de
l’authentification CHAP mutuelle, le mot de passe de l’initiateur doit être entré. L’authentification CHAP
mutuelle ne peut être sélectionnée que si l’option Utiliser CHAP est sélectionnée elle aussi.
l
Secret de l’initiateur - Entrez le mot de passe de l’authentification CHAP mutuelle dans ce champ. Ce mot de
passe doit également être configuré sur la cible iSCSI et doit comporter entre 12 et 16 caractères. Ce mot de
passe ne doit pas être identique au Secret de la cible.
La fonctionnalité d’authentification CHAP de ce produit nécessite les mentions suivantes :
Ce produit comprend un logiciel de cryptographie écrit par Eric Young ([email protected]). Ce produit comprend un
logiciel écrit par Tim Hudson ([email protected]).
Ce produit inclut un logiciel développé par l'OpenSSL Project en vue de l'utilisation dans l'OpenSSL Toolkit.
(http://www.openssl.org/)
Intel® PROSet pour le Gestionnaire de périphériques Windows*
Bon nombre des fonctions du menu Intel® iSCSI Boot de sélection des ports peuvent être configurées ou modifiées
depuis le Gestionnaire de périphériques Windows. Ouvrez la feuille de propriétés de la carte réseau et sélectionnez
l'onglet Data Options. Vous devez installer les pilotes et logiciels de carte réseau Ethernet Intel les plus récents pour y
accéder.
Configuration de la cible de démarrage iSCSI
Pour obtenir des informations spécifiques sur la configuration du système iSCSI cible et du volume disque, reportezvous aux instructions fournies par son fabricant. Vous trouverez ci-dessous les étapes de base nécessaires à la configuration du démarrage iSCSI Ethernet Intel® pour qu’il fonctionne avec la plupart des systèmes iSCSI cibles. Les
étapes peuvent être différentes en fonction du fabricant.
REMARQUE : pour que la cible prenne en charge iSCSI Boot, elle doit pouvoir prendre en charge plusieurs sessions du même initiateur. L’initiateur du microprogramme iSCSI Boot et l’initiateur High du SE doivent établir
une session iSCSI simultanément. Ces initiateurs utilisent tous les deux le même nom et la même adresse IP
pour se connecter et accéder au disque du SE, mais ils établissent des sessions iSCSI différentes. Pour que la
cible prenne en charge iSCSI Boot, elle doit pourvoir prendre en charge l’ouverture de plusieurs sessions et la
connexion de plusieurs clients.
1. Configurez un volume disque sur votre système iSCSI cible. Notez l’ID de l’unité logique de ce volume, qui sera
utilisé lors de la configuration du microprogramme du démarrage iSCSI Ethernet Intel®.
2. Notez le nom IQN (iSCSI Qualified Name) de la cible iSCSI qui devrait ressembler à ce qui suit :
iqn.1986-03.com.intel:target1
Cette valeur sera utilisée comme nom de la cible iSCSI lors de la configuration du microprogramme du démarrage iSCSI Ethernet Intel®.
3. Configurez le système iSCSI cible pour qu’il accepte la connexion iSCSI de l’initiateur iSCSI. Cela nécessite
habituellement que le nom IQN de l’initiateur ou l’adresse MAC soient répertoriés afin d’autoriser l’accès de
l’initiateur au volume de disque. Reportez-vous à la section Configuration du microprogramme pour obtenir des
informations sur la définition du nom de l'initiateur iSCSI.
4. Un protocole d’authentification à sens unique peut être activé optionnellement pour sécuriser les communications. Le protocole CHAP (Challenge-Handshake Authentication Protocol) peut être activé en configurant le nom d’utilisateur et le mot de passe sur le système iSCSI cible. Pour configurer CHAP sur l'initiateur
iSCSI, reportez-vous à la section Configuration du microprogramme pour plus de détails.
Démarrage depuis des cibles de taille supérieure à 2 To
Vous pouvez vous connecter et démarrer depuis une unité logique cible de taille supérieure à 2 téraoctets avec les restrictions suivantes :
l
La taille des blocs de la cible doit être de 512 octets.
l
Les systèmes d'exploitation suivants sont pris en charge :
l
VMware* ESX 5.0 ou versions ultérieures
l
Red Hat* Enterprise Linux* 6.3 ou versions ultérieures
l
SUSE* Enterprise Linux 11SP2 ou versions ultérieures
l
Microsoft* Windows Server* 2012 R2 ou versions ultérieures
l
Il est possible que vous ne puissiez accéder qu'au 2 premiers téraoctets de données.
REMARQUE : le pilote de vidage sur incident ne prend pas en charge les unités logiques cibles de taille supérieure à 2 To.
Configuration du serveur DHCP
Si vous utilisez le protocole DHCP (Dynamic Host Configuration Protocol), le serveur DHCP doit être configuré pour
fournir les configurations de démarrage iSCSI à l’initiateur iSCSI. Vous devrez configurer le serveur DHCP pour spécifier l'option Root Path 17 et l'option Host Name 12 pour renvoyer l'information de cible iSCSI à l'initiateur iSCSI.
L’option DHCP 3, liste des routeurs, peut être nécessaire, en fonction de la configuration du réseau.
Option de chemin d’accès racine DHCP 17 :
La chaîne de configuration de l’option du chemin d’accès racine iSCSI utilise le format suivant :
iscsi:<nom ou adresse IP du serveur>:<protocole>:<port>:<LUN>:<nom de la cible>
Nom du serveur : Nom du serveur DHCP ou adresse IPv4 littérale valide.
Exemple : 192.168.0.20.
l
Protocole : Protocole de transport utilisé par iSCSI. La valeur par défaut est TCP
(6).
Aucun autre protocole n’est pris en charge.
l
Port : Numéro du port de la cible iSCSI. La valeur par défaut 3260 est utilisée si
ce champ est laissé en blanc.
l
Unité logique : LUN ID de l’unité logique configuré sur le système iSCSI cible. La
valeur par défaut est zéro.
l
Nom de la cible : Nom de la cible iSCSI qui identifie de façon unique la cible
iSCSI au format IQN.
Exemple : iqn.1986-03,com.intel:target1
Option de nom d’hôte DHCP 12 :
l
Configurez l’option 12 avec le nom d’hôte de l’initiateur iSCSI.
Option DHCP 3, liste des routeurs :
Configure l’option 3 avec l’adresse IP de la passerelle ou du routeur, si l’initiateur iSCSI et la
cible iSCSI se trouvent sur des sous-réseaux différents.
Création d'une image de démarrage pour une cible iSCSI
Il existe deux façons de créer une image de démarrage sur une cible iSCSI :
l
Installation directe sur un disque dur d’une batterie de disques de stockage iSCSI (installation à distance).
l
Installation sur un disque dur local, puis transfert de ce disque dur ou de cette image de SE sur une cible iSCSI
(installation locale).
Microsoft* Windows*
Microsoft* Windows Server* prend en charge de façon native l’installation d'un SE sur une cible iSCSI sans disque
local et le démarrage iSCSI sous le SE. Voir les instructions d'installation de Microsoft et la documentation de Windows
Deployment Services pour plus de détails.
SUSE* Linux Enterprise Server
La méthode d’installation la plus facile de Linux sur une cible iSCSI consiste à utiliser SLES10 ou une version ultérieure. SLES10 fournit une prise en charge native du démarrage et de l’installation à distance iSCSI. Cela signifie
qu’aucune étape supplémentaire n’est nécessaire en dehors du programme d’installation pour installer sur une cible
iSCSI en utilisant une carte Ethernet Intel pour serveur. Reportez-vous à la documentation de SLES10 pour des instructions sur l’installation sur une unité logique iSCSI.
Red Hat Enterprise Linux
Pour faciliter l'installation de Linux sur une cible iSCSI, utiliser RHEL 5.1 ou une version supérieure. RHEL 5.1 fournit
une prise en charge native du démarrage et de l’installation à distance iSCSI. Cela signifie qu’aucune étape supplémentaire n’est nécessaire en dehors du programme d’installation pour installer sur une cible iSCSI en utilisant une
carte Ethernet Intel pour serveur. Reportez-vous à la documentation de RHEL 5.1 pour des instructions sur
l’installation sur une unité logique iSCSI.
Prise en charge du vidage sur incident iSCSI par Microsoft Windows Server
La création du fichier de vidage sur incident est prise en charge par le pilote de vidage sur incident iSCSI Intel pour
Windows Server x64. Pour assurer un vidage complet de la mémoire,
1. Définissez une taille de fichier d'échange égale ou supérieure à la quantité de mémoire vive installée sur le système pour vider complètement la mémoire ;
2. Veillez à ce que l'espace libre disponible sur le disque dur soit suffisant en fonction de la quantité de mémoire
vive installée sur le système.
Pour configurer la prise en charge du vidage sur incident, procédez comme suit :
1. Mise en place du démarrage iSCSI de Windows.
2. Si ce n'est déjà fait, installez les tout derniers pilotes de carte réseau Ethernet Intel et Intel® PROSet pour le
Gestionnaire de périphériques Windows.
3. Ouvrez Intel® PROSet pour le Gestionnaire de périphériques Windows et sélectionnez l’onglet Boot Options.
4. Depuis Settings (Paramètres), sélectionnez ISCSI Remote Boot Crash Dump (Vidage sur incident ISCSI
Remote Boot) et Value Enabled (Valeur activée), puis cliquez sur OK.
Dépannage d'iSCSI
Le tableau ci-dessous répertorie les problèmes pouvant survenir lors de l’utilisation du démarrage iSCSI Ethernet
Intel®. Une cause et une solution possibles sont fournies pour chaque problème.
Problème
Le démarrage iSCSI Ethernet Intel® ne se charge pas
lors du démarrage du système et la bannière
d’authentification ne s’affiche
pas.
Solution
l
l
l
l
Tandis que l’écran de connexion système peut s’afficher pendant plus longtemps lors du démarrage du système, le démarrage iSCSI Ethernet Intel®
peut ne pas s’afficher pendant le POST. Il peut s’avérer nécessaire de
désactiver une fonctionnalité du BIOS du système pour afficher les messages provenant du démarrage à distance iSCSI Intel®. Dans le menu du
BIOS système, désactivez toute option de démarrage silencieux ou de
démarrage rapide. Désactivez également les images de démarrage du
BIOS. Ces options peuvent supprimer la sortie du démarrage à distance
iSCSI Intel®.
Le démarrage à distance iSCSI Ethernet Intel® n’a pas été installé sur la
carte ou la ROM flash de la carte n’est pas activée. Mettez à jour la carte
réseau à l'aide de la dernière version de l'utilitaire BootUtil, comme décrit
dans la section Images Flash de ce document. Si l’utilitaire BootUtil signale
que la ROM flash est désactivée, utilisez la commande "BootUtil -flashenable" pour activer la ROM flash et mettre la carte à jour.
Il est possible que le système BIOS supprime la sortie du démarrage iSCSI
Ethernet Intel®.
La mémoire du système BIOS peut être insuffisante pour charger le démarrage iSCSI Ethernet Intel®. Essayez de désactiver les contrôleurs de
disque et les périphériques inutilisés dans le menu de configuration du système BIOS. Les contrôleurs SCSI, le contrôleur RAID, les connexions
réseau PXE activées et les copies shadow du BIOS système réduisent tous
la mémoire disponible pour le démarrage iSCSI Ethernet Intel®. Désactivez
ces périphériques et redémarrez le système pour voir si Intel® iSCSI Boot
peut s’initialiser. Si la désactivation des périphériques dans le menu du
BIOS système ne résout pas le problème, essayez d’enlever les lecteurs de
disque ou contrôleurs de disque du système. Certains fabricants permettent
de désactiver des périphériques inutilisés à l’aide de cavaliers.
Après avoir installé le démarrage iSCSI Ethernet Intel®, le
système ne démarre pas à
partir d’un disque dur local
ou d’un périphérique de
démarrage réseau. Le système ne répond plus après
que le démarrage iSCSI
Ethernet Intel® affiche la bannière d’authentification ou la
connexion à la cible iSCSI.
"Intel® iSCSI Remote
Boot" (Démarrage à distance iSCSI Intel®) n’est pas
répertorié comme périphérique de démarrage dans
le menu des périphériques
de démarrage du BIOS système.
Message d’erreur affiché :
"Failed to detect link" (Échec
de la détection de liaison)
Message d’erreur affiché :
"DHCP Server not found!"
(Serveur DHCP introuvable!)
Message d’erreur affiché :
"PnP Check Structure is invalid!" (La structure de la vérification Plug and play n’est
pas valide !)
Message d’erreur affiché :
"Invalid iSCSI connection
information" (Informations
non valides de connexion
iSCSI)
l
l
l
l
l
Une erreur système irrécupérable s’est produite lors de l’initialisation du
démarrage à distance iSCSI. Mettez le système sous tension et appuyez
sur la touche "S" ou "Échap." avant que le démarrage à distance iSCSI
Intel® ne s’initialise. Cela permet de contourner le processus d’initialisation
du démarrage iSCSI Ethernet Intel® et permet au système de s’amorcer
depuis un disque local. Utilisez l’utilitaire BootUtil pour mettre à jour le
microprogramme avec la dernière version du démarrage à distance iSCSI
Ethernet Intel®.
La mise à jour du BIOS système peut également résoudre ce problème.
Il est possible que le BIOS système ne prenne pas en charge le démarrage
iSCSI Ethernet Intel®. Mettez à jour le BIOS système avec la version la plus
récente du fabricant du système.
Un conflit peut exister avec un autre périphérique installé. Essayez de
désactiver les contrôleurs de disque et de réseau inutilisés. Certains contrôleurs SCSI et RAID sont connus pour provoquer des problèmes de compatibilité avec démarrage à distance iSCSI Intel®.
Le démarrage iSCSI Ethernet Intel® n’a pas pu détecter la liaison sur le
port réseau. Vérifiez le témoin de détection de la liaison, situé à l’arrière de
la carte réseau. Le témoin de liaison vert doit s’allumer lorsque la liaison
est établie avec le partenaire de liaison. Si le témoin de liaison s’allume
alors que le message d’erreur s’affiche, essayez d’exécuter les tests Intel
de diagnostic de liaison et de câblage à l’aide de DIAGS.EXE sous DOS ou
d’Intel® PROSet sous Windows.
iSCSI a été configuré pour récupérer une adresse IP sur un serveur DHCP mais
aucun serveur DHCP n’a répondu à la demande de détection DHCP. Ce problème
peut avoir plusieurs causes :
l
Le serveur DHCP peut avoir utilisé toutes les réservations d’adresses IP disponibles.
l
Le système iSCSI client peut exiger qu’une adresse IP statique lui soit affectée sur le réseau connecté.
l
Il est possible qu’aucun serveur DHCP ne se trouve sur le réseau.
l
Le protocole STP (Spanning Tree Protocol) du commutateur réseau peut
empêcher le port du démarrage à distance iSCSI Intel® de contacter le serveur DHCP. Reportez-vous à la documentation de votre commutateur de
réseau sur la façon de désactiver Spanning Tree Protocol.
l
l
Le démarrage iSCSI Ethernet Intel® n’a pas pu détecter de BIOS PCI Plug
and Play. Si ce message s’affiche, le démarrage iSCSI Ethernet Intel® ne
peut pas être exécuté sur le système en question. Un BIOS PCI entièrement
conforme Plug and Play est nécessaire pour exécuter le démarrage à distance iSCSI Intel®.
Les informations de configuration iSCSI reçues du DHCP ou configurées
de façon statique dans le menu de configuration sont incomplètes et la tentative de connexion au système iSCSI cible a échoué. Vérifiez que le nom
de l’initiateur iSCSI, le nom de la cible iSCSI, l’adresse IP de la cible et le
numéro de port de la cible sont configurés correctement dans le menu de
configuration iSCSI (pour une configuration statique) ou sur le serveur
DHCP (pour une configuration BOOTP dynamique).
Message d’erreur affiché :
"Unsupported SCSI disk
block size!" (Taille non prise
en charge pour les blocs de
disque SCSI!)
Message d’erreur affiché :
"ERROR: Could not establish TCP/IP connection with
iSCSI target system."
(ERREUR : impossible
d’établir une connexion
TCP/IP avec le système
iSCSI cible)
Message d’erreur affiché :
"ERROR: CHAP authentication with target failed."
(ERREUR : échec de
l’authentification CHAP de la
cible)
Message d’erreur affiché :
"ERROR: Login request
rejected by iSCSI target system." (ERREUR : demande
de connexion rejetée par le
système iSCSI cible)
Lors de l'installation de Linux
sur NetApp Filer, lorsqu'une
recherche de disque cible a
réussi, des messages
d'erreur peuvent sembler
similaires à ceux qui sont
indiqués ci-dessous.
l
l
l
l
l
l
Le système iSCSI cible est configuré pour utiliser une taille de bloc de
disque qui n’est pas prise en charge par le démarrage iSCSI Ethernet
Intel®. Configurez le système iSCSI cible pour qu’il utilise une taille de bloc
de 512 octets.
Le démarrage iSCSI Ethernet Intel® n’a pas pu établir une connexion
TCP/IP avec le système iSCSI cible. Vérifiez que l’adresse IP de l’initiateur
et de la cible, le masque de sous-réseau et les paramètres du port et de la
passerelle sont configurés correctement. Le cas échéant, vérifiez les paramètres du serveur DHCP. Vérifiez que le système iSCSI cible est connecté
à un réseau auquel l’initiateur du démarrage à distance iSCSI Intel® peut
accéder. Vérifiez que le système n’est pas bloqué par un pare-feu.
Le nom d’utilisateur ou le secret CHAP ne correspondent pas à la configuration CHAP du système iSCSI cible. Vérifiez que la configuration CHAP
du port du démarrage à distance iSCSI Intel® correspond à celle du système iSCSI cible. Désactivez CHAP dans le menu de configuration du
démarrage à distance iSCSI s’il n’est pas activé sur la cible.
Une demande de connexion a été envoyée au système iSCSI cible, mais
elle a été rejetée. Vérifiez que le nom de l’initiateur iSCSI, le nom de la
cible, le numéro d'unité logique (LUN) et les paramètres d’authentification
CHAP correspondent à ceux du système iSCSI cible. Vérifiez que la cible
est configurée pour autoriser l’initiateur du démarrage à distance iSCSI
Intel® à accéder à une unité logique.
Si ces messages d'erreur s'affichent, les interfaces iSCSI inutilisées de
NetApp Filer doivent être désactivées.
"Continuous=no" doit être ajouté au fichier iscsi.conf.
Iscsi-sfnet:hostx: Connect failed with rc -113: No route to
host (Aucun chemin d’accès
pour atteindre l’hôte)
Iscsi-sfnet:hostx: establish_
session failed. Could not
connect to target (Impossible
de se connecter à la cible)
Message d’erreur affiché.
"ERROR: iSCSI target not
found." (ERREUR : cible
iSCSI non trouvée)
Message d’erreur affiché.
"ERROR: iSCSI target cannot
accept any more connections." (ERREUR : la cible
iSCSI ne peut pas accepter
d’autres connexions.)
Message d’erreur affiché.
l
l
l
Une connexion TCP/IP a été établie vers l’adresse IP cible, cependant une
adresse iSCSI cible portant le nom de cible iSCSI spécifié est introuvable
sur le système cible. Vérifiez que le nom de la cible iSCSI et le nom de
l’initiateur configurés correspondent aux paramètres de la cible iSCSI.
La cible iSCSI ne peut pas accepter de nouvelle connexion. Cette erreur
peut être provoquée par une limite configurée sur la cible iSCSI ou une limitation de ressources (absence de disque disponible).
Une erreur est survenue sur la cible iSCSI. Vérifiez la cible iSCSI pour
"ERROR: iSCSI target has
reported an error."
(ERREUR : la cible iSCSI a
signalé une erreur.)
Message d’erreur affiché.
"ERROR: There is an IP
address conflict with another
system on the network
(ERREUR : un conflit
d’adresses IP existe avec un
autre système du réseau).
déterminer la source de l’erreur et vérifier sa configuration.
l
l
l
Un système utilisant la même adresse IP que le client de ROM optionnelle
iSCSI a été trouvé.
Si une adresse IP statique est utilisée, tentez de remplacer l’adresse IP par
une adresse qui n’est pas utilisée par un autre client du réseau.
Si l’adresse IP est affectée par un serveur DHCP, assurez-vous qu’aucun
client du réseau n’utilise une adresse IP entrant en conflit avec la plage
d’adresses IP utilisée par le serveur DHCP.
Problèmes connus sous iSCSI
Un périphérique n'apparaît pas dans le menu des paramètres réseau du contrôleur de cycle de vie (Lifecycle Controller)
Lorsqu'un périphérique de démarrage iSCSI Ethernet Intel® est connecté à une unité logique iSCSI (LUN) en mode
d'amorçage BIOS existant, il ne sera pas affiché dans le menu des paramètres réseau du contrôleur de cycle de vie
(Lifecycle Controller).
Il n'est pas possible de désinstaller un appareil s'il est configuré en tant que port iSCSI principal ou secondaire.
La désactivation du port iSCSI principal désactive également le port secondaire. Pour démarrer à partir du port secondaire, configurez-le de sorte qu'il devienne le port principal.
Démarrage à distance iSCSI : connexion dos à dos à une cible avec LOM Broadcom
La connexion d'un hôte de démarrage iSCSI à une cible au moyen d'un LOM (réseau local sur carte mère) Broadcom
peut parfois faire échouer la connexion. Utilisez un commutateur entre l'hôte et la cible pour éviter ce problème.
Le microprogramme de démarrage à distance iSCSI peut parfois afficher la valeur 0.0.0.0 dans le champ d'adresse IP du serveur DHCP.
-Dans le cas des serveurs DHCP reposant sur Linux, le microprogramme de démarrage à distance iSCSI affiche la
valeur 0.0.0.0 dans le champ d'adresse IP du serveur DHCP. Le microprogramme de démarrage à distance iSCSI examine l'adresse IP du serveur DHCP à partir du champ Next-Server du paquet de réponse DHCP. Cependant, le serveur DHCP reposant sur Linux peut ne pas définir le champ par défaut. Ajoutez « Next-Server <Adresse IP>; » dans
dhcpd.conf pour afficher l'adresse IP adéquate du serveur DHCP.
Le trafic iSCSI s'interrompt lorsque RSC est désactivé
Pour éviter une perte de connexion, la coalition matérielle des segments entrants (Receive Segment Coalescing,
RSC) doit être désactivée avant d'associer un réseau local virtuel à un port qui sera utilisé pour la connexion à une
cible iSCSI. Remédiez à ce problème en désactivant la coalition matérielle des segments entrants avant de configurer
le réseau local virtuel. Cela évitera l'interruption du trafic.
Problèmes de démarrage iSCSI sous Microsoft Windows
L’initiateur Microsoft n’amorce pas sans liaison sur le port de démarrage :
Après avoir configuré le système pour Intel® Ethernet iSCSI Boot avec deux ports connectés à une cible et avoir redémarré le système avec succès, l’initiateur Microsoft redémarrera continuellement le système si vous tentez ultérieurement de démarrer le système alors que seul le port de démarrage secondaire est connecté à la cible.
Pour contourner cette limitation, procédez comme suit :
1. À l’aide de l’Éditeur du Registre, développez la clé de registre suivante :
\System\CurrentControlSet\Services\Tcpip\Parameters
2. Créez une valeur DWORD appelée DisableDHCPMediaSense et définissez la valeur sur 0.
Prise en charge des plates-formes démarrées par l’initiateur iSCSI UEFI natif
À partir de la version 2.2.0.0, le pilote iSCSI de vidage de la mémoire sur incident prend également en charge les
plates-formes amorcées à l’aide de l’initiateur iSCSI UEFI natif sur les cartes réseau Intel prises en charge. Cette prise
en charge est possible sur Windows Server ou une version ultérieure et uniquement sur une architecture 64 bits. Tous
les correctifs cités ci-dessus doivent aussi être installés.
Comme sur les plates-formes UEFI les cartes réseau ne fournissent pas forcément de ROM optionnelle iSCSI existante, l’onglet des options de démarrage dans DMIX ne permet pas forcément d’activer le pilote iSCSI de vidage de la
mémoire sur incident. Si c’est le cas, l’entrée de registre suivante doit être créée :
HKLM\SYSTEM\CurrentControlSet\Control\Class\{4D36E97B-E325-11CE-BFC108002BE10318}\<IDInstance>\Parameters
DumpMiniport REG_SZ iscsdump.sys
Déplacement de la carte iSCSI vers un autre emplacement :
Dans une installation Windows*, si vous déplacez la carte iSCSI vers un emplacement PCI différent de celui qui était
utilisé lors de l’installation des pilotes et de l’initiateur iSCSI Remote Boot Microsoft, une erreur système peut se produire au milieu de l’écran de démarrage Windows. Le problème disparaît si vous replacez la carte dans l’emplacement
PCI d’origine. Nous recommandons de ne pas déplacer la carte utilisée pour l'installation de démarrage iSCSI. Il s’agit
d’un problème connu du SE.
Si vous devez placer la carte dans un autre connecteur, procédez comme suit :
1.
2.
3.
4.
5.
6.
7.
8.
Démarrez le système d'exploitation et supprimez l'ancienne carte.
Installez une nouvelle carte dans un autre connecteur.
Configurez la nouvelle carte pour iSCSI Boot.
Effectuez un démarrage iSCSI sous le SE via la carte d’origine.
Configurez la nouvelle carte pour qu’elle puisse être démarrée sous le SE.
Redémarrez.
Placez l’ancienne carte dans un autre connecteur.
Répétez les étapes 2 à 5 pour l’ancienne carte que vous venez de déplacer.
La désinstallation du pilote peut entraîner une erreur système fatale (écran bleu)
Si le pilote du périphérique utilisé pour le démarrage iSCSI Boot est désinstallé à l’aide du Gestionnaire de périphériques, une erreur système Windows (écran bleu) se produit lors du redémarrage et le SE doit être réinstallé. Il
s’agit d’un problème connu de Windows.
Les cartes flashées avec une image iSCSI ne sont pas supprimées du Gestionnaire de périphériques lors de la désinstallation
Lors de la désinstallation, tous les autres logiciels de connexion réseau Intel sont supprimés, mais les pilotes des
cartes iSCSI Boot ont la priorité de démarrage.
Le déchargement d’I/OAT peut s’arrêter avec une installation du démarrage Intel® Ethernet iSCSI Boot ou de l’initiateur Microsoft
Pour pallier ce problème, la valeur de registre suivante peut être remplacée par "0".
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\IOATDMA\Start
Cette valeur de registre ne doit être modifiée que si iSCSI Boot est activé et si vous voulez activer le déchargement
d’Intel® I/OAT. Une erreur système se produit si cette valeur est définie sur "0" alors qu’iSCSI Boot n’est pas activé. Elle
doit être définie à nouveau sur "3" si iSCSI Boot est désactivé, ou une erreur système se produira au redémarrage.
Démarrage et associations Intel® iSCSI sous Windows
Les associations ne sont pas prises en charge par iSCSI Boot. La création d’une association avec les cartes iSCSI principale et secondaire et la sélection de cette association lors de l’installation de l’initiateur Microsoft peut échouer, avec
des redémarrages à répétition. Ne sélectionnez pas d’association pour le démarrage iSCSI, même si elle peut être
sélectionnée lors de l’installation de l’initiateur.
Pour l’équilibrage de la charge et la prise en charge du basculement, vous pouvez utiliser Microsoft MPIO. Consultez
le guide de l'utilisation de l'initiateur Microsoft pour savoir comment configurer MPIO.
La définition d’une adresse administrée localement (LAA) sur un port activé pour le démarrage iSCSI entraîne une défaillance du système lors du prochain redémarrage
Ne définissez pas d’adresse administrée localement sur les ports sur lesquels iSCSI Boot est activé.
La version d'Intel® Ethernet iSCSI Boot n'est pas identique entre les versions affichées sur DMIX et le texte défilant pendant le démarrage
Si un périphérique n'est pas configuré comme principal, mais est recensé en premier, le BIOS utilisera quand même la
version de iSCSI Boot de ce périphérique. Par conséquent, l'utilisateur peut finir par utiliser une version de Intel® Ethernet iSCSI Boot plus ancienne que prévu. La solution est que tous les périphériques du système doivent avoir la même
version de iSCSI Boot. Pour ce faire, l'utilisateur doit aller à l'onglet Options de démarrage et mettre à jour la mémoire
flash des appareils vers la dernière version.
Ouverture de session iSCSI IPv6 sur des batteries Dell EMC EqualLogic utilisant des trames Jumbo
Pour ouvrir une session iSCSI en utilisant IPv6 et des trames Jumbo avec des batteries Dell EqualLogic, le délestage
avec contrôle d'intégrité TCP/UDP doit être désactivé sur la carte iSCSI Intel.
Problèmes connus de iSCSI/DCB sous Microsoft Windows
La création automatique des filtres de trafic iSCSI pour DCB n’est prise en charge que sur les réseaux qui utilisent l’adressage IPv4
L’option iSCSI for DCB (Pontage de centre de données désactivé) utilise les filtres de trafic QOS (Qualité de service)
pour étiqueter les paquets sortants avec une priorité. Intel iSCSI Agent utilise l’adressage IPv4 pour créer de façon
dynamique ces filtres de trafic en fonction de la demande des réseaux.
Ouverture de session iSCSI IPv6 sur des batteries Dell EqualLogic utilisant des trames Jumbo
Pour ouvrir une session iSCSI en utilisant IPv6 et des trames Jumbo avec des batteries Dell EqualLogic, le délestage
avec contrôle d'intégrité TCP/UDP doit être désactivé sur la carte iSCSI Intel.
Problèmes connus sous Linux
Channel Bonding
Le Channel Bonding Linux présente des problèmes de compatibilité de base avec iSCSI Boot et ne doit pas être utilisé.
Des erreurs d’authentification sur une cible EqualLogic peuvent se présenter dans dmesg lors de l’exécution de Red Hat* Enterprise Linux 4
Ces messages d’erreur n’indiquent pas de blocage de connexion ou de démarrage et peuvent être ignorés en toute
sécurité.
Incompatibilité de LRO et de iSCSI
Le délestage des grandes réceptions (Large Receive Offloads, LRO) est incompatible avec la cible iSCSI ou le trafic
de l’initiateur. Une situation de panique peut se produire en cas de réception du trafic iSCSI via le pilote ixgbe alors
que le délestage LRO est activé. Le pilote devrait être compilé et installé avec :
# make CFLAGS_EXTRA=-DIXGBE_NO_LRO install
Configuration du démarrage FCoE
Configuration du client FCoE
Installation et configuration du démarrage FCoE Ethernet Intel® sur un
client Microsoft* Windows*
Avertissements :
l
Ne mettez pas à jour le pilote de base à l'aide de la méthode de mise à jour Windows.
Le système pourrait ne plus fonctionner et être à l’origine d’une erreur système fatale. La pile FCoE et
le pilote de base doivent correspondre. La pile FCoE risque de ne plus être synchronisée avec le
pilote de base si le pilote de base est mis à jour à l'aide de Windows Update. La mise à niveau d’un
système de démarrage FCoE ne peut être exécutée qu'à l'aide du programme d’installation des Connexions réseau Intel®.
l
Si vous utilisez Microsoft* Windows Server* 2012 R2, vous devez installer KB2883200.
Faute de quoi, il pourrait en résulter une erreur 1719 et un écran bleu.
Nouvelle installation sur un système Windows Server*
Depuis le support Intel téléchargé : cliquez sur les cases FCoE/DCB pour installer le pilote de protocole
FCoE Ethernet Intel® et DCB. Le programme d'installation MSI Installer installe tous les composants FCoE et DCB, y
compris le pilote de base.
Configurez les options du démarrage FCoE Ethernet Intel® à partir d'Intel® PROSet
pour le Gestionnaire de périphériques Windows*
De nombreuses fonctions FCoE peuvent être configurées ou révisées à l’aide d’Intel® PROSet pour le Gestionnaire de
périphériques Windows*, depuis le bouton FCoE Properties sur l’onglet Data Center. Vous pouvez utiliser Intel®
PROSet pour effectuer les tâches suivantes :
l
Configuration des paramètres spécifiques à l’initiateur FCoE
l
Passez au pilote du port correspondant
l
Révision des informations de l’initiateur FCoE
l
Obtention d’informations générales
l
Révision des statistiques
l
Obtention d’informations sur l’initiateur
l
Obtention d’informations sur les périphériques connectés
l
VLAN détectés par FIP et leur état
De plus, vous trouverez certains paramètres de performances RSS FCoE sous Performance Options de l'onglet
Avancé dans les propriétés du périphérique Carte réseau. Pour plus d'informations, consultez la section Receive Side
Scaling (Mise à l'échelle côté réception ou RSS).
REMARQUES :
l
Dans l'onglet Options de démarrage, l'utilisateur peut voir le bouton Informations Flash. En cliquant sur
le bouton Informations Flash, la boîte de dialogue Informations Flash s'ouvre. Dans la boîte de dialogue Informations Flash, cliquez sur le bouton Mettre à jour l'image flash pour permettre l'écriture
d'Intel® iSCSI Remote Boot (Démarrage à distance iSCSI Intel®), d'Intel® Boot Agent (IBA), du démarrage FCoE Ethernet Intel®, d'EFI et de CLP. L’opération de mise à jour écrit une nouvelle image dans la
mémoire Flash de la carte et modifie la mémoire EEPROM. Celle-ci risque de désactiver momentanément le pilote de périphérique réseau Windows*. Un redémarrage de votre système sera probablement requis à la suite de cette opération.
l
Vous ne pouvez pas mettre à jour l’image Flash d’un LOM; ce bouton sera désactivé.
1. Créez un disque cible (unité logique ou LUN) sur une cible Fibre Channel disponible. Configurez cette unité
logique pour qu’elle soit accessible par l’adresse WWPN de l’initiateur de l’hôte en cours de démarrage.
2. Assurez-vous que le système client démarre le microprogramme du démarrage FCoE Ethernet Intel®. Le microprogramme doit être configuré correctement, pouvoir se connecter à la cible Fibre Channel et détecter le
disque de démarrage.
Intel® PROSet pour le Gestionnaire de périphériques Windows*
Bon nombre des fonctions du menu de configuration de la sélection des ports pour le démarrage FCoE Ethernet Intel®
peuvent être configurées ou modifiées en utilisant Intel® PROSet pour le Gestionnaire de périphériques Windows.
l
La version du démarrage FCoE Ethernet Intel® est affichée dans l’onglet Boot Options si l’image combinée
prend en charge le démarrage FCoE.
l
Le démarrage FCoE Ethernet Intel® est une option Active Image si le démarrage FCoE est pris en charge par
l’image combinée.
l
Le paramètre Active Image permet d’activer/désactiver le démarrage FCoE dans l’EEPROM.
l
Les paramètres du démarrage FCoE Ethernet Intel® sont affichés si FCoE Boot correspond à l’image active.
Installation de Windows Server depuis un disque distant (installation sans
disque)
Après avoir installé la ROM optionnelle, si vous voulez installer le système d'exploitation Windows Server directement
sur le disque FCoE, procédez comme suit :
1. Téléchargez le package de mise à jour du pilote sur le site Web d'assistance de Dell.
2. Extrayez le package de mise à jour du pilote à l'aide de l'option « /s /drivers=c:\mydir ».
3. Localisez les pilotes FCoE dans c:\mydir\pre-os\W2K12R2-x64\FCoE. Extrayez tous les fichiers zippés et
copiez-les sur un CD/DVD ou sur une clé USB.
4. Démarrer le support d’installation.
5. Effectuez une installation personnalisée et allez à l’écran « Où voulez-vous installer Windows ? ».
6. Utilisez Charger pilote pour charger les pilotes FCoE. Naviguez jusqu'à l'emplacement sélectionné précédemment et chargez les deux pilotes suivants dans l'ordre indiqué :
1. Pilote de configuration Ethernet Intel® pour FCoE.
2. Pilote du miniport de stockage virtuel Ethernet Intel(R) pour FCoE
7.
8.
9.
10.
Remarque : les pilotes FCoE bloquent tout autre trafic réseau provenant des ports compatibles FCoE jusqu'à la
fin de l'Étape 7 de cette section. Ne tentez pas d'installer un miniport NDIS pour un port compatible FCoE avant
l'étape 7 de cette section.
Le ou les disques FCoE doivent normalement figurer à présent dans la liste des cibles d’installation disponibles. Tous les disques accessibles à cet initiateur via le port de démarrage doivent apparaître.
Sélectionnez dans la ROM optionnelle le disque FCoE configuré pour le démarrage et continuez l’installation
jusqu’à ce que Windows soit installé et que vous soyez arrivé au Bureau.
Suivez les instructions de Nouvelle installation sur un système Windows Server*. Cela installera les pilotes
réseau et configurera le fonctionnement des pilotes FCoE avec les pilotes réseau. REMARQUE : vous ne pouvez pas désélectionner la fonctionnalité FCoE. Vous serez invité à redémarrer à la fin de l’installation.
Windows peut vous inviter à redémarrer à nouveau après le retour au Bureau.
Installation de Windows Server avec un disque local
Après avoir installé la ROM optionnelle, si vous voulez installer Windows Server avec un disque local, procédez
comme suit :
1. Suivez les instructions de Nouvelle installation sur un système Windows Server*.
2. Vérifiez que le disque de démarrage FCoE soit disponible dans l'onglet Fabric View (Vue de la matrice)
d'Intel® PROSet pour le Gestionnaire de périphériques Windows et vérifiez que vous êtes bien en ligne en utilisant le Gestionnaire de disque Windows.
3. Ouvrez une fenêtre d’invite de commande et exécutez le fichier de commande fcoeprep.bat. Pour trouver le
fichier de commande, naviguez jusqu'au répertoire c:\mydir\pre-os\W2K12R2-x64\FCoE.
4. Arrêtez Windows et capturez l’image du SE sur une partition de disque local.
5. Transférez l’image du disque dur local à la cible FCoE. Cela peut être réalisé depuis l’installation Windows
locale.
6. Arrêtez le système et enlevez le disque local.
7. Configurez le système BIOS pour un démarrage depuis le disque FCoE et démarrez.
REMARQUE : Consultez la documentation de Microsoft pour des instructions plus détaillées.
Mise à niveau des pilotes Windows sur un système démarré par FCoE Ethernet
Intel®
La mise à niveau d’un système démarré par FCoE ne peut être exécutée qu'à l'aide du programme d’installation des
Connexions réseau Intel®. Un redémarrage est nécessaire pour finaliser la mise à niveau. Vous ne pouvez pas mettre
à niveau le package de pilotes et de logiciels Windows d'un port si le port se trouve sur le chemin du fichier d'échange
de la mémoire virtuelle et s'il fait également partie d'une association LBFO Microsoft. Pour réaliser la mise à niveau,
supprimez le port de l'association LBFO et redémarrez la mise à niveau.
Certification de validation et de stockage
Le logiciel pour FCoE Ethernet Intel® comporte deux composants essentiels : le pilote de base Ethernet et le pilote
FCoE Ethernet Intel® (FCoE). Ils sont conçus et validés comme paire commandée. Il est fortement recommandé
d’éviter les scénarios de mises à niveau ou de mises à jour de Windows, où la version du pilote Ethernet ne correspond pas à la celle du pilote FCoE Ethernet Intel® correspondant. Pour en savoir plus, visitez le centre de téléchargement.
REMARQUES :
l
l
La mise à niveau/la rétrogradation individuelle du pilote FCoE Ethernet Intel® ne fonctionnera pas et
peut entraîner un blocage du système ; le package FCoE tout entier doit être de la même version. Le
package FCoE ne doit être mis à niveau qu’avec les connexions réseau Intel®.
Si vous désinstallez le pilote miniport de stockage virtuel Ethernet Intel® pour le composant FCoE, réinstallez la même version que celle désinstallée ou bien désinstallez, puis réinstallez le package entier
FCoE.
Configuration de la ROM optionnelle du démarrage FCoE Ethernet Intel®
Menu de sélection des ports FCoE
Pour configurer le démarrage FCoE Ethernet Intel®, mettez le système sous tension ou réinitialisez-le, puis appuyez
sur les touches Ctrl+D lorsque le message « Press <Ctrl-D> to run setup... » (Appuyez sur <Ctrl+D> pour exécuter l'installation) s'affiche. Une fois que vous avez appuyé sur les touches Ctrl+D, le menu de la sélection des ports
pour le démarrage FCoE Ethernet Intel® s'ouvre.
Le premier écran du menu Démarrage FCoE Ethernet Intel® de configuration des ports affiche une liste des cartes
compatibles avec le démarrage FCoE Ethernet Intel®. Pour chaque port de carte, l’adresse MAC SAN associée, l’ID de
périphérique PCI, l’emplacement du bus PCI, du périphérique ou de la fonction et un champ indiquant l’état de démarrage FCoE s’affichent. Le menu de sélection des ports peut afficher jusqu’à 10 ports compatibles avec le démarrage
FCoE. S’il existe d’autres cartes compatibles avec le démarrage FCoE Ethernet Intel®, elles ne sont pas répertoriées
dans le menu de configuration.
Mettez en surbrillance le port souhaité et appuyez sur Entrée.
Menu de configuration des cibles du démarrage FCoE
Configuration des cibles du démarrage FCoE : Discover Targets (Recherche de cibles) est mis en surbrillance par
défaut. Si la valeur Discover VLAN (Recherche VLAN) n’est pas celle que vous voulez, entrez la valeur correcte. Mettez en surbrillance Discover Targets et appuyez sur Entrée pour afficher les cibles associées à la valeur Discover
VLAN. Sous Target WWPN (Cible WWPN), si vous connaissez le WWPN voulu, vous pouvez l’entrer manuellement ou
appuyer sur Entrée pour afficher la liste des cibles précédemment découvertes.
Menu de sélection des cibles FCoE
Mettez en évidence la Cible voulue dans la liste et appuyez sur Entrée.
Remplissez manuellement les valeurs d'unité logique (LUN) et Boot Order (ordre de démarrage).
Les valeurs valides pour Boot Order (ordre de démarrage) vont de 0 à 4, où 0 signifie pas d’ordre de
démarrage ou ignorer la cible. La valeur 0 indique également que ce port ne doit pas être utilisé pour se
connecter à la cible. Les valeurs d’ordre de démarrage 1 à 4 ne peuvent être attribuées qu’une fois aux
cibles se trouvant sur tous les ports activés pour un démarrage FCoE.
La valeur VLAN par défaut est 0. Vous pouvez procéder à la découverte des cibles (Discover Targets)
qui afficheront un VLAN. Si le VLAN qui s’affiche n’est pas le VLAN souhaité, saisissez manuellement le
VLAN et effectuez une recherche de cibles Discover Targets sur ce VLAN.
Cliquez sur Save.
REMARQUE : une fois la fonction Discover Targets (Recherche de cibles) exécutée, la ROM optionnelle tente
de rester connectée jusqu’à la fin du FCoE Boot Targets Configuration Menu (Menu de configuration des
cibles de démarrage FCoE).
l
l
Raccourcis clavier : Haut/Bas, tabulation et Maj-tabulation pour passer d'une commande à l'autre. Gauche/droite/Début/Fin/Suppr/Arrière dans les zones d'édition.
Appuyez sur la touche Échap pour quitter l'écran.
Configuration d'une cible du démarrage FCoE
Pour obtenir des informations spécifiques sur la configuration du système FCoE cible et du volume de disque, reportez-vous aux instructions fournies par le fournisseur du système ou du système d'exploitation. Vous trouverez ci-dessous les étapes de base nécessaires à la configuration du démarrage FCoE Ethernet Intel® pour qu’il fonctionne avec
la plupart des systèmes FCoE cibles. Les étapes peuvent être différentes en fonction du fabricant.
REMARQUE : si votre cible du démarrage FCoE est sur un VLAN différent du VLAN 1, vous devez alors utiliser
le menu de démarrage POST (Ctrl-D) pour découvrir la cible.
Installation de Windows Server depuis un disque distant (installation sans
disque)
Après avoir installé la ROM optionnelle, si vous voulez installer le système d'exploitation Windows Server directement
sur le disque FCoE, procédez comme suit :
1. Téléchargez le package de mise à jour du pilote sur le site Internet d'assistance.
2. Extrayez le package de mise à jour du pilote à l'aide de l'option « /s /drivers=c:\mydir ».
3. Localisez les pilotes FCoE dans c:\mydir\pre-os\W2K12R2-x64\FCoE. Extrayez tous les fichiers zippés et
copiez-les sur un CD/DVD ou sur une clé USB.
4. Démarrer le support d’installation.
5. Effectuez une installation personnalisée et allez à l’écran « Où voulez-vous installer Windows ? ».
6. Utilisez Charger pilote pour charger les pilotes FCoE. Naviguez jusqu'à l'emplacement sélectionné précédemment et chargez les deux pilotes suivants dans l'ordre indiqué :
1. Pilote de configuration Ethernet Intel® pour FCoE.
2. Pilote du miniport de stockage virtuel Ethernet Intel(R) pour FCoE
7.
8.
9.
10.
Remarque : les pilotes FCoE bloquent tout autre trafic réseau provenant des ports compatibles FCoE jusqu'à la
fin de l'étape 7 de cette section. Ne tentez pas d'installer un miniport NDIS pour un port compatible FCoE avant
l'étape 7 de cette section.
Le ou les disques FCoE doivent normalement figurer à présent dans la liste des cibles d’installation disponibles. Tous les disques accessibles à cet initiateur via le port de démarrage doivent apparaître.
Sélectionnez dans la ROM optionnelle le disque FCoE configuré pour le démarrage et continuez l’installation
jusqu’à ce que Windows soit installé et que vous soyez arrivé au Bureau.
Suivez les instructions pour une nouvelle installation de Windows Server. Cela installera les pilotes réseau et
configurera le fonctionnement des pilotes FCoE avec les pilotes réseau. REMARQUE : vous ne pouvez pas désélectionner la fonctionnalité FCoE. Vous serez invité à redémarrer à la fin de l’installation.
Windows peut vous inviter à redémarrer à nouveau après le retour au Bureau.
Installation de Windows Server avec un disque local
Après avoir installé la ROM optionnelle, si vous voulez installer Windows Server avec un disque local, procédez
comme suit :
1. Suivez les instructions pour une nouvelle installation de Windows Server.
2. Vérifiez que le disque de démarrage FCoE soit disponible dans l'onglet Fabric View (Vue de la matrice)
d'Intel® PROSet pour le Gestionnaire de périphériques Windows et vérifiez que vous êtes bien en ligne en utilisant le Gestionnaire de disque Windows.
3. Ouvrez une fenêtre d’invite de commande et exécutez le fichier de commande fcoeprep.bat. Pour trouver le
fichier de commande, rendez-vous dans le répertoire d'architecture pour votre système situé dans le répertoire
c:\mydir\pre-os\W2K12R2-x64\FCoE.
4. Arrêtez Windows et capturez l’image du SE sur une partition de disque local.
5. Transférez l’image du disque dur local à la cible FCoE. Cela peut être réalisé depuis l’installation Windows
locale.
6. Arrêtez le système et enlevez le disque local.
7. Configurez le système BIOS pour un démarrage depuis le disque FCoE et démarrez.
REMARQUE : Consultez la documentation de Microsoft pour des instructions plus détaillées.
SUSE* Linux Enterprise Server
Pour faciliter l'installation de Linux sur une cible FCoE, utiliser SLES11 ou une version supérieure. SLES11 fournit une
prise en charge native du démarrage et de l’installation à distance FCoE. Cela signifie qu’aucune étape supplémentaire n’est nécessaire en dehors du programme d’installation pour installer sur une cible iSCSI en utilisant une
carte Ethernet Intel pour serveur. Reportez-vous à la documentation de SLES11 pour des instructions sur l’installation
sur une unité logique iSCSI.
Red Hat Enterprise Linux
Pour faciliter l'installation de Linux sur une cible iSCSI, utiliser RHEL 6 ou une version supérieure. RHEL 6 fournit une
prise en charge native du démarrage et de l’installation à distance iSCSI. Cela signifie qu’aucune étape supplémentaire n’est nécessaire en dehors du programme d’installation pour installer sur une cible iSCSI en utilisant une
carte Ethernet Intel pour serveur. Reportez-vous à la documentation de RHEL 6 pour des instructions sur l’installation
sur une unité logique iSCSI.
Problèmes connus de FCoE
Modifications inattendues du WWN virtuel ou du WWPN virtuel
Les 6 derniers octets du WWN virtuel et du WWPN virtuel sont basés sur l'adresse MAC FIP virtuelle. Si vous définissez
ou modifiez l'adresse MAC FIP virtuelle, les 6 derniers octets du WWN virtuel et du WWPN virtuel sont automatiquement modifiés pour être identiques. Vous pouvez modifier le WWPN virtuel et le WWN virtuel, mais vous ne
pouvez modifier que le préfixe, c'est-à-dire les 2 premiers octets de la valeur respective du WWPN virtuel et du WWN
virtuel. Les 6 derniers octets du WWPN virtuel et du WWN virtuel doivent être identiques à ceux de l'adresse MAC FIP
active. L'adresse MAC FIP active peut être soit l'adresse MAC FIP virtuelle, soit l'adresse MAC FIP. Vous devez déterminer celle qui est activée et en service.
Préfixes WWN virtuel et WWPN virtuel non réglés sur les valeurs définies dans le fichier XML de configuration du serveur
Si l'option I/O Identity Optimization est activée, vous ne pouvez pas modifier les valeurs par défaut des préfixes WWN
virtuel et WWPN virtuel. Si vous souhaitez modifier ces valeurs, vous devez d'abord désactiver l'option I/O Identity Optimization. Si vous activez l'option I/O Identity Optimization après avoir modifié les valeurs de préfixe, ces dernières
reprennent leurs valeurs par défaut.
Impossible de définir la même valeur pour l'adresse MAC virtuelle et l'adresse MAC FIP virtuelle
Vous ne pouvez pas utiliser la même valeur pour l'adresse MAC virtuelle et l'adresse MAC FIP virtuelle.
Problèmes du FCoE Ethernet Intel® sous Windows
Le pilote du miniport de stockage virtuel Ethernet Intel® pour FCoE risque de disparaître de la liste du Gestionnaire de périphériques.
Le pilote du miniport de stockage virtuel Ethernet Intel® pour FCoE peut disparaître de la liste du Gestionnaire de périphériques après :
l
le retrait d’un réseau virtuel
l
la modification des paramètres de la carte d’interface réseau Intel sous-jacente
Cela peut se produire lorsque la carte réseau Intel correspondante est virtualisée pour créer un nouveau réseau virtuel
ou pour supprimer ou modifier un réseau virtuel existant. Cela peut également se produire lorsque les paramètres de
la carte d’interface réseau Intel sous-jacente sont modifiés (y compris dans le cadre d’une désactivation ou d’une réactivation de la carte réseau).
Pour pallier le problème, avant de procéder à des modifications de la carte réseau en vue de la virtualiser, supprimez
toutes les dépendances du pilote du miniport de stockage virtuel Ethernet Intel® pour FCoE qui sont actuellement utilisées par le système. Supposons, par exemple, que l’utilisateur a affecté le ou les disques FCoE à partir du pilote de
stockage FCoE à l’exécution de l’une de ses machines virtuelles et que, en même temps, il veuille modifier la configuration de la même carte réseau Intel pour la virtualiser. Dans ce cas, l’utilisateur devra retirer le ou les disques FCoE
de la machine virtuelle avant de modifier la configuration de la carte réseau Intel.
Le port virtuel peut disparaître de la machine virtuelle
Lorsqu’elle démarre, la machine virtuelle demande au pilote du miniport de stockage virtuel Ethernet Intel® pour FCoE
("le pilote") de créer un port virtuel. Si ultérieurement le pilote est désactivé, le port virtuel peut disparaître. La seule
manière de le faire réapparaître est d’activer le pilote et de redémarrer la machine virtuelle.
Lors de l’installation de FCoE après l’installation d’associations ANS et la création d’une association AFT, les pilotes Storport ne sont pas installés
Le pontage de centre de données (DCB) est inactif par défaut si l’utilisateur installe des associations ANS et crée une
association AFT, puis installe FCoE/DCB. Si l’utilisateur active ensuite DCB sur un port, le système d’exploitation
détecte des pilotes Storport et l’utilisateur doit cliquer manuellement sur l’Assistant ajout de nouveau matériel pour installer chacun d’entre eux. Si l’utilisateur ne le fait pas, le pontage DCB n’est pas opérationnel ; le motif indiqué est
l’absence d’homologue.
Intel® PROSet pour Windows Device Manager (DMiX) n’est pas synchronisé avec l’utilitaire FCoE CTRL-D
Quand l’utilisateur désactive FCoE via le menu de contrôle-D, Intel® PROSet pour l’interface utilisateur du gestionnaire de périphériques Windows établit que la mémoire flash contient une image FCoE, mais que celle-ci doit être
mise à jour. La nouvelle mise à jour de la mémoire flash avec l’image FCoE réactive FCoE et rend disponible tous les
paramètres FCoE.
Si l’utilisateur utilise le menu de contrôle-D pour désactiver FCoE, il doit aussi utiliser le menu de contrôle-D pour
l’activer. En effet, Intel® PROSet pour le gestionnaire de périphérique Windows ne prend pas en charge l’activation ou
la désactivation FCoE.
Les cartes réseau 82599 et X540 ne s’affichent pas comme étant compatibles SPC-3 dans la configuration Windows MPIO
Étant donné que l’initiateur FCoE est un périphérique virtuel, il ne possède pas sa propre ID matérielle. Par conséquent, il ne s’affiche pas comme périphérique compatible SPC-3 dans la configuration Windows MPIO.
Lors de la suppression des associations ALB, toutes les fonctions FCOE sont défaillantes, tous les onglets DMIX sont grisés et les ports des deux
cartes sont défaillants
Pour que les associations ANS fonctionnent avec Microsoft Network Load Balancer (NLB) en mode monodiffusion,
l’adresse administrée localement de l’association doit être définie pour regrouper l’IP de nœud. Pour le mode ALB,
l’équilibrage de la charge de réception doit être désactivé. Pour plus de détails de configuration, reportez-vous au site
http://support.microsoft.com/?id=278431.
Les associations ANS fonctionnent quand NLB est en mode multidiffusion. Pour savoir comment configurer correctement la carte dans ce mode, voir http://technet.microsoft.com/en-ca/library/cc726473(WS.10).aspx.
Le trafic FCoE et TCP/IP sur le même VLAN peut ne pas fonctionner sur certains commutateurs
Ce problème de conception et de configuration de commutateurs est connu.
Problèmes du démarrage FCoE Ethernet Intel®
Problèmes connus pour les ROM optionnelles
Problèmes connus de détection avec plusieurs réseaux virtuels FCoE
Il se peut que la ROM optionnelle FCoE ne détecte pas le réseau virtuel voulu lors de la détection des réseaux virtuels
avec la fonction Discover Targets. Si le champ Discover VLAN contient un réseau virtuel incorrect, entrez le réseau
voulu avant d’exécuter la fonction Discover Targets.
Problèmes connus sous Windows
Prise en charge des commutateurs Brocade dans la version 16.4
Le démarrage FCoE Ethernet Intel® ne prend pas en charge les commutateurs Brocade dans la version 16.4. Si
besoin, utilisez la version 16.2.
Windows utilise un fichier d’échange sur le disque local
Après la création d’une image, si le disque local n’est pas supprimé avant le démarrage à partir du disque FCoE, Windows peut utiliser le fichier d’échange du disque local.
Le vidage sur incident dans des disques FCoE est pris en charge uniquement vers le numéro de l’unité logique (LUN) de démarrage FCoE
Les scénarios suivants ne sont pas pris en charge :
l
Vidage sur incident dans un disque FCoE si le répertoire Windows ne se trouve pas sur le numéro de l’unité
logique de démarrage FCoE.
l
Utilisation de la valeur du registre DedicatedDumpFile pour envoyer le vidage sur incident vers un autre
numéro d’unité logique FCoE.
La désinstallation de FCoE à partir d'un disque local peut être bloquée, car le programme d'installation signale par erreur que le système est amorcé
à partir de FCoE
Lorsque la ROM optionnelle FCoE se connecte à un disque FCoE pendant l’amorçage, le programme d’installation de
Windows peut être incapable de déterminer si le système a été amorcé à partir de FCoE et bloquera la désinstallation
de FCoE. Pour la désinstallation, configurez la ROM optionnelle de façon qu’elle ne se connecte pas à un
disque FCoE.
Impossible de créer des interfaces VLAN avec le démarrage FCoE Ethernet Intel® activé
Si le démarrage est fait avec FCoE, l’utilisateur ne peut pas créer des réseaux locaux virtuels et/ou des équipes pour
d’autres types de trafic. Cela évite d’avoir une fonctionnalité convergente liée à un manque de trafic FCoE.
Carte du serveur configurée pour FCoE Boot disponible comme carte réseau virtuelle (vnic) externe partagée via Hyper-V
Si un port est défini comme port de démarrage, quand l’utilisateur installe le rôle Hyper V dans le système, puis passe
dans le gestionnaire de réseau Hyper V pour sélectionner le port à virtualiser en externe, le port de démarrage
s’affiche, alors qu’il ne devrait pas.
Lors de la configuration du port sur un port de démarrage d'Intel® PROSet pour le Gestionnaire de périphériques Windows, un message indique à l’utilisateur de redémarrer le système pour que les modifications soient appliquées, mais
le redémarrage n’est pas forcé. Les applications de niveau utilisateur sont alors en mode de démarrage (par exemple,
l’onglet Data Center est estompé) mais les pilotes au niveau du noyau n’ont pas été redémarrés pour signaler au système d’exploitation que le port est un port de démarrage. Lorsque l'utilisateur ajoute alors le service Hyper V au système, le système d'exploitation prend un instantané des ports disponibles et c'est l'instantané qu'il utilise après l'ajout
du rôle Hyper V, le redémarrage du système et l'accès de l'utilisateur au Gestionnaire de réseau virtuel Hyper V pour
virtualiser les ports. Le port de démarrage s’affiche alors aussi.
Solutions :
Redémarrez le système après avoir défini un port sur un port de démarrage et avant l’ajout du rôle Hyper V. Le port ne
s’affiche pas dans la liste des ports virtualisables du gestionnaire de réseau virtuel Hyper V
Activez/désactivez le port dans le gestionnaire de périphérique après l’avoir configuré pour le démarrage et avant
l’ajout du rôle Hyper V. Le port ne s’affiche pas dans la liste des ports virtualisables du gestionnaire de réseau virtuel
Hyper V
Le délai FCoE Linkdown a échoué prématurément lors du démarrage à distance
Le système se bloque si un port amorcé FCoE perd la liaison sur une durée supérieure à celle spécifiée dans le paramètre avancé Linkdown Timeout dans le pilote du miniport de stockage virtuel Ethernet Intel® pour FCoE. Les valeurs
de Linkdown Timeout supérieures à 30 secondes peuvent ne pas laisser suffisamment de temps avant un blocage du
système.
Windows ne démarre pas correctement après avoir utilisé la méthode d'installation d'image
La situation suivante peut se présenter lors de l'installation de Windows pour FCoE Boot en utilisant la méthode de
l'image : Windows démarre bien depuis l'unité logique FCoE lorsque l'unité de stockage locale est installée, mais
lorsque l'unité locale est retirée, Windows semble bien démarrer, mais se bloque avant d'atteindre le Bureau.
Dans ce cas, il est probable que l'installation Windows réside à la fois sur l'unité logique FCoE et sur le lecteur local.
Cela peut être vérifié en démarrant depuis l'unité logique FCoE alors que le lecteur local est installé, puis en comparant la lettre de lecteur du chemin des fichiers du bureau avec la lettre de lecteur de la partition de démarrage dans
l'outil Gestion des disques de Windows. Si les lettres de lecteur sont différentes, l'installation de Windows est répartie
entre les deux disques.
Si cela se produit, veillez à exécuter fcoeprep avant de capturer l'image et à ce que le système ne soit pas démarré
localement entre l'exécution de fcoeprep et la capture de l'image. De plus, le lecteur local peut être retiré du système
avant le premier démarrage depuis l'unité logique FCoE.
Dépannage
Problèmes courants et solutions
Il existe de nombreux problèmes réseau qui sont simples à résoudre. Examinez chacun des problèmes suivants avant
de continuer.
l
Vérifiez les modifications récentes apportées au matériel, aux logiciels ou au réseau susceptibles d'avoir perturbé les communications.
l
Vérifiez le logiciel pilote.
l
Vérifiez que vous utilisez les pilotes adéquats les plus récents de votre carte sur le site Web de
l'assistance Intel®.
l
Désactivez (ou déchargez), puis réactivez (ou rechargez) le pilote ou la carte.
l
Recherchez les éventuels paramètres conflictuels. Désactivez les paramètres avancés, tels que les
associations ou les réseaux locaux virtuels afin de vérifier si cela règle le problème.
l
Réinstallez les pilotes.
l
Vérifiez le câble. Utilisez les câbles disponibles les plus adaptés au débit de données souhaité.
l
Assurez-vous que le câble est correctement branché aux deux extrémités.
l
Assurez-vous que la longueur du câble ne dépasse pas les spécifications.
l
Pour les connexions cuivre, assurez-vous que le câble est un câble 4 paires de catégorie 5 pour
1000BASE-T ou 100BASE-TX ou un câble 4 paires de catégorie 6 pour 10GBASE-T.
l
Effectuez un test du câble.
l
Remplacez le câble.
l
Vérifiez le partenaire de liaison (commutateur, concentrateur, etc.).
l
Assurez-vous que le partenaire de liaison est actif et peut transmettre et recevoir le trafic.
l
Assurez-vous que les paramètres de la carte et du partenaire de liaison correspondent ou sont configurés pour prendre en charge la négociation automatique.
l
Assurez-vous que le port est activé.
l
Connectez-vous à un autre port disponible ou un autre partenaire de liaison.
l
Recherchez d'éventuels problèmes matériels de la carte.
l
Remettre en place la carte.
l
Insérez la carte dans un autre emplacement.
l
Recherchez le matériel et les paramètres éventuellement conflictuels ou incompatibles.
l
Remplacez la carte.
l
Consultez le site Web de l'assistance Intel® pour consulter la liste des problèmes consignés.
l
Sélectionnez votre carte dans la liste des gammes de cartes.
l
Consultez la section Questions-réponses.
l
Consultez la base de connaissances.
l
Vérifiez la surveillance du traitement et les autres moniteurs système.
l
Assurez-vous que le processeur et la mémoire sont suffisants pour effectuer les activités réseau.
l
Recherchez toute activité inhabituelle (ou manque d'activité).
l
Utilisez les programmes de test du réseau pour vérifier la connectivité de base.
l
Vérifiez la version et les paramètres du BIOS.
l
Utilisez la dernière version du BIOS adaptée à votre ordinateur.
l
Assurez-vous que les paramètres de votre ordinateur sont appropriés.
Le tableau de dépannage suivant suppose que vous avez déjà examiné les solutions et problèmes courants.
Problème
Solution
Votre ordinateur ne trouve pas la
carte réseau.
Assurez-vous que les emplacements de la carte sont compatibles avec le
type de carte que vous utilisez :
l
PCI Express v1.0 (ou version supérieure)
l
PCI-X v2.0
l
Les emplacements PCI sont de type v2.2.
Les tests de diagnostic sont bons,
mais la connexion échoue.
Assurez-vous que le câble est correctement branché, qu’il est du type approprié et qu’il n’excède pas les longueurs recommandées.
Problème
Solution
Essayez d'exécuter le test de diagnostic envoyeur/répondeur.
Assurez-vous que les paramètres de vitesse et de mode duplex de la carte
correspondent à ceux du commutateur.
Une autre carte cesse de fonctionner
après que vous avez installé la carte
réseau Intel®.
Assurez-vous que le BIOS PCI est à jour. Voir Configuration de PCI/PCIX/PCI Express.
Vérifiez la présence de conflits d’interruption et de problèmes de partage.
Assurez-vous que l’autre carte prend en charge les interruptions partagées.
Assurez-vous également que votre système d’exploitation prend en charge
les interruptions partagées.
Déchargez tous les pilotes de périphériques PCI, puis rechargez tous les
pilotes.
La carte ne peut pas se connecter au
commutateur à la vitesse adéquate.
La carte Gigabit se connecte à
100 Mbit/s et la carte 10 Gigabit à
1 000 Mbit/s.
Applicable uniquement aux connections en cuivre.
Assurez-vous que la carte et le partenaire de liaison sont configurés pour
prendre en charge la négociation automatique.
Vérifiez que vous exécutez la dernière révision du système d'exploitation de
votre commutateur et que le commutateur est conforme à la norme IEEE
adéquate :
l
Compatible IEEE 802.3ad (Gigabit sur cuivre)
l
Compatible IEEE 802.3an (10 Gigabit sur cuivre)
Le périphérique ne se connecte pas à
la vitesse attendue.
Lorsque le mode Maître-Esclave Gigabit est forcé sur le mode Maître sur la
carte Intel et sur son partenaire de liaison, la vitesse de liaison obtenue par
la carte Intel peut être inférieure aux attentes.
La carte s'arrête de fonctionner sans
aucune raison apparente.
Exécutez les tests de réseau et de carte décrits dans la rubrique « Test de la
carte ».
L'indicateur lumineux de liaison est
éteint.
Exécutez les tests de réseau et de carte décrits dans la rubrique « Test de la
carte ».
Assurez-vous que le pilote approprié (et le plus récent) est chargé.
Assurez-vous que le partenaire de liaison est configuré pour prendre en
charge la négociation automatique (ou forcer qu'il corresponde à la carte).
Vérifiez que le commutateur est conforme à la norme IEEE 802.3ad.
L'indicateur lumineux de liaison est
allumé, mais les communications ne
s'établissent pas correctement.
Assurez-vous que le pilote approprié (et le plus récent) est chargé.
La carte et son partenaire de liaison doivent être configurés pour prendre en
charge la négociation automatique ou manuelle avec les mêmes paramètres de vitesse et de mode duplex.
REMARQUE : il se peut que l’indicateur lumineux de liaison de la
carte s’allume même si la communication entre la carte et son partenaire de liaison n’a pas été correctement établie. D’un point de vue
technique, l’indicateur lumineux de liaison indique la présence d’un
signal porteur, mais pas nécessairement la capacité de communication adéquate avec un partenaire de liaison. Il s’agit d’une
situation normale conforme à la spécification IEEE du fonctionnement
de la couche physique.
L'indicateur RX ou TX est désactivé.
L'utilitaire de diagnostic indique que
la carte n'est pas activée par le BIOS
(« Not enabled by BIOS »).
Le réseau n'a peut-être aucune activité. Essayez de générer du trafic tout en
surveillant les indicateurs.
Le BIOS PCI ne configure pas correctement la carte. Voir Configuration de
PCI/PCI-X/PCI Express.
Problème
Solution
L'ordinateur se fige lorsque les pilotes
sont chargés.
Essayez de modifier les paramètres d'interruption du BIOS PCI. Voir Configuration de PCI/PCI-X/PCI Express.
La DEL Fan Fail (échec du ventilateur) de la carte réseau 10 Gigabit
AT pour serveurs est allumée (rouge).
La solution de refroidissement du ventilateur ne fonctionne pas correctement. Contactez l’assistance à la clientèle pour obtenir des instructions
complémentaires.
Configuration de PCI/PCI-X/PCI
Express
Si la carte n'est pas reconnue par votre système d'exploitation ou si elle ne
fonctionne pas, il peut être nécessaire de modifier certains paramètres du
BIOS. Essayez la manipulation suivante uniquement si vous rencontrez des
problèmes avec votre carte et connaissez bien les paramètres du BIOS.
l
Vérifiez si le paramètre "Plug-and-Play" est compatible avec le système d’exploitation utilisé.
l
Assurez-vous que l'emplacement est activé.
l
Installez la carte dans un emplacement de contrôleur de bus.
l
Configurez les interruptions pour le déclenchement par niveau plutôt
que pour le déclenchement par front d'impulsion.
l
Réservez des interruptions et/ou des adresses de mémoire. Cela
empêche que plusieurs bus ou emplacements de bus utilisent les
mêmes interruptions. Vérifiez les options IRQ de PCI/PCI-X/PCIe
dans le BIOS.
Cartes multiples
Lors de la configuration d'un environnement multicarte, vous devez mettre à niveau toutes les cartes Intel de
l'ordinateur vers le logiciel le plus récent.
Si l’ordinateur ne détecte pas tous les ports, considérez les points suivants :
l
Si la fonctionnalité Wake On LAN* (WoL) est activée sur plus de deux cartes, il se peut qu'elle puise de façon
excessive dans l'alimentation auxiliaire du système, entraînant l'incapacité du système à démarrer et d'autres
problèmes imprévisibles. Lorsque plusieurs cartes management/pour PC de bureau doivent être utilisées, nous
vous recommandons d'installer les cartes individuellement et d'utiliser l'utilitaire IBAUtil (ibautil.exe dans
\APPS\BOOTAGNT) pour désactiver la fonctionnalité WoL sur les cartes qui n'en ont pas besoin. Sur certaines
cartes pour serveurs, la fonctionnalité WoL est désactivée par défaut.
l
Les cartes sur lesquelles Intel Boot Agent est activé nécessitent une portion de la mémoire de démarrage limitée pour chaque carte activée. Désactivez le service sur les cartes qui ne nécessitent pas Pre-Boot Execution
Environment (PXE).
Autres problèmes de performances
Pour atteindre des vitesses optimales, un grand nombre de composants doivent opérer à un niveau de rendement
maximal. Parmi ces composants, on retrouve :
l
Qualité et longueur de câble : ne pas utiliser un câble plus long que celui qui est recommandé pour votre type
de câble. Des câbles plus courts donnent souvent de meilleurs résultats. Vérifiez si les connecteurs sont bien
fixés et ne sont pas endommagés. Vérifiez que le câble n'est ni plié ni endommagé.
l
Vitesse de bus et trafic : la vitesse du bus PCI s'adapte à celle de la carte PCI installée la plus lente. Vérifiez
qu'aucune carte ne ralentit votre système.
l
Processeur et mémoire : consultez vos programmes de surveillance des performances pour voir si le trafic est
affecté par la vitesse du processeur, la mémoire disponible ou d'autres processus.
l
Taille de trames de transmission : les performances du réseau peuvent être améliorées en réglant ou optimisant la taille des trames de transmission. Les systèmes d’exploitation, commutateurs et cartes imposent des
limites différentes sur la taille maximum des trames. Voir la description des trames Jumbo correspondant à
votre SE.
l
Système d'exploitation : l'implémentation des fonctions réseau, par exemple le délestage et le threading multiprocesseur, varie en fonction de la version du système d'exploitation.
Test de la carte réseau
Le logiciel de diagnostic d’Intel vous permet de tester la carte pour détecter les problèmes éventuels de matériel, de
câblage ou de connexion réseau.
Test depuis Windows
Intel® PROSet permet d’exécuter trois types de test de diagnostic.
l
Test de connexion : Ce test vérifie la connectivité du réseau en envoyant un ping au serveur DHCP, au serveur
WINS et à la passerelle.
l
Tests de câble : Ces tests fournissent des informations sur les propriétés du câble.
REMARQUE : le test de câble n'est pas pris en charge sur toutes les
cartes. Il est uniquement disponible sur les cartes qui le prennent en
charge.
l
Tests du matériel : déterminez si la carte fonctionne correctement.
REMARQUE : les tests de matériel échouent si la carte est configurée pour le démarrage iSCSI.
Pour accéder à ces tests, sélectionnez la carte dans le Gestionnaire de périphériques Windows, cliquez sur l’onglet
Liaison, puis cliquez sur Diagnostics. Une fenêtre Diagnostics affiche des onglets pour chaque type de test. Cliquez
sur l’onglet approprié pour exécuter un test.
La disponibilité de ces tests dépend de la carte et du système d'exploitation. Les tests peuvent être désactivés si :
l
le démarrage iSCSI est activé sur le port ;
l
le démarrage FCoE est activé sur le port ;
l
le port est utilisé comme port de gestion.
l
Les tests sont exécutés à partir d'une machine virtuelle.
Test depuis Windows PowerShell*
Intel® fournit deux cmdlets PowerShell permettant de tester votre carte.
l
La cmdlet Test-IntelNetDiagnostics exécute l'ensemble des tests spécifié sur l'appareil indiqué. Pour de plus
amples informations, consultez l'aide relative à la cmdlet Test-IntelNetDiagnostics dans PowerShell.
l
La cmdlet Test-IntelNetIdentifyAdapter fait clignoter la DEL sur l'appareil spécifié.
Diagnostics Linux
Le pilote utilise l'interface ethtool pour la configuration et les diagnostics de pilote, ainsi que pour l'affichage des informations statistiques. La version 1.6 d'ethtool ou une version ultérieure est requise pour cette fonctionnalité.
La dernière version d’ethtool est accessible à : http://sourceforge.net/projects/gkernel.
REMARQUE : ethtool 1.6 ne prend en charge qu’un nombre limité d’options ethtool. Il est possible d’activer la
prise en charge d’un ensemble de fonctionnalités ethtool plus complet en effectuant la mise à jour vers la toute
dernière version d’ethtool.
Tests du répondeur
La carte Intel peut envoyer des messages de test à une autre carte Ethernet sur le même réseau. Ce test est disponible
dans DOS via l'utilitaire diags.exe disponible sur la page de l'Assistance client.
Journal d'événements Windows*
Noms des services du journal d'événements Windows
Contrôleur Ethernet
Intel®
Nom des fichiers du pilote
NDIS
Nom des services du journal d'événements Windows
I350
E1r*.sys
e1rexpress
I354
E1s*.sys
e1sexpress
X520
Ixn*.sys
ixgbn
X540
Ixt*.sys
ixgbt
X550
Ixs*.sys
ixgbs
Série 710
I40ea*.sys
i40ea
Messages des cartes réseau Intel®
Ci-dessous figure une liste des messages d'événements personnalisés apparaissant dans le journal d'événements
Windows pour les cartes réseau Ethernet Intel® :
ID
Message
d’événement
Gravité
6
PROBLÈME : Impossible d’allouer les registres de mappage nécessaires à
l’opération.
ACTION : Réduisez le nombre de descripteurs de transmission et redémarrez.
Erreur
7
PROBLÈME : Impossible d’affecter une interruption à la carte réseau.
ACTION : Essayez un autre emplacement PCIe.
ACTION : Installez le dernier pilote à partir du site http://www.intel.com/support/fr/go/network/adapter/home.htm.
Erreur
23
PROBLÈME : Il est possible que l’EEPROM de la carte réseau soit endommagée.
ACTION : Consultez le site Web d’assistance sur le site http://www.intel.com/support/fr/go/network/adapter/home.htm.
Erreur
24
PROBLÈME : Impossible de démarrer la carte réseau.
ACTION : Installez le dernier pilote à partir du site http://www.intel.com/support/fr/go/network/adapter/home.htm.
Erreur
25
PROBLÈME : L’adresse MAC de la carte réseau est invalide.
ACTION : Allez sur http://www.intel.com/support/fr/go/network/adapter/home.htm où
vous pourrez trouver une assistance.
Erreur
27
La liaison réseau a été interrompue.
Avertissement
30
PROBLÈME : La carte réseau est configurée pour la négociation automatique mais
le partenaire de liaison ne l’est pas. Cela peut entraîner une discordance de mode
duplex.
ACTION : Configurez le partenaire de liaison pour la négociation automatique.
Avertissement
31
La liaison réseau a été établie à 10 Gbit/s Full duplex.
Pour information
32
La liaison réseau a été établie à 1 Gbit/s Full duplex.
Pour information
33
La liaison réseau a été établie à 100 Mbit/s Full duplex.
Pour information
34
La liaison réseau a été établie à 100 Mbit/s Half duplex.
Pour information
ID
Message
d’événement
Gravité
35
La liaison réseau a été établie à 10 Mbit/s Full duplex.
Pour information
36
La liaison réseau a été établie à 10 Mbit/s Half duplex.
Pour information
37
PROBLÈME : La bande passante PCI-Express de cette carte n’est pas suffisante
pour obtenir un rendement maximal.%n
ACTION : Installez la carte dans un logement x8 PCI Express.
Avertissement
40
Smart Speed a réduit la vitesse de la liaison maximale annoncée.
Pour information
41
Le pilote de la carte réseau a été arrêté.
Pour information
42
Le pilote de la carte réseau a été démarré.
Pour information
43
PROBLÈME : Impossible d’allouer la mémoire partagée nécessaire à l’opération.
ACTION : Réduisez le nombre de descripteurs de transmission et de réception, puis
redémarrez.
Erreur
44
PROBLÈME : Impossible d’allouer la mémoire nécessaire à l’opération.
ACTION : Réduisez le nombre de descripteurs de transmission et de réception, puis
redémarrez.
Erreur
45
PROBLÈME : Impossible d’allouer un pool de ressources nécessaire à l’opération.
ACTION : Réduisez le nombre de descripteurs de transmission et de réception, puis
redémarrez.
Erreur
46
PROBLÈME : Impossible d’initialiser les ressources DMA de dispersion-collecte
nécessaires à l’opération.
ACTION : Réduisez le nombre de descripteurs de transmission et redémarrez.
Erreur
47
PROBLÈME : Impossible de mapper la mémoire flash de la carte réseau.
ACTION : Installez le dernier pilote à partir du site http://www.intel.com/support/fr/go/network/adapter/home.htm.
ACTION : Essayez un autre connecteur.
Erreur
48
PROBLÈME : Le ventilateur de la carte réseau est tombé en panne.
ACTION : Mettez l’ordinateur hors tension et remplacez la carte réseau.
Erreur
49
PROBLÈME : Le chargement du pilote a échoué car un module SFP+ non pris en
charge est installé sur la carte.
ACTION : Remplacez le module :
ACTION : Installez le dernier pilote à partir du site http://www.intel.com/support/fr/go/network/adapter/home.htm.
Erreur
50
PROBLÈME : La carte réseau a été arrêtée car elle surchauffait.
ACTION : Redémarrez l’ordinateur. Si le problème persiste, arrêtez l’ordinateur et
remplacez la carte réseau.
Erreur
51
PROBLÈME : La vitesse de liaison de la carte réseau a été réduite car la carte surchauffait.
Erreur
52
PROBLÈME : La carte réseau a été arrêtée car elle surchauffait.
Erreur
53
Impossible de configurer les trames Jumbo lorsque MACSec est activé.
Pour information
54
PROBLÈME : Un pilote VF malveillant a été détecté.
Avertissement
ID
Message
d’événement
Gravité
56
Le pilote réseau a été interrompu, car la carte réseau a été retirée.
Pour information
58
La liaison réseau a été établie à 25 Gbit/s Full duplex.
Pour information
60
La liaison réseau a été établie à 50 Gbit/s Full duplex.
Pour information
61
La liaison réseau a été établie à 20 Gbit/s Full duplex.
Pour information
64
L'ID etrack de cette carte réseau est :
Pour information
65
PROBLÈME : La bande passante PCI-Express de cette carte n’est pas suffisante
pour obtenir un rendement maximal.%n
ACTION : déplacer la carte vers un logement PCI Express x4 de 3e génération.
Avertissement
66
PROBLÈME : La bande passante PCI-Express de cette carte n’est pas suffisante
pour obtenir un rendement maximal.%n
ACTION : déplacer la carte vers un logement PCI Express x8 de 3e génération.
Avertissement
67
La partition a détecté une vitesse de liaison inférieure à 10 Gbit/s.
Avertissement
68
Le pilote du périphérique s'est arrêté car l'image NVM est plus récente que le pilote.
Vous devez installer la version la plus récente du pilote réseau.
Erreur
69
Le pilote du périphérique a détecté une version plus récente qu'attendu de l'image
NVM. Veuillez installer la version la plus récente du pilote réseau.
Avertissement
70
Le pilote du périphérique a détecté une version plus ancienne qu'attendu de l'image
NVM. Veuillez mettre à jour l'image NVM.
Pour information
71
Le chargement du pilote a échoué, car un module de type non pris en charge a été
détecté.
Erreur
72
PROBLÈME : le chargement du pilote a échoué, car la carte réseau n'a pas reçu les
ressources d'interruption MSI-X requises.
ACTION : déplacer la carte réseau vers un autre logement ou une autre plate-forme.
Erreur
73
Les paramètres utilisateur « Vitesse et duplex » et « Contrôle de flux » ne peuvent
pas être modifiés, car ce périphérique fonctionne en mode de connexion virtuelle.
Pour information
Messages du module iANS (Services réseau avancés Intel)
Ci-dessous se trouve une liste des messages d'événements personnalisés du pilote intermédiaire apparaissant dans
le journal d'événements Windows :
ID
Message
d’événement
Gravité
2
Impossible d’allouer les ressources nécessaires. Libérez des ressources mémoire et Erreur
redémarrez.
3
Impossible de lire les paramètres de registre nécessaires. Pour résoudre ce problème, supprimez l’association de cartes et créez-en une autre.
Erreur
4
Association impossible avec la carte physique. Pour résoudre ce problème, supprimez l’association de cartes et créez-en une autre.
Erreur
5
Impossible d’initialiser une association de cartes. Pour résoudre ce problème, supprimez l’association de cartes et créez-en une autre.
Erreur
ID
Message
d’événement
Gravité
6
La carte principale est initialisée : <description de la carte membre>
Pour information
7
La carte principale est initialisée : <description de la carte membre>
Pour information
8
N° association <ID association> : L'association est initialisée.
Pour information
9
N° association <ID> : La carte virtuelle pour <nom du réseau VLAN> [VID=<ID
VLAN>] est initialisée.
Pour information
10
La carte principale actuelle commute depuis : <description de la carte membre>
Pour information
11
Lien de la carte inactif : <description de la carte membre>
Avertissement
12
La carte secondaire a pris la main : <description de la carte membre>
Pour information
13
La carte <description de la carte membre> a été désactivée de l’association.
Avertissement
14
La carte secondaire a rejoint l’association : <description de la carte membre>
Pour information
15
Lien de la carte actif : <description de la carte membre>
Pour information
16
N° association <ID> : La dernière carte a perdu la liaison. La connexion réseau a été Erreur
perdue.
17
N° association <ID> : Une carte a rétabli la liaison. La connexion réseau a été restaurée.
Pour information
18
La carte principale préférée a été détectée : <description de la carte membre>
Pour information
19
La carte secondaire préférée a été détectée : <description de la carte membre>
Pour information
20
La carte principale préférée a pris la main : <description de la carte membre>
Pour information
21
La carte secondaire préférée a pris la main : <description de la carte membre>
Pour information
22
La carte principale ne détecte aucune sonde : <description de la carte membre>. Rai- Avertissement
son possible : association partitionnée.
23
N° association <ID> : Une carte virtuelle n’a pas pu s’initialiser.
Erreur
32
Une boucle non valide est apparue sur la carte de l'appareil <description de la carte
membre>. Vérifiez la configuration pour vous assurer que toutes les cartes de
l'association sont connectées à des ports de commutation compatibles 802.3ad.
Avertissement
35
Initialisation de l’association <ID> dans laquelle <nombre de cartes manquantes>
des cartes sont manquantes. Vérifiez la configuration pour vous assurer que toutes
les cartes sont présentes et opérationnelles.
Avertissement
37
La carte virtuelle pour <nom du réseau VLAN> [VID=<ID VLAN>] a été supprimée de
l’association <ID association>.
Pour information
38
Carte supprimée de l’association <ID>.
Pour information
ID
Message
d’événement
Gravité
39
Vous ne pourrez probablement pas modifier les paramètres de la carte virtuelle.
Pour résoudre ce problème, rechargez le pilote.
Avertissement
40
Le processus de déchargement de la carte virtuelle a probablement échoué. Le
pilote n’est probablement pas déchargé. Pour résoudre ce problème, redémarrez le
système.
Avertissement
Messages d'Intel® DCB
Ci-dessous se trouve une liste des messages d'événements personnalisés du pilote intermédiaire apparaissant dans
le journal d'événements Windows :
ID
Message
d’événement
Gravité
256
Chaîne de débogage de service
Pour information
257
La fonctionnalité de sélection de transmission améliorée ETS a été activée sur un périphérique.
Pour information
258
La fonctionnalité de sélection de transmission améliorée ETS a été désactivée sur un
périphérique.
Pour information
259
La fonctionnalité de contrôle de flux prioritaire PFC a été activée sur un périphérique.
Pour information
260
La fonctionnalité de contrôle de flux prioritaire PFC a été désactivée sur un périphérique.
Pour information
261
La fonctionnalité de sélection de transmission améliorée ETS sur un périphérique est
passée à l'état Opérationnelle.
Pour information
262
La fonctionnalité de contrôle de flux prioritaire PFC sur un périphérique est passée à
l'état Opérationnelle.
Pour information
263
La fonctionnalité Application sur un périphérique est passée à l'état Opérationnelle.
Pour information
264
La fonctionnalité Application a été désactivée sur un périphérique.
Pour information
265
La fonctionnalité Application a été activée sur un périphérique.
Pour information
269
La fonctionnalité de liaison logique sur un périphérique est passée à l'état Opérationnelle.
Pour information
270
La fonctionnalité de liaison logique a été désactivée sur un périphérique.
Pour information
271
La fonctionnalité de liaison logique a été activée sur un périphérique.
Pour information
768
Échec du service au démarrage.
Erreur
770
Échec du gestionnaire de services lors de l'installation.
Erreur
771
Le service n'a pas pu allouer suffisamment de mémoire.
Erreur
772
Le service n'a pas pu utiliser la carte réseau.
Erreur
773
Le service a rejeté la configuration : total des groupes de bandes passantes de transmission non valide.
Erreur
ID
Message
d’événement
Gravité
774
Le service a rejeté la configuration : total des groupes de bandes passantes de réception non valide.
Erreur
775
Le service a rejeté la configuration : index des groupes de bandes passantes de transmission non valide.
Erreur
776
Le service a rejeté la configuration : index des groupes de bandes passantes de réception non valide.
Erreur
777
Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur une
classe de trafic de transmission.
Erreur
778
Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur une
classe de trafic de réception.
Erreur
779
Le service a rejeté la configuration : bande passante nulle sur une classe de trafic de
transmission.
Erreur
780
Le service a rejeté la configuration : bande passante nulle sur une classe de trafic de
réception.
Erreur
781
Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur un
groupe de trafic de transmission.
Erreur
782
Le service a rejeté la configuration : liaison stricte et bande passante non nulle sur un
groupe de trafic de réception.
Erreur
783
Le service a rejeté la configuration : total de transmission non valide pour le groupe de
bandes passantes.
Erreur
784
Le service a rejeté la configuration : total de réception non valide pour le groupe de
bandes passantes.
Erreur
785
Le service ne peut pas configurer les services WMI requis.
Erreur
786
Le service a rencontré une erreur d'état de transmission.
Erreur
787
Le service a rencontré une erreur d'état de réception.
Erreur
789
La connexion du service au pilote du protocole LLDP a échoué.
Erreur
790
La fonctionnalité de sélection de transmission améliorée ETS sur un périphérique est
passée à l'état Non opérationnelle.
Erreur
791
La fonctionnalité de contrôle de flux prioritaire PFC sur un périphérique est passée à
l'état Non opérationnelle.
Erreur
792
La fonctionnalité Application sur un périphérique est passée à l'état Non opérationnelle.
Erreur
793
Le service a rejeté la configuration : des groupes de bandes passantes multiples avec
liaison stricte ont été détectés.
Erreur
794
La fonctionnalité de liaison logique sur un périphérique est passée à l'état Non opérationnelle.
Erreur
795
Impossible d'ouvrir le périphérique.
Erreur
796
Les paramètres de pontage de centre de données de la carte réseau ne sont pas
valides.
Erreur
797
Les paramètres de pontage de centre de données de la carte réseau ne sont pas
valides - AppSelector.
Erreur
798
Composant de pilote de carte réseau non optimal détecté. Installez la version 3.5 du
Erreur
ID
Message
d’événement
Gravité
pilote de carte réseau ou une version supérieure.
Messages d'Intel® iSCSI DCB
Ci-dessous se trouve une liste des messages d'événements personnalisés du pilote intermédiaire apparaissant dans
le journal d'événements Windows :
ID
Message
d’événement
Gravité
4352
Chaîne de débogage de service :
Pour information
4353
L'agent DCB iSCSI a ajouté un filtre QOS pour le trafic iSCSI.
Pour information
4354
L'agent DCB iSCSI a supprimé un filtre QOS pour le trafic iSCSI.
Pour information
4355
L'agent DCB iSCSI a modifié un filtre QOS pour le trafic iSCSI.
Pour information
4356
L'agent de pontage de centre de données iSCSI a été notifié par le service QoS
qu'une carte de pontage de centre de données iSCSI a été fermée.
Pour information
4357
Les fonctionnalités de contrôle de flux prioritaire et de priorité des utilisateurs
d'application sont configurées pour le trafic DCB iSCSI.
Pour information
4358
Tous les membres de l'association configurés pour le trafic DCB iSCSI ont une configuration DCB valide.
Pour information
8704
Certains membres de l'association configurés pour le trafic DCB iSCSI ont une configuration DCB non valide.
Avertissement
13056
Échec du service au démarrage.
Erreur
13057
Échec du gestionnaire de services lors de l'installation.
Erreur
13058
Erreur retournée par l'interface de contrôle du trafic.
Erreur
13059
Le service n'a pas pu allouer suffisamment de mémoire.
Erreur
13060
L'agent DCB iSCSI ne peut pas ajouter le filtre QOS pour le trafic iSCSI.
Erreur
13061
L'agent du pontage de centre de données iSCSI a été notifié par le service QoS que
tous les filtres QoS d'une carte du pontage de centre de données iSCSI ont été supprimés.
Erreur
13062
Les fonctionnalités de contrôle de flux prioritaire et de priorité des utilisateurs
d'application ne sont pas correctement configurées pour le trafic DCB iSCSI.
Erreur
13063
La fonctionnalité TLV du contrôle de flux prioritaire n'est pas opérationnelle pour le
trafic DCB iSCSI.
Erreur
13064
La fonctionnalité TLV de l'application n'est pas opérationnelle pour le trafic DCB
iSCSI.
Erreur
13065
Système d'exploitation non pris en charge détecté.
Erreur
13066
Aucun membre de l'association configuré pour le trafic DCB iSCSI ne dispose d'une
configuration DCB valide.
Erreur
Indicateurs lumineux
Les cartes réseau Intel pour serveur et ordinateur de bureau sont équipées sur leur fond de panier d'indicateurs lumineux servant à indiquer leur activité et leur état. Les tableaux suivants présentent les états possibles des indicateurs
lumineux pour chaque carte réseau.
Cartes réseaux 2 ports QSFP+
La carte réseau convergent Ethernet Intel® XL710-Q2 comporte les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
Vert
Liaison à 40 Gbits
Clignotement
Transmission ou réception active de données
Désactivé
Pas de liaison.
ACT/LNK
Cartes réseaux 2 ports SFP/SFP+
La carte réseau Ethernet Intel® 25G 2P XXV710 comporte les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
Vert
Liaison à 25 Gbit/s
Jaune
Liaison à 10 Gbit/s ou 1 Gbit/s
Clignotement
Transmission ou réception active de données
Désactivé
Pas de liaison.
GRN 25G
ACT/LNK
Les cartes réseau convergent Ethernet Intel® X710 comportent les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
Vert
Liaison à 10 Gbits
Jaune
Liaison à 1 Gbit/s
Clignotement
Transmission ou réception active de données
Désactivé
Pas de liaison.
LNK
ACT
Les cartes réseau Intel® 10G 2P X520 comportent les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
Activé
Liée au réseau local.
Désactivé
Non liée au réseau local.
Clignotement
Transmission ou réception active de données.
Désactivé
Pas de liaison.
GRN 10G
(A ou B) : Vert
ACT/LNK
(A ou B) : Vert
Cartes réseaux 2 ports en cuivre
Les cartes réseau Ethernet Intel® 10G 2P X550-t comportent les indicateurs lumineux suivants :
Étiquette
Link (Liaison)
Descriptif
Signification
Vert
Liaison à 10 Gbits.
Jaune
Liaison à 1 Gbits.
Désactivé
Liaison à 100 Mbits/s.
Clignotement
Transmission ou réception active de données.
Désactivé
Pas de liaison.
Activité
Les cartes réseau Ethernet Intel® 10G 2P X540-t comportent les indicateurs lumineux suivants :
Étiquette
Link (Liaison)
Descriptif
Signification
Vert
Liaison à 10 Gbits.
Jaune
Liaison à 1 Gbits.
Désactivé
Pas de liaison.
Clignotement
Transmission ou réception active de données.
Désactivé
Pas de liaison.
Activité
Les cartes réseau Intel® Gigabit 2P I350-t comportent les indicateurs lumineux suivants :
Étiquette
ACT/LNK
Descriptif Signification
Vert
allumé
La carte est connectée à un partenaire de liaison valide.
Vert clignotant
Activité de données
Désactivé
Pas de liaison.
Désactivé
10 Mbit/s
Vert
100 Mbit/s
Jaune
1000 Mbit/s
10/100/1000
Identité. Utilisez le bouton "Identify Adapter" (Identifier la
Orange clicarte) d’Intel PROSet pour contrôler le clignotement. Pour de
gnotant
plus amples informations, consultez l’aide d’Intel® PROSet.
Cartes réseaux 4 ports en cuivre
Les cartes réseau convergent Ethernet Intel® X710 et les cartes réseau convergent Ethernet Intel® X710-T comportent les indicateurs lumineux suivants :
Étiquette
ACT
LNK
Descriptif
Signification
Vert allumé
La carte est connectée à un partenaire de liaison valide.
Vert clignotant
Activité de données
Désactivé
Pas de liaison.
Vert
10 Gbit/s
Jaune
1 Gbit/s
Désactivé
100 Mbit/s
Les cartes réseau Intel® Gigabit 4P I350-t rNDC comportent les indicateurs lumineux suivants :
Étiquette
ACT/LNK
10/100/1000
Descriptif Signification
Vert
allumé
La carte est connectée à un partenaire de liaison valide.
Vert clignotant
Activité de données
Désactivé
Pas de liaison.
Vert
100 Mbit/s
Jaune
1000 Mbit/s
Identité. Utilisez le bouton "Identify Adapter" (Identifier la carte)
Orange clid'Intel® PROSet pour contrôler le clignotement. Pour de plus
gnotant
amples informations, consultez l’aide d’Intel® PROSet.
Désactivé
10 Mbit/s
rNDC (Cartes filles réseau en rack)
La carte réseau Ethernet Intel® 40G 2P X710 QSFP+ rNDC comporte les indicateurs lumineux
suivants :
Étiquette
Descriptif
Signification
LNK (vert/jaune)
Vert allumé
Fonctionnement à vitesse de port maximale.
Désactivé
Pas de liaison.
Vert clignotant
Activité de données.
Désactivé
Aucune activité.
ACT (vert)
Les cartes Ethernet Intel® 10G 4P X550/I350 rNDC, Intel® Gigabit 4P X550/I350 rNDC, Ethernet Intel® 10G 4P
X550 rNDC, Ethernet Intel® 10G 4P X540/I350 rNDC, Intel® Gigabit 4P X540/I350 rNDC et Intel® Gigabit 4P I350-t
rNDC comportent les indicateurs lumineux suivants :
Étiquette
Descriptif
Signification
LNK (vert/jaune)
Vert allumé
Fonctionnement à vitesse de port maximale.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert clignotant
Activité de données.
Désactivé
Aucune activité.
ACT (vert)
Les cartes Ethernet Intel® 10G 4P X520/I350 rNDC, Intel® Gigabit 4P X520/I350 rNDC, Ethernet Intel® Gigabit
4P x710/I350 rNDC et Intel® 10G 4P X710/I350 rNDC comportent les indicateurs lumineux suivants :
Étiquette
Descriptif
LNK (vert/jaune) Vert allumé
ACT (vert)
Signification
Fonctionnement à vitesse de port maximale.
Jaune allumé
Fonctionnement à vitesse de port minimale.
Désactivé
Pas de liaison.
Vert clignotant Activité de données.
Désactivé
Aucune activité.
Problèmes connus
REMARQUE : les problèmes connus relatifs à iSCSI et les problèmes connus relatifs à FCoE sont répertoriés
dans ce manuel dans une section qui leur est propre.
Échec de la rétrogradation du microprogramme à la version v18.0.x ou antérieure sur
les périphériques équipés d'un contrôleur X550
Sur les périphériques équipés d'un contrôleur X550, la rétrogradation du microprogramme à la version v18.0.x ou antérieure échoue et peut entraîner des problèmes d'incompatibilité de version entre NVM et l'option ROM. Pour résoudre
ce problème, passez la mise à jour vers la dernière version du microprogramme.
Une erreur s'est produite lors de la mise à jour d'un module sur la carte réseau Ethernet Intel® 10G 2P X550-t à l'aide du microprogramme 17.5.0
Si vous utilisez le microprogramme DUP (Dell EMC Update Package) v17.5.0 pour mettre à jour le microprogramme
(FW) vers une version antérieure d'une carte réseau Ethernet Intel® 10G 2P X550-t, le DUP peut afficher le message
« An error occurred when updating a module » (Une erreur s'est produite lors de la mise à jour d'un module). Veuillez
ignorer ce message d'erreur. Le microprogramme a été mis à jour correctement vers une version antérieure.
Erreur "La fonctionnalité de Réception/Transmission (Rx/Tx) est désactivée sur ce
périphérique car le module ne satisfait pas aux exigences thermiques." pendant le
POST
Cette erreur résulte de l'installation d'un module dans un périphérique X710 ne respectant pas les exigences thermiques pour ce périphérique. Pour résoudre le problème, veuillez installer un module respectant les exigences thermiques du périphérique. Voir la section "Périphériques SFP+ et QSFP+" de ce document.
Erreur "La fonctionnalité de Réception/Transmission (Rx/Tx) est désactivée sur ce
périphérique car un module SFP+ de type non pris en charge a été détecté." pendant
le POST
Cette erreur résulte de l'installation d'un module non pris en charge dans un périphérique équipé d'un contrôleur
X710/XL710. Vous ne pourrez plus envoyer ni recevoir de trafic sur ce périphérique. Pour résoudre le problème,
veuillez installer un module pris en charge. Voir la section "Périphériques SFP+ et QSFP+" de ce document.
Fonctions virtuelles de port manquantes dans VMWare ESX
Si vous activez le mode NPar et SR-IOV sur le même appareil, le nombre de fonctions virtuelles activées et affichées
dans Ispci peut être de 8 ou moins. ESX limite le nombre de fonctions virtuelles à huit par appareil. De plus, en raison
des restrictions imposées par ESXi, le nombre de fonctions virtuelles créées peut être inférieur au nombre demandé.
Reportez-vous à la documentation ESXi pour plus d'informations.
http://pubs.vmware.com/
Pertes de paquets de données dues à des paquets LLDP fréquents sur un port inactif
Lorsque des ports sont associés ou agrégés dans une configuration active/passive (par exemple, dans une association de tolérance aux pannes du commutateur ou une agrégation en mode 1), le port inactif peut envoyer des
paquets LLDP fréquemment, ce qui entraîne la perte de paquets de données. Cela peut se produire lors d'une association des Services réseau avancés(ANS) sur les systèmes d'exploitation Microsoft Windows ou lors d'agrégations de
type Channel Bonding sous les systèmes Linux. Pour résoudre ce problème, configurez l'un des ports comme port principal.
Code 10 jaune qui signale une erreur dans le Gestionnaire de périphérique Windows
sur une machine virtuelle
Sur les systèmes exécutant Microsoft Windows Server 2016, dans une machine virtuelle exécutant Microsoft Windows
Server 2016 ou Windows Server 2012 R2, les connexions Ethernet Intel® peuvent s'accompagner d'une erreur en
jaune (code 10) dans le Gestionnaire de périphériques Windows. L'installation d'une mise à jour cumulative contenant
Microsoft KB3192366 et KB3176936 résoudra le problème.
Perte de paquets reçus sur les réseaux 10/100 Half-duplex
Si vous disposez d’une carte Intel PCI Express fonctionnant à 10 Mbit/s ou 100 Mbit/s, half-duplex avec la fonctionnalité de délestage des segments TCP (TSO) activée, il est possible que vous constatiez une perte occasionnelle
de paquets reçus. Pour résoudre ce problème, désactiver la fonctionnalité TSO ou modifiez le réseau pour qu’il opère
en Full duplex ou à 1 Gbit/s.
Chute du débit après un remplacement à chaud
Si une carte Gigabit Intel est soumise à un stress élevé ou est remplacée à chaud, le débit risque de chuter substantiellement. Cela peut être dû à la configuration des propriétés PCI par le logiciel de remplacement à chaud. Si cela
se produit, le débit peut être rétabli en redémarrant le système.
Taux d’utilisation des processeurs plus élevé que prévu
Définir une valeur supérieure à 4 pour les files d'attente RSS n'est conseillé que pour les gros serveurs dotés de plusieurs processeurs. Les valeurs supérieures à 4 risquent d’augmenter le taux d’utilisation des processus à des
niveaux inacceptables et d’affecter négativement la performance du système.
Module SFP ou SFP+ pris en charge non reconnu par le système
Si vous essayez d’installer un module non pris en charge, le port risque de ne plus installer les modules subséquents,
qu’ils soient ou non pris en charge. Le port affichera une icône jaune sous le Gestionnaire de périphériques Windows
et un ID d’événement 49 (module non pris en charge) sera ajouté au journal système dès l’apparition de ce problème.
Pour résoudre le problème, le système doit être complètement mis hors tension.
Problèmes connus sous Windows
Vous ne pouvez pas désinstaller les pilotes prêts à l'emploi à partir du menu Applications et fonctionnalités de la console Web
Vous ne pouvez pas utiliser le menu Applications et fonctionnalités de la console Web de Microsoft* Windows* 2016
pour désinstaller les pilotes prêts à l'emploi. Utilisez plutôt l'option Programmes et fonctionnalités dans le Panneau de
configuration Windows.
Le port est absent du contrôleur de durée de vie (Lifecycle Controller) : Paramètres réseau
Si un port est configuré pour le démarrage iSCSI ou FCoE, et qu'il se connecte à sa cible de démarrage, il est impossible de modifier les paramètres du port dans le contrôleur de cycle de vie (Lifecycle Controller).
Procédure d’installation et de mise à niveau des pilotes et utilitaires
Intel recommande de ne pas installer/mettre à niveau les pilotes et le logiciel Intel® PROSet en utilisant une connexion
réseau. Installez (ou mettez à niveau) plutôt les pilotes et utilitaires à partir de chaque système. Pour installer ou mettre
à niveau les pilotes et utilitaires, suivez les instructions du guide de l’utilisateur.
Modification des paramètres de l’onglet Advanced Properties (Propriétés avancées) lorsque du trafic
est présent
Il est conseillé de ne pas modifier les paramètres de l’onglet Advanced Properties (Propriétés avancées) d’Intel®
PROSet lorsque les charges réseau sont élevées. Autrement, un redémarrage peut s’avérer nécessaire pour que les
modifications soient prises en compte.
Dans un environnement Microsoft Hyper-V, les machines virtuelles associées aux partitions NPAR ne
communiqueront pas entre elles
Dans un environnement Microsoft Hyper-V, si NPAR est activé sur un port et que les machines virtuelles sont associées aux partitions de ce port, les machines virtuelles ne peuvent pas communiquer entre elles. Cela se produit parce
que le commutateur virtuel dans Hyper-V envoie les paquets vers le port physique, qui envoie les paquets au commutateur connecté au port. Le commutateur physique peut ne pas être configuré en tant que relais réfléchissant (renvoi d'appel en U). Il peut donc ne pas renvoyer les paquets à la connexion depuis laquelle il les a reçus. La connexion
du port à un commutateur avec agrégateur de port Ethernet virtuel (VEPA) résoudra le problème.
Les pilotes Intel doivent être installés par le Dell EMC Update Package avant la configuration des fonctionnalités Microsoft Hyper-V
Avant de configurer les fonctionnalités Microsoft* Hyper-V, les pilotes des cartes réseau Intel® doivent être installés
par le Dell EMC Update Package. Si la fonction Microsoft* Hyper-V est configurée sur une partition de carte réseau
non prise en charge sur les périphériques Intel® X710 avant l'exécution du Dell EMC Update Package pour installer
les pilotes de carte réseau Intel®, l'installation des pilotes peut échouer. Pour résoudre le problème, vous devez désinstaller Microsoft* Hyper-V, désinstaller "Connexions réseau Intel®" de "Programmes et fonctionnalités", et exécuter le
Dell EMC Update Package pour installer les pilotes de carte réseau Intel®.
Perte de liaison entre la machine virtuelle et le système Microsoft Windows Server 2012 R2
Si vous modifiez le paramètre BaseRssProcessor d'un système Microsoft Windows Server 2012 R2 sur lequel des files
d'attente d'ordinateurs virtuels (VMQ) sont activées, puis que vous procédez à l'installation de Microsoft Hyper-V et à la
création d'une ou de plusieurs machines virtuelles, il se peut que les machines virtuelles perdent la liaison.
L'installation du correctif cumulatif d'avril 2014 pour Windows RT 8.1, Windows 8.1 et Windows Server 2012 R2
(2919355) et du correctif logiciel 3031598 permettent de résoudre le problème. Consultez les sites http://support2.microsoft.com/kb/2919355 et http://support2.microsoft.com/kb/3031598 pour davantage d'informations.
Chaîne de marquage incomplète affichée dans le journal des événements
Certaines chaînes de marquage sont trop longues pour être entièrement affichées dans le journal des événements.
Dans ces cas, la chaîne de marquage est tronquée et les valeurs du bus PCI, du périphérique ou de la fonction sont
ajoutées à la chaîne. Par exemple : Carte réseau convergent Ether... [129,0,1].
Les fonctionnalités de qualité de service (QoS) et de contrôle de flux prioritaire de DCB ne fonctionnent
pas comme prévu
Si vous configurez les fonctionnalités de qualité de service (QoS) et de contrôle de flux prioritaire (PFC) de
l'implémentation Data Center Bridging (DCB) de Microsoft, la ségrégation du trafic réel par classe de trafic pourrait ne
pas correspondre à votre configuration et PCF pourrait ne pas mettre le trafic en pause comme prévu. Si vous avez mis
en correspondance plus d'une priorité avec une classe de trafic, le fait d'activer uniquement une des priorités et de
désactiver les autres résoudra le problème. L'installation de l'implémentation DCB (Pontage de centre de données)
d'Intel résoudra également le problème. Ce problème affecte Microsoft Windows Server 2012 R2.
Perte de liaison après le passage au paramètre des trames Jumbo
Dans une partition invitée sur une machine virtuelle Microsoft Windows Server 2012 R2 Hyper-V, si vous modifiez le
paramètre avancé de trames Jumbo sur un appareil Ethernet reposant sur le contrôleur Intel® X540 ou sur une carte
réseau associée Hyper-V NetAdapter, la liaison peut se perdre. La modification de tout autre paramètre avancé résoudra le problème.
Les VMQ (Virtual Machine Queues) ne sont attribuées qu'après le redémarrage
Sur un système Microsoft Windows Server 2012 R2 doté de cartes serveur Gigabit Ethernet Intel®, si vous installez
Hyper-V et créez un commutateur de machine virtuelle, les Virtual Machine Queues (VMQ) ne sont pas attribuées
avant que vous ne redémarriez le système. Les machines virtuelles peuvent transmettre et recevoir le trafic dans la file
d'attente par défaut, mais aucune VMQ ne sera utilisée tant que le système n'aura pas été redémarré.
ID d'événements d'erreur d'application 789, 790 et 791 dans le journal des événements
Si le Pontage de centre de données (DCB) est activé, et que le port activé perd la liaison, les trois événements suivants peuvent être consignés dans le journal des événements :
l
ID d'événement 789 : la fonctionnalité de sélection de transmission améliorée ETS sur un périphérique est passée à l'état Non opérationnelle.
l
ID d'événement 790 : la fonctionnalité de contrôle de flux prioritaire PFC sur un périphérique est passée à l'état
Non opérationnelle.
l
ID d'événement 791 : la fonctionnalité Application sur un périphérique est passée à l'état Non opérationnelle
(FCoE).
Il s'agit du comportement attendu lorsqu'un port activé DCB perd la liaison. DCB recommence à fonctionner dès que la
liaison est rétablie. Un port perd la liaison si le câble est déconnecté, si le pilote ou le paquet logiciel est mis à jour, si
le partenaire de la liaison est arrêté ou pour d'autres raison.
Avertissement "Script malveillant détecté" de Norton AntiVirus lors de la désinstallation de PROSet
Le processus de désinstallation d’Intel® PROSet utilise un script Virtual Basic. Norton AntiVirus et d’autres logiciels
antivirus peuvent à tort juger ce script malveillant ou dangereux. Laissez le script s'exécuter pour que le processus de
désinstallation se déroule normalement.
Perte inattendue de la connectivité
Si vous désélectionnez la case "Autoriser l’ordinateur à éteindre ce périphérique pour économiser l’énergie" sous
l’onglet Gestion de l’alimentation et que vous mettez ensuite le système en mode de veille, vous risquez de perdre la
connectivité en réactivant le système. Vous devez désactiver puis activer la carte réseau pour résoudre ce problème.
L’installation d’Intel® PROSet pour le Gestionnaire de périphériques Windows permet également de résoudre ce problème.
La création du réseau VLAN échoue sur une association comportant une carte fantôme non Intel
Si vous ne parvenez pas à créer un réseau virtuel sur une association comportant une carte fantôme non Intel, utilisez
le Gestionnaire de périphériques pour supprimer l’association, puis recréez-la en excluant la carte fantôme et ajoutez
l’association au réseau virtuel.
La valeur Receive Side Scaling (RSS) est vide
La modification du paramètre Receive Side Scaling (Mise à l'échelle côté réception) sur une carte faisant partie d'une
association peut entraîner l'affichage de cette valeur comme vide. Elle peut également apparaître vierge pour les
autres cartes de l'association. Dans ce cas de figure, il se peut que la carte soit retirée de l'association. La désactivation et la réactivation de l'association résoudront le problème.
Paramètre avancé RSS Load Balancing Profile (Profil d'équilibrage de la charge RSS)
La définition du paramètre avancé 'RSS Load Balancing Profile' (Profil d'équilibrage de la charge RSS) sur 'ClosestProcessor' peut réduire considérablement l'utilisation du CPU. Cependant, dans certaines configurations système
(par exemple un système avec plus de ports Ethernet que de cœurs de processeurs), le paramètre 'ClosestProcessor'
peut provoquer des échecs de transmission et de réception. La modification du paramètre sur 'NUMAScalingStatic'
résoudra le problème.
L'ouverture de la feuille de propriétés du Gestionnaire de périphériques Windows prend plus de temps
que prévu
L'ouverture de la feuille de propriétés du Gestionnaire de périphériques Windows prend 60 secondes ou plus. Le
pilote doit détecter tous les appareils Ethernet Intel et les initialiser avant de pouvoir ouvrir la feuille de propriétés. Ces
données figurent dans la mémoire cache : les prochaines ouvertures de la feuille de propriétés seront donc généralement plus rapides.
Problèmes connus sous Linux
HeaderDataSplit n'est pas pris en charge sur les cartes avec chipset 82599.
Configuration du pilote sur des distributions différentes
La configuration d'un pilote réseau pour qu'il se charge correctement lors du démarrage du système (0=légué, 1=MSI,
2=MSI-X) dépend de la distribution. Habituellement, le processus de configuration entraîne l’ajout d’une ligne d’alias
dans le fichier /etc/modules.conf ou /etc/modprobe.conf, ainsi que la modification de plusieurs scripts de démarrage du
système et/ou de fichiers de configuration. De nombreuses distributions Linux populaires sont livrées avec des outils
qui peuvent effectuer ces modifications pour vous. Pour connaître la façon correcte de configurer un périphérique
réseau sur votre système, reportez-vous à votre documentation de distribution.
Activation de WoL sous Linux à l'aide d'ethtool et de BootUtil
Par défaut, WoL est désactivé. Dans un environnement Linux, WoL peut être activé à l'aide d'ethtool. Dans certains
cas, l'utilisation de BootUtil est également nécessaire. Seul le port A (port 0) peut être activé à l'aide d'ethtool sans utiliser BootUtil. Pour activer WoL à l'aide d'ethtool sur les autres ports, WoL doit d'abord être activé avec BootUtil.
Problèmes connus de gestion de l'alimentation
Le système ne sort pas de veille lors d'une liaison
Lors de l'installation du pilote uniquement, si vous configurez les paramètres 'Wake on Link' sur Forced (Forcé) et
'Wake on Magic Packet' et 'Wake on Pattern Match' sur Disabled (Désactivé), le système peut ne pas sortir de veille
comme prévu. Pour que l'option 'Wake on Link' fonctionne correctement, vérifiez l'onglet Gestion de l'alimentation et
assurez-vous que l'option 'Allow this device to wake the computer' (Autoriser cet appareil à sortir l'ordinateur de veille)
est cochée. Il est possible que vous deviez également configurer 'Wake on Magic Packet' ou 'Wake on Pattern Match'
sur Enabled (Activé).
Les paquets dirigés ne sortent pas le système de veille
Sur certains systèmes, les cartes pour serveurs à quatre ports peuvent ne pas sortir de veille lorsqu'elles sont configurées sur 'Wake on Directed Packet'. Si vous rencontrez des problèmes pour sortir de veille lorsque cette option est
configurée, vous devez configurer votre carte de sorte qu'elle utilise les Magic Packets*.
Les options de gestion de l'alimentation sont indisponibles ou manquantes
Si vous installez uniquement les pilotes de base, installez ultérieurement Intel® PROSet pour le Gestionnaire de périphériques Windows, puis supprimez Intel® PROSet, les paramètres de l'onglet Gestion de l'alimentation de la feuille
de propriétés de la carte peuvent être indisponibles ou manquants. Vous devez réinstaller Intel® PROSet pour
résoudre le problème.
Sortie de veille du système à partir d'un réseau local virtuel supprimé
Si un système entre en mode veille et qu'un paquet dirigé est envoyé à l'adresse IP du réseau local virtuel retiré, le système sort de veille. Cela se produit car les paquets dirigés contournent le filtrage du réseau local virtuel.
Les cartes Intel ignorent les signaux consécutifs de sortie de veille lors du passage en mode Veille
Lorsqu'un système entre en mode veille, occasionnellement, un paquet de sortie de veille arrive avant que le système
ne passe complètement en mode Veille. Lorsque cela se produit, le système ignore les signaux consécutifs de sortie
de veille et reste en mode Veille jusqu'à la mise sous tension manuelle à l'aide de la souris, du clavier ou du bouton
d'alimentation.
Autres problèmes connus de la carte réseau Intel® 10GbE
L'inventaire matériel du système (iDRAC) indique que la négociation automatique est
désactivée sur le contrôleur d'interface réseau, mais que partout ailleurs, la négociation automatique du mode duplex et de la vitesse est activée
Si un module optique est branché sur le LOM Intel® Ethernet 10G X520 d'un PowerEdge C6320, l'inventaire matériel
du système (iDRAC) indiquera que la négociation automatique est désactivée. Le Gestionnaire de périphériques Windows et la base HII indiquent néanmoins que la négociation automatique du mode duplex et de la vitesse de liaison
est activée. De fait, le pilote contient un algorithme qui permet au LOM d'établir une liaison avec les partenaires SFP à
10 Gbit/s ou 1 Gbit/s. Si cette information est communiquée au Gestionnaire de périphériques Windows et à la
base HII, il ne s'agit pourtant pas d'une réelle négociation automatique. iDRAC lisant le microprogramme du périphérique qui ne connaît pas l'algorithme, il signale que la négociation automatique est désactivée.
Les allocations de bande passante ETS ne correspondent pas aux paramètres
Lorsque le paramètre Trames Jumbo est configuré à 9K avec une carte réseau 10GbE, une distribution de trafic ETS
de 90 %/10 % ne sera obtenue sur aucun port, malgré les paramètres effectués sur le commutateur DCB. Lorsque ETS
est configuré pour une répartition de 90%/10%, une répartition réelle de 70%/30% est plus probable.
Perte de liaison sur les périphériques 10GbE avec les trames Jumbo activées
Ne définissez pas le paramètre Receive_Buffers ou Transmit_Buffers en dessous de 256 si les trames Jumbo sont activées sur un périphérique Intel® 10GbE. La liaison risquerait d’être perdue.
Échec de la connexion et instabilité possible du système
Si des périphériques réseau non Intel compatibles avec la fonctionnalité de mise à l’échelle côté réception sont installés sur votre système, la valeur par défaut 0x0 du mot-clé de registre Microsoft Windows "RSSBaseCPU" peut avoir
été modifiée pour pointer vers un processeur logique. Si ce mot-clé a été modifié, les périphériques reposant sur les
contrôleurs Ethernet 10 Gigabit Intel® 82598 ou 82599 risquent de ne pas transmettre le trafic. Si vous tentez de modifier le pilote lorsque cet état est actif, cela peut entraîner l’instabilité du système. Définissez la valeur de RSSBaseCPU
à 0x0 ou une valeur correspondant à un processeur physique, puis redémarrez le système pour résoudre le problème.
Envoi continu de trames de pause PFC depuis les appareils reposant sur les contrôleurs Ethernet Intel® X520
Si vous disposez d'un appareil reposant sur le contrôleur Ethernet Intel® X520 connecté à un port de commutateur et
que vous modifiez les paramètres de bande passante DCB sur le port de commutateur, l'appareil Ethernet Intel® X520
peut envoyer continuellement des trames de pause, entraînant ainsi une diffusion massive qui empêche le transfert
des données vers et depuis les cibles de stockage utilisées. Pour résoudre ce problème, désactivez les ports X520,
réactivez-les, puis reconnectez-vous aux volumes cibles iSCSI. Pour éviter ce problème, si les paramètres de bande
passante DCB doivent être modifiés, effectuez l'une des actions suivantes :
l
Éteignez le serveur contenant l'appareil Ethernet Intel® X520 avant de modifier les paramètres de bande passante DCB.
l
Désactivez les ports de commutateur connectés à l'appareil reposant sur le contrôleur Intel X520.
l
Ne faites pas passer de trafic sur l'appareil reposant sur le contrôleur Intel X520.
La carte Ethernet Intel® 10G 2P/4P X710-k bNDC n'établit pas de liaison et ne
s'affiche pas dans le Gestionnaire de périphériques Windows
Si vous installez une carte Ethernet Intel® 10G 2P X710-k bNDC ou une carte Ethernet Intel® 10G 4P X710-k bNDC
sur un serveur-lame Dell EMC PowerEdge M630/M830 et que vous installez la lame dans un châssis M1000e, il se
peut que la carte bNDC ne parvienne pas à établir de liaison et affiche un triangle jaune, ou qu'elle n'apparaisse pas
du tout dans le Gestionnaire de périphériques Windows. Ceci vaut uniquement pour la version 1.0 du plan
intermédiaire M1000e.
La carte Ethernet Intel® 10G X520 LOM établit une liaison à 10 Gbit/s alors que
l'option Full Duplex à 1 Gbit/s est sélectionnée
Lorsqu'elle est connectée au moyen d'un câble direct, la carte Ethernet Intel® 10G X520 LOM se connectera toujours à
10 Gbit/s.
Intel® X540-t et Dell Force10 n'établiront pas de liaison 100 Mbit/s Full duplex en cas
de configuration manuelle aux deux extrémités
Pour qu'une carte réseau reposant sur le contrôleur X540-t couplée à un composant Force10 s'exécute à 100 Mbit/s,
les propriétés de négociation automatique des DEUX composants doivent être configurées sur ON (Activé).
Lorsque vous essayez de déterminer la carte, le voyant d'activité clignote et le
voyant de liaison est fixe
Si vous utilisez la fonction Identify Adapter (Identifier la carte) sur les cartes suivantes, le voyant d'activité, plutôt que le
voyant de liaison, clignote. Il se peut que le voyant de liaison affiche un voyant vert fixe pour les ports 10 G, même si
aucune liaison réseau n'existe.
l
Tous les appareils Ethernet 10GbE Intel® X520
l
Tous les appareils Ethernet 10GbE Intel® X540
l
Tous les appareils Ethernet 10GbE Intel® X550
l
Certains appareils Gigabit I350 LOM Intel®
Interruption non masquable inattendue avec les NIC reposant sur les cartes 82599
Si vous définissez la taille de charge utile maximale du PCIe sur 256 octets dans votre BIOS système et que vous installez un NIC reposant sur une carte 82599, il se peut qu'une interruption non masquable (NMI) se produise lorsque le
NIC atteint la liaison. Cela se produit lorsque l'emplacement physique ne prend pas en charge les charges de
256 octets, même si le BIOS les prend en charge. Pour résoudre le problème, déplacez la carte dans un emplacement
autorisant les charges de 256 octets. Consultez la documentation de votre système pour en savoir plus sur les valeurs
de charge.
Problèmes connus pour le contrôleur réseau Intel® série 710
Certains appareils reposant sur le contrôleur Intel X710 affichent un ID de fournisseur intermédiaire de 0x0000 et
peuvent afficher une chaîne de marquage générique. Le port 0 affiche l'ID de fournisseur intermédiaire adéquat et la
chaîne de marquage correcte.
Les appareils reposant sur le contrôleur Intel X710 peuvent maintenir la liaison sur tous les ports, tant que l'appareil
est sous tension, quel que soit le mode de consommation de l'appareil ou du système.
Bouton de diagnostic désactivé
Lorsqu'ils font partie d'une association Intel® ANS, les appareils reposant sur le contrôleur Intel X710 ne prennent pas
en charge la fonction de diagnostic. Cette prise en charge sera ajoutée dans une version ultérieure.
Erreurs inattendues d'Intel® DCB dans le journal d'événements Windows
Après la mise à jour des pilotes du contrôleur X710, il se peut que plusieurs erreurs Intel DBC apparaissent dans le
journal d'événements Windows. Ces erreurs sont de faux positifs et peuvent être ignorées.
Débit plus bas que prévu sur les appareils reposant sur les contrôleurs X710/XL710
Cela se produit si un appareil reposant sur le contrôleur X710 ou XL710 est installé sur un processeur à
quatre emplacements. La réception et la transmission du trafic peuvent être nettement plus faibles qu'attendu. La configuration du taux d'interruption sur le paramètre High (Élevé) peut atténuer le problème.
Problèmes connus des cartes réseau à quatre ports pour serveurs
Rétrogradation
Lors de la connexion à un commutateur Gigabit à l'aide d'un câble défectueux de catégorie 5 dont une des paires est
brisé, la carte ne rétrograde pas de 1 giga à 100 Mbit/s. Pour que l'adaptateur rétrograde, il doit identifier deux paires
brisés dans le câble.
Le système ne démarre pas
Il se peut que votre système n'ait pas suffisamment de ressources d'E/S et n'arrive pas à démarrer si vous installez plus
de quatre cartes pour serveurs à quatre ports. Le déplacement des cartes dans un autre emplacement ou le rééquilibrage des ressources dans le BIOS système peut résoudre le problème. Le problème affecte les cartes suivantes :
l
Carte réseau Intel® Gigabit 4P I350-t
Déclaration de conformité aux réglementations
Produits de classe A de la FCC
Produits 40 Gigabit Ethernet
l
l
Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Carte réseau convergent Ethernet Intel® XL710-Q2
Produits 25 Gigabit Ethernet
l
l
Carte mezzanine Ethernet Intel® 25G 2P XXV710
Carte réseau Ethernet Intel® 25G 2P XXV710
Produits 10 Gigabit Ethernet
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
l
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Carte réseau Ethernet Intel® 10G 2P X540-t
Carte réseau Ethernet Intel® 10G 2P X550-t
Carte réseau Ethernet Intel® 10G 4P X550 rNDC
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC
Carte Ethernet Intel® 10G 4P X520/I350 rNDC
Carte réseau Ethernet Intel® 10G 2P X520-k bNDC
Carte réseau Ethernet Intel® 10G 4P X710-k bNDC
Carte réseau Ethernet Intel® 10G 2P X710-k bNDC
Carte réseau Ethernet Intel® 10G X710-k bNDC
Carte réseau convergent Ethernet Intel® X710
Carte réseau convergent Ethernet Intel® X710-T
Carte réseau Ethernet Intel® 10G 4P X710/l350 rNDC
Carte réseau Ethernet Intel® 10G 4P X710 SFP+ rNDC
Carte réseau Ethernet Intel® 10G X710 rNDC
Carte réseau Ethernet Intel® X710-DA2 pour serveurs et OCP
Produits Gigabit Ethernet
l
l
l
l
l
l
l
Carte Intel® Gigabit 4P X550/I350 rNDC
Carte Intel® Gigabit 4P I350-t rNDC
Carte Intel® Gigabit 4P X540/I350 rNDC
Carte Intel® Gigabit 4P X520/I350 rNDC
Carte mezzanine Intel® Gigabit 4P I350-t
Carte Intel® Gigabit 4P X710/l350 rNDC
Carte Intel® Gigabit 4P I350 bNDC
Produits de classe B de la FCC
Produits 10 Gigabit Ethernet
l
l
Carte réseau Ethernet Intel® 10G 2P X520
Carte réseau Ethernet Intel® 10G X520 LOM
Produits Gigabit Ethernet
l
l
Carte Intel® Gigabit 2P I350-t
Carte réseau Intel® Gigabit 4P I350-t
Conformité aux normes de sécurité
Les normes de sécurité suivantes s'appliquent à tous les produits répertoriés ci-dessus.
l
UL 60950-1, 2e édition, 2011-12-19 (Équipement informatique - Sécurité - Partie 1 : Généralités)
l
CSA C22.2 No. 60950-1-07, 2e édition, 2011-12 (Équipement informatique - Sécurité - Partie 1 : Généralités)
l
EN 60950-1:2006/A11:2009/A1:2010/A12:2011 (Union européenne)
l
IEC 60950-1:2005 (2e édition); Am 1:2009 (International)
l
Directive DBT UE : 2006/95/EC
Conformité CEM - Les normes suivantes peuvent s'appliquer :
Produits de classe A :
l
l
l
l
l
l
l
l
l
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
CAN ICES-3(A)/NMB-3(A) - Émissions rayonnées et conduites (Canada)
CISPR 22 - Émissions par rayonnement et par conduction (International)
EN55022 : 2010 - Émissions rayonnées et conduites (Union européenne)
EN55024 : 2010 + A1:2001 + A2:2003 - (Immunité) (Union européenne)
Directive CEM 2004/108/CE
VCCI (Classe A) - Émissions rayonnées et conduites (Japon)
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
AS/NZS CISPR 22 - Émissions par rayonnement et par conduction (Australie/Nouvelle-Zélande)
NRRA No. 2012-13 (2012.06.28), NRRA Notice No. 2012-14 (2012.06.28) (Corée)
Produits de Classe B :
l
l
l
l
l
l
l
l
l
l
l
FCC Part 15 Classe B - Émissions rayonnées et conduites (États-Unis)
CAN ICES-3(B)/NMB-3(B) - Émissions rayonnées et conduites (Canada)
CISPR 22 - Émissions par rayonnement et par conduction (International)
EN55022 : 2010 - Émissions rayonnées et conduites (Union européenne)
EN55024 : 2010 - Immunité (Union européenne)
EU - Directive CEM 2004/108/EC
VCCI (Classe B) - Émissions rayonnées et conduites (Japon) (sauf fibre optique)
CNS13438 (Classe B) - 2006 - Émissions rayonnées et conduites (Taïwan) (sauf fibre optique)
AS/NZS CISPR 22 - Émissions par rayonnement et par conduction (Australie/Nouvelle-Zélande)
KN22; KN24 - Émissions et immunité (Corée)
NRRA No. 2012-13 (2012.06.28), NRRA Notice No. 2012-14 (2012.06.28) (Corée)
Marques de conformité réglementaires
Lorsque c’est exigé, ces produits sont fournis avec des marques de certification :
l
Marque d’homologation UL pour les États-Unis et le Canada
l
Marque CE
l
Logo EU WEEE
l
Marques FCC
l
Marque VCCI
l
Marque C-Tick australienne
l
Marque MSIP coréenne
l
Marque BSMI taïwanaise
l
Marque "EFUP" de la République populaire de Chine
Informations de la FCC pour les utilisateurs d’appareils de
classe A
Les produits de classe A ci-dessus respectent les normes de la partie 15 de la FCC. Son utilisation est soumise aux
deux conditions suivantes :
1. Cet appareil ne doit pas causer d’interférences nuisibles.
2. Cet appareil doit accepter les interférences reçues, y compris les interférences qui peuvent engendrer un comportement inapproprié.
REMARQUE : cet appareil a été soumis à des tests qui ont attesté sa conformité aux limites d’émission
d’énergie des appareils numériques de la classe A définies dans la Partie 15 des règles de la FCC (Federal
Communications Commission). Ces limites sont conçues pour fournir une protection raisonnable contre les
interférences nuisibles lorsque l’équipement fonctionne dans un environnement commercial. Cet équipement
génère, utilise et peut émettre de l’énergie radioélectrique. S’il n’est pas installé et utilisé conformément aux
instructions fournies, il peut causer des interférences nuisibles aux communications radio. L’utilisation de cet
équipement dans des zones résidentielles provoquera probablement des interférences nuisibles, auquel cas
l’utilisateur sera tenu de corriger les interférences à ses propres frais.
ATTENTION : les modifications apportées à l'équipement qui n'auront pas été préalablement approuvées par
Intel pourront entraîner l'annulation de votre autorisation d'utilisation de cet équipement.
Conformité aux spécifications canadiennes (Innovation, Sciences et Développement économique Canada, anciennement Industrie Canada)
CAN ICES-3(A)/NMB-3(A)
Déclaration VCCI pour la Classe A
Déclaration BSMI pour la Classe A
Avis KCC pour la Classe A (Corée uniquement)
Avis BSMI pour la Classe A (Taïwan)
Informations de la FCC pour les utilisateurs d’appareils de
classe B
Cet appareil a été soumis à des tests qui ont attesté sa conformité aux limites d’émission d’énergie des appareils
numériques de la classe B définies dans la Partie 15 des règles de la FCC (Federal Communications Commission).
Ces limites sont conçues en vue d’offrir une protection raisonnable contre les interférences nuisibles dans le cadre
d’installations résidentielles. Cet équipement génère, utilise et peut émettre de l’énergie radioélectrique. S’il n’est pas
installé et utilisé conformément aux instructions fournies, il peut causer des interférences nuisibles aux communications radio. Il n’est cependant pas garanti que des interférences ne se produiront pas dans le cadre
d’installations particulières.
Si cet équipement crée des interférences nuisibles qui affectent la réception radio ou télévision, ce qui peut être déterminé en mettant l’équipement sous tension et puis hors tension, l’utilisateur est invité à tenter d’éliminer l’interférence
d’une ou de plusieurs façons :
l
En réorientant ou déplaçant l’antenne de réception
l
En éloignant l’équipement du récepteur.
l
En branchant le matériel sur un circuit électrique différent de celui du récepteur.
l
En consultant le revendeur ou un technicien radio/TV expérimenté.
ATTENTION : les modifications apportées à l'équipement qui n'auront pas été préalablement approuvées par
Intel pourront entraîner l'annulation de votre autorisation d'utilisation de cet équipement.
REMARQUE : cet appareil est conforme à la Section 15 des règlements de la FCC. Son fonctionnement est soumis aux deux conditions suivantes : (1) cet appareil ne provoquera pas d'interférences nuisibles, (2) cet appareil
doit absorber les interférences qu'il reçoit y compris celles qui peuvent provoquer un fonctionnement inopiné.
Avis de compatibilité électromagnétique
Déclaration de conformité FCC
Les produits suivants ont été testés et sont conformes aux normes de la FCC pour un usage privé ou en entreprise.
Carte réseau PRO/1000 MT, PRO/1000 PT, PRO/1000 GT, Gigabit PT, Gigabit ET, I210-T1, I340-T2/T4, I350-T2/T4,
carte réseau PRO/100 M pour PC de bureau, carte réseau PRO/100 S pour PC de bureau, carte réseau PRO/100 S
pour serveurs et carte réseau deux ports PRO/100 S pour serveurs
Conformité aux spécifications canadiennes (Innovation, Sciences et Développement
économique Canada, anciennement Industrie Canada)
CAN ICES-3 (B)/NMB-3 (B)
Déclaration de conformité VCCI classe B (Japon)
Avis KCC pour la Classe B (Corée uniquement)
Logo EU WEEE
Déclaration du fabricant Communauté européenne
Déclaration du fabricant
Intel Corporation déclare que l’équipement décrit dans ce document est conforme aux exigences de la directive du
Conseil européen répertoriée ci-dessous :
l
Directive basse tension 2006/95/CE
l
Directive CEM 2004/108/CE
l
Directive européenne RoHS 2011/65/UE
Ces produits respectent les dispositions de la directive européenne 1999/5/CE.
Dette produkt er i overensstemmelse med det europæiske direktiv 1999/5/EC.
Dit product is in navolging van de bepalingen van Europees Directief 1999/5/EC.
Tämä tuote noudattaa EU-direktiivin 1999/5/EC määräyksiä.
Ce produit est conforme aux exigences de la Directive Européenne 1999/5/EC.
Dieses Produkt entspricht den Bestimmungen der Europäischen Richtlinie 1999/5/EC.
Þessi vara stenst reglugerð Evrópska Efnahags Bandalagsins númer 1999/5/EC.
Questo prodotto è conforme alla Direttiva Europea 1999/5/EC.
Dette produktet er i henhold til bestemmelsene i det europeiske direktivet 1999/5/EC.
Este produto cumpre com as normas da Diretiva Européia 1999/5/EC.
Este producto cumple con las normas del Directivo Europeo 1999/5/EC.
Denna produkt har tillverkats i enlighet med EG-direktiv 1999/5/EC.
Cette déclaration est fondée sur la conformité des produits de classe A aux normes suivantes :
EN 55022:2010 (CISPR 22 Classe A) Contrôle des émissions aux fréquences radio.
EN 55024:2010 (CISPR 24) Immunité aux interférences électromagnétiques.
EN 60950-1:2006/A11:2009A1:2010/A12:2011 Équipement informatique - Sécurité - Partie 1 : Généralités.
EN 50581:2012 - Documentation technique pour l'évaluation des produits électriques et électroniques conformément
aux restrictions relatives aux matières dangereuses.
Cette déclaration est fondée sur la conformité des produits de classe B aux normes suivantes :
EN 55022:2010 (CISPR 22 Classe B) Contrôle des émissions aux fréquences radio.
EN 55024:2010 (CISPR 24) Immunité aux interférences électromagnétiques.
EN 60950-1:2006/A11:2009/A1:2010/A12:2011 Équipement informatique - Sécurité - Partie 1 : Généralités.
EN 50581:2012 - Documentation technique pour l'évaluation des produits électriques et électroniques conformément
aux restrictions relatives aux matières dangereuses.
AVERTISSEMENT : Dans un environnement domestique, les produits de classe A peuvent provoquer des
interférences radio, auquel cas l'utilisateur peut être tenu de prendre des mesures adéquates.
Partie responsable
Intel Corporation, Mailstop JF3-446
5200 N.E. Elam Young Parkway
Hillsboro, OR 97124-6497 (États-Unis)
Téléphone 1-800-628-8686
Déclaration RoHS de Chine
Produits laser de Classe 1
Les cartes serveur répertoriées ci-dessus peuvent contenir des périphériques laser utilisés à des fins de communication. Ces périphériques sont conformes aux exigences définies pour les produits laser de classe 1 et peuvent
être utilisés en toute sécurité. Au cours des opérations normales, l’émission de ces périphériques laser n’excède pas
les limites définies pour la protection des yeux et ne peut pas faire de mal.
Pour que les opérations continuent à ne pas être nuisibles même si les circonstances deviennent anormales, assurezvous que le capot du connecteur laser fourni est bien en place ou qu’un câble à fibres optiques compatible est correctement connecté lorsque le produit est alimenté.
Le périphérique laser doit être réparé UNIQUEMENT en usine et par le fabricant du périphérique ! AUCUN réglage,
aucune réparation ou opération de maintenance ne doit être effectué autrement .
ATTENTION : l'utilisation de contrôles ou d'ajustements de la performance ou des procédures autres que
ceux spécifiés ici peut résulter en une exposition dangereuse aux radiations.
Ces périphériques laser de Classe 1 sont :
conformes à la norme CFR21, sous-chapitre J de la FDA/CDRH.
Respectent la norme IEC 60825-1:2007.
Fin de vie/Recyclage du produit
Les exigences et systèmes de recyclage et de reprise en fin de vie des produits varient en fonction des pays.
Contactez le revendeur ou distributeur de ce produit pour obtenir des informations sur le recyclage et/ou la reprise des
produits.
Assistance à la clientèle
Web et sites Internet
http://support.dell.com/
Techniciens d’assistance à la clientèle
Si les procédures de dépannage décrites dans ce document ne vous aident pas à résoudre le problème, contactez
Dell, Inc. pour obtenir une aide technique (consultez la section "Obtenir de l’aide" de la documentation du système).
Avant d’appeler...
Installez-vous devant votre ordinateur, exécutez le logiciel et munissez-vous de la documentation.
Le technicien peut vous demander les informations suivantes :
l
Votre adresse et votre numéro de téléphone
l
Le nom et le numéro du modèle du produit qui fait l’objet de votre appel
l
Le numéro de série et l’étiquette de service du produit
l
Les noms et numéros de version des logiciels utilisés avec le produit
l
Le nom et le numéro de version du système d’exploitation utilisé
l
Le type de votre ordinateur (fabricant et numéro de modèle)
l
Les cartes d’extension ou additionnelles installées
l
La capacité mémoire de votre ordinateur.
Spécifications des cartes
Spécifications relatives aux cartes réseau Intel® 40 Gigabit
Fonction
Carte réseau convergent Ethernet Intel® XL710-Q2
Connecteur de bus
PCI Express 3.0
Vitesse du bus
x8
Mode de transmission/Connecteur QSFP+
Câblage
40GBase-SR4, Twinax DAC (7 m max.)
Alimentation requise
6,5 W maximum à +12 V
Dimensions
(support exclu)
5,21 x 2,71 po
13,3 x 6,9 cm
Température de fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
MTBF
159 ans
Vitesses disponibles
40 Gbit/s
Modes de duplex
Full uniquement
Indicateurs lumineux
Deux par port :
Liaison et Activité
Conformité aux normes
IEEE 802.3ba
SFF-8436
PCI Express 3.0
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande)
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
l
l
Spécifications relatives aux cartes filles réseau Intel® 40GbE
(NDC)
Fonction
Carte réseau Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Connecteur de bus
PCI Express 3.0
Vitesse du bus
x8
Mode de transmission/Connecteur QSFP+
Câblage
40GBase-SR4, Twinax DAC (7 m max.)
Alimentation requise
6,2 W maximum à +12 V
Dimensions
(support exclu)
3,66 x 6,081 po
9,3 x 15,5 cm
Température de fonctionnement
32 - 140 deg. F
(0 - 60 deg. C)
MTBF
112 ans
Vitesses disponibles
40 Gbit/s
Modes de duplex
Full uniquement
Indicateurs lumineux
Deux par port :
Liaison et Activité
Conformité aux normes
IEEE 802.3ba
SFF-8436
PCI Express 3.0
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande)
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
l
l
Spécifications des cartes réseau Intel® 25 Gigabit
Fonction
Carte réseau Ethernet Intel® 25G 2P XXV710
Connecteur de bus
PCI Express 3.0
Vitesse du bus
x8
Mode de transmission/Connecteur SFP28
Câblage
25GBase-CR, Twinax DAC (3 m max)
Alimentation requise
6,5 W maximum à +12 V
Dimensions
(support exclu)
2,70 x 2,02 po
6,86 x 5,12 cm
Température de fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
MTBF
239 ans
Vitesses disponibles
25 Gbit/s
Modes de duplex
Full uniquement
Indicateurs lumineux
Deux par port :
Liaison et Activité
Conformité aux normes
IEEE 802.3-2015
SFF-8431
PCI Express 3.0
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL/CSA 60950-1-07 2e édition
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55032-2015 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 2010 - (Immunité) (Union européenne)
l
Directives REACH, WEEE, RoHS (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
l
AS/NZS CISPR - Émissions par rayonnement et par conduction (Australie/NouvelleZélande)
KN32 - Émissions rayonnées et conduites (Corée)
l
KN35 - (Immunité) (Corée)
l
RoHS (Chine)
Spécifications des cartes mezzanine Intel® 25 Gigabit
Fonction
Carte mezzanine Ethernet Intel® 25G 2P XXV710
Connecteur de bus
À déterminer
Vitesse du bus
À déterminer
Mode de transmission/Connecteur À déterminer
Câblage
À déterminer
Alimentation requise
À déterminer
Dimensions
(support exclu)
À déterminer
Température de fonctionnement
À déterminer
MTBF
À déterminer
Vitesses disponibles
À déterminer
Modes de duplex
À déterminer
Indicateurs lumineux
À déterminer
Liaison et Activité
Conformité aux normes
À déterminer
Sécurité et réglementation
Conformité aux normes de sécurité
l
À déterminer
Conformité CEM
l
À déterminer
Spécifications des cartes réseau Intel® 10 Gigabit
Fonction
Carte réseau Ethernet
Intel® 10G 2P X540-t
Carte réseau Ethernet Intel®
10G 2P X520
Carte réseau Ethernet
Intel® 10G 2P X550-t
Connecteur de bus
PCI Express 2.0
PCI Express 2.0
PCI Express 3.0
Vitesse du bus
x8
x8
x8
Mode de transmission/Connecteur
10GBase-T/RJ-45
Twinax cuivre/SFP+
10GBase-T/RJ-45
10GBase-T (Catégorie 6A)
10 Gigabit Ethernet sur câble SFP+
Direct Attach cuivre (10GSFP+Cu)
10GBase-T (Catégorie 6A)
Alimentation requise
15 W maximum en +12 V
6,2 W Maximum @ +3,3 V
13 W maximum à +12 V
Dimensions
(support exclu)
5,7 x 2,7 po
14,5 x 6,9 cm
5,7 x 2,7 po
14,5 x 6,9 cm
5,13 x 2,7 po
13,0 x 6,9 cm
Température de
fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
32 - 131 deg. F
(0 - 55 deg. C)
32 - 131 deg. F
(0 - 55 deg. C)
MTBF
108 ans
83,9 ans
À déterminer
Vitesses disponibles
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
Modes de duplex
Full uniquement
Full uniquement
Full uniquement
Indicateurs lumineux
Deux par port :
Deux par port :
Liaison et Activité
Liaison et Activité
Link (Liaison)
Activité
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3an
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 3.0
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
Câblage
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
REMARQUE : pour la carte réseau Intel® 10 Gigabit AT pour serveurs, en vue d’assurer la conformité avec les
normes CISPR 24 et EN55024 (Union européenne), ce produit doit être utilisé uniquement avec des câbles blindés de catégorie 6a dotés de terminaisons correctes d’après les recommandations de la norme EN50174-2.
Fonction
Carte réseau convergent
Ethernet Intel® X710-T
Carte réseau
convergent Ethernet
Intel® X710
Carte réseau Ethernet X710DA2 pour serveurs et OCP
Connecteur de bus
PCI Express 2.0
PCI Express 3.0
PCI Express 3.0
Vitesse du bus
x8
x8
x8
Mode de transmission/Connecteur
SFP+
SFP+
À déterminer
Twinax
10GBase-SR/LR
Twinax
10GBase-SR/LR
À déterminer
Câblage
Alimentation requise
À déterminer
6,7 watts (maximum) à 12 V
À déterminer
Dimensions
(support exclu)
6,578 x 4,372 po
16,708 x 11,107 cm
6,578 x 4,372 po
16,708 x 11,107 cm
À déterminer
Température de fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
41 - 131 deg. F
(5 - 55 deg. C)
32 - 131 deg. F
(0 - 55 deg. C)
MTBF
À déterminer
491 ans
À déterminer
Vitesses disponibles
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
10 Gbit/s
Modes de duplex
Full uniquement
Full uniquement
Full uniquement
Indicateurs lumineux
Liaison/Activité
1Gig/10Gig
Liaison/Activité
1Gig/10Gig
Liaison/Activité
1Gig/10Gig
Conformité aux normes
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Spécifications des cartes mezzanine Intel® 10 Gigabit
Fonction
Carte mezzanine 2 ports Ethernet Intel® X520 10GbE KX4-KR
Connecteur de bus
PCI Express 2.0
Vitesse du bus
x8
Alimentation requise
7,4 Watts (maximum) à 3,3 V
3,65 x 3,3 po
Dimensions
Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C)
MTBF
147 ans
Vitesses disponibles
10 Gbit/s/1 Gbit/s
Modes de duplex
Full uniquement
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande)
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
l
l
Spécifications relatives aux cartes filles réseau Intel® 10GbE
(NDC)
Fonction
Carte réseau Ethernet Intel® 10G
4P X550/I350 rNDC
Carte réseau Ethernet Intel®
10G 4P X550 rNDC
Connecteur de bus
PCI Express 3.0
PCI Express 3.0
Vitesse du bus
x8
x8
Mode de transmission/Connecteur
Cuivre torsadé/RJ-45
Cuivre torsadé/RJ-45
Câblage
Cat-5e
Cat-5e
Alimentation requise
À déterminer
33,6 watts (maximum) à 12 V
Dimensions
À déterminer
À déterminer
Température de fonctionnement
À déterminer
À déterminer
MTBF
À déterminer
À déterminer
Vitesses disponibles
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
Modes de duplex
Full uniquement
Full uniquement
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 1.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 1.0a
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Fonction
Carte réseau Ethernet
Intel® 10G 4P X540/I350
rNDC
Carte Ethernet Intel®
10G 4P X520/I350 rNDC
Carte réseau Ethernet
Intel® 10G 2P X520-k
bNDC
Connecteur de bus
PCI Express 2.0
PCI Express 2.0
PCI Express 2.0
Vitesse du bus
x8
x8
x8
Mode de transmission/Connecteur
Cuivre torsadé/RJ-45
SFP+
Cuivre/Fond de panier
Câblage
Cat-5e
SFP+ SR/DA
10GBase-KR et 1000Base-KX
5,5 Watts (maximum) à 3,3 V
10,1 Watts (maximum) à 12 V
0,6 Watts à 3,3 V (AUX), 6,3 Watts
à 1,2 V (VCORE)
Dimensions
3,93 x 3,67 po
4,3 x 3,7 po
3,0 x 2,5 po
Température de fonctionnement
32 - 131 deg. F (0 - 55 deg. C)
32 - 131 deg. F (0 - 55 deg. C)
32 - 131 deg. F (0 - 55 deg. C)
MTBF
68 ans
65 ans
147 ans
Vitesses disponibles
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
Modes de duplex
Full uniquement
Full uniquement
Full uniquement
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 1.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 1.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ap
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Alimentation requise
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Fonction
Carte réseau Ethernet
Intel® 10G 4P X710-k
bNDC
Carte réseau Ethernet
Intel® 10G 4P X710/l350
rNDC
Carte réseau Ethernet
Intel® 10G 4P X710 SFP+
rNDC
Connecteur de bus
Dell EMC bNDC
PCI Express 3.0
PCI Express 3.0
Vitesse du bus
x8
x8
x8
Mode de transmission/Connecteur
KX/KR
SFP+
SFP+
Fond de panier
Cat-5e
Twinax
10GBase-SR/LR
3,3 watts à 3,3 V (AUX),
12,6 watts à 12 V (AUX)
10,7 watts maximum à +12 V
9,5 watts maximum à +12 V
Alimentation requise
Dimensions
3,000x2,449 po
7,62x6,220 cm
4,331x3,661 po
11,0x9,298 cm
4,331x3,661 po
11,0x9,298 cm
Température de fonctionnement
32 - 131 deg. F (0 - 55 deg. C)
32 - 131 deg. F (0 - 55 deg. C)
32 - 131 deg. F (0 - 55 deg. C)
MTBF
828 ans
108 ans
505 ans
Vitesses disponibles
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
Modes de duplex
Full uniquement
Full uniquement
Full uniquement
Indicateurs lumineux
Aucune
Liaison/Activité
Vitesse
Liaison/Activité
Vitesse
Conformité aux normes
PCI Express 3.0
IEEE 802.3ap
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
Câblage
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Spécifications des cartes réseau Intel® Gigabit
Fonction
Carte réseau Intel® Gigabit 2P I350-t et Carte réseau Intel® Gigabit 4P
I350-t
Connecteur de bus
PCI Express 2.0
Vitesse du bus
x4
Mode de transmission/Connecteur
Cuivre torsadé/RJ-45
Câblage
1000Base-T (Catégorie 3 ou Catégorie 5)
Alimentation requise
Carte réseau Intel® Gigabit 2P I350-t : 4,8 Watts @ 12 V
Carte réseau Intel® Gigabit 4P I350-t : 6,0 Watts @ 12 V
Dimensions
(support exclu)
5,3 x 2,7 po
13,5 x 6,9 cm
Température de fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
MTBF
68 ans
Vitesses disponibles
10/100/1000
Négociation automatique
Modes de duplex
Full ou Half duplex à 10/100 Mbit/s ; Full seulement à 1 000 Mbit/s
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ab
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3az
IEEE 802.3u
IEEE 802.3x
IEEE 802.3z
ACPI v1.0
PCI Express 2.0
Indicateurs lumineux
Deux par port :
Activités et vitesse
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Spécifications des cartes mezzanine Intel® Gigabit
Fonction
Carte mezzanine Intel® Gigabit 4P I350-t
Connecteur de bus
PCI Express 2.0
Vitesse du bus
x4
Alimentation requise
3,425 Watts (maximum) à 3,3 V
Dimensions
3,65 x 3,3 po
Température de fonctionnement 32 - 131 deg. F (0 - 55 deg. C)
MTBF
108 ans
Vitesses disponibles
Full uniquement à 1000 Mbit/s
Modes de duplex
Full à 1 000 Mbit/s
Conformité aux normes
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ab
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (ÉtatsUnis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/NouvelleZélande)
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
l
l
Spécifications relatives aux cartes filles réseau Intel® Gigabit
Fonction
Carte Intel® Gigabit 4P
X710/I350 rNDC
Carte Ethernet Intel® Gigabit
4P X550/I350 rNDC
Carte Intel® Gigabit 4P
I350-t rNDC
Connecteur de bus
PCI Express 2.0
PCI Express 2.0
PCI Express 2.0
Vitesse du bus
x8
x8
x8
Mode de transmission/Connecteur
Cuivre torsadé/RJ-45
Cuivre torsadé/RJ-45
Cuivre torsadé/RJ-45
Câblage
Cat-5e
Cat-5e
Cat-5e
Alimentation requise
10,7 w maximum à +12 V
À déterminer
À déterminer
Dimensions
(support exclu)
4,331 x 3,661 po
11,007 x 9,298 cm
À déterminer
À déterminer
Température de fonctionnement
32 - 131 deg. F
(0 - 55 deg. C)
À déterminer
À déterminer
MTBF
108 ans
À déterminer
À déterminer
Vitesses disponibles
10 Gbit/s/1 Gbit/s
10 Gbit/s/1 Gbit/s
1 Gbit/s
Modes de duplex
Full uniquement
Full uniquement
Full uniquement
Conformité aux normes
PCI Express 2.1
IEEE 802.3i
IEEE 802.3ab
IEEE 802.3u
IEEE 802.3ad
IEEE 802.3az
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.1
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.1
Sécurité et réglementation
Conformité aux normes de sécurité
l
UL 60950 Third Edition- CAN/CSA-C22.2 No.60950-00 (États-Unis/Canada)
l
EN 60 950 (Union européenne)
l
IEC 60 950 (International)
Conformité CEM
l
FCC Part 15 - Émissions rayonnées et conduites (États-Unis)
l
ICES-003 - Émissions par rayonnement et par conduction (Canada)
l
CISPR 22 - Émissions par rayonnement et par conduction (International)
l
EN55022-1998 - Émissions rayonnées et conduites (Union européenne)
l
EN55024 - 1998 - (Immunité) (Union européenne)
l
CE - Directive CEM (89/336/EEC) (Union européenne)
l
VCCI - Émissions par rayonnement et par conduction (Japon)
l
CNS13438 - Émissions par rayonnement et par conduction (Taiwan)
l
AS/NZS3548 - Émissions rayonnées et conduites (Australie/Nouvelle-Zélande)
l
Avis MIC 1997-41, avis EMI et MIC 1997-42 - EMS (Corée)
Normes
l
l
l
l
l
l
l
l
l
l
l
l
l
l
IEEE 802.1p : Files de priorité (priorité du trafic) et niveaux de qualité de service
IEEE 802.1Q : Identification de réseau local virtuel
IEEE 802.3ab : Ethernet gigabit sur cuivre
IEEE 802.3ac : Étiquetage
IEEE 802.3ad : SLA (FEC/GEC/Agrégation de liens - mode statique)
IEEE 802.3ad : Mode dynamique
IEEE 802.3ae : Ethernet 10 Gbit/s
IEEE 802.3an : 10GBase-T 10 Gbit/ps Ethernet sur paire torsadée non blindée
IEEE 802.3ap : Fond de panier Ethernet
IEEE 802.3u : Ethernet à haut débit
IEEE 802.3x : Contrôle de flux
IEEE 802.3z : Ethernet gigabit sur fibre optique
ACPI : Advanced Configuration and Power Interface (Interface de configuration et d'énergie avancée)
PCI Express : spécification du bus système : 32/64 bits, x1, x2, x4, x8, x16
Des informations supplémentaires sur les normes IEEE 802 sont disponibles à l'adresse http://www.ieee802.org.
Réseaux locaux virtuels IEEE 802.3ac :
Les réseaux locaux virtuels requièrent des commutateurs compatibles implicites (commutateur uniquement) ou explicites (IEEE 802.3ac). Les réseaux locaux virtuels IEEE 802.3ac permettent d'associer plusieurs réseaux par carte, car
celle-ci et le commutateur utilisent une étiquette dans l'en-tête de paquet qui permet de trier les réseaux locaux virtuels.
Les cartes réseau Intel Gigabit et 10 Gigabit prennent en charge les réseaux locaux virtuels implicites et explicites.
Attributs X-UEFI
Cette section contient des informations sur les attributs X-UEFI et leurs valeurs attendues.
Liste des périphériques multi-contrôleur
Les cartes réseau répertoriées ci-dessous contiennent plus d'un contrôleur. Sur ces cartes réseau, la configuration des paramètres à base de contrôleur n'affectera pas tous les
ports. Seuls les ports associés au même contrôleur seront affectés.
Les paramètres suivants s'appliquent à tous les ports d'un contrôleur donné :
l
Mode de virtualisation
l
Mode NParEP
l
Fonctions PCI virtuelles publiées
Périphériques multi-contrôleurs
Nombre de
contrôleurs
sur le périphérique
Contrôleur 1
Contrôleur 2
Carte Ethernet Intel® 10G 4P X520/I350 rNDC
2
Ports 10G 1 et 2
Ports 1G 3 et 4
2
Ports 10G 1 et 2
Ports 1G 3 et 4
Carte réseau Ethernet Intel® 10G 4P X550 rNDC
2
Ports 10G 1 et 2
Ports 1G 3 et 4
Carte réseau Ethernet Intel® 10G 4P X550/I350 rNDC
2
Ports 10G 1 et 2
Ports 1G 3 et 4
2
Ports 10G 1 et 2
Ports 1G 3 et 4
Carte Intel® Gigabit 4P X520/I350 rNDC
Carte réseau Ethernet Intel® 10G 4P X540/I350 rNDC
Carte Intel® Gigabit 4P X540/I350 rNDC
Carte Intel® Gigabit 4P X550/I350 rNDC
Carte Ethernet Intel® 10G 4P X710/I350 rNDC
Carte réseau Ethernet Intel® 10G X710 rNDC
Carte Intel® Gigabit 4P X710/I350 rNDC
Table des attributs X-UEFI
Nom d'affichage
Mode de virtualisation
Nom X-UEFI
VirtualizationMode
Cartes prises en charge
I350
X520
X540
X550
X710
XL710
XXV710
X
X
X
X
X
X
X
Configurable
par
l'utilisateur
Valeurs configurables par
l'utilisateur
Valeurs pouvant être affichées
Oui
None/NPAR/SRIOV/NPAR + SR-IOV
None/NPAR/SRIOV/NPAR + SR-IOV
Dépendances pour
les valeurs
Optimisation
de l'identité
d'E/S
(iDRAC 8/9)
Information
Non
Spécifie le paramètre de mode de virtualisation du contrôleur. "NPAR" et "NPAR +
SR-IOV" sont uniquement pris en charge sur
des périphériques X710 et XXV710. Ils ne sont
pas pris en charge sur les systèmes
d'exploitation client. Le paramètre d'attribut
s'applique à tous les ports d'un contrôleur
donné.
Nom d'affichage
Nom X-UEFI
Cartes prises en charge
Configurable
par
l'utilisateur
Valeurs configurables par
l'utilisateur
Valeurs pouvant être affichées
Dépendances pour
les valeurs
Optimisation
de l'identité
d'E/S
(iDRAC 8/9)
Information
I350
X520
X540
X550
X710
XL710
XXV710
X
X
X
X
X
X
X
Non
0-256
Non
Nombre de fonctions virtuelles prises en
charge sur ce port.
X
Non
Variable/Fixe
Non
Décrit le mode de mise en œuvre du partitionnement et le mode d'utilisation de
l'attribut PartitionState dans le contrôleur.
Fixe est la seule valeur utilisée.
Nombre de fonctions virtuelles
prises en
charge
NumberVFSupported
Interprétation de
l'état de la partition
PartitionStateInterpretation
Prise en charge
RDMA
RDMASupport
X
X
X
X
X
X
X
Non
Disponible/Indisponible
Non
Indique si le contrôleur prend en charge des
protocoles RDMA. Indisponible est la seule
valeur utilisée.
Prise en charge
SR-IOV
SRIOVSupport
X
X
X
X
X
X
X
Non
Disponible/Indisponible
Non
Indique si la fonctionnalité SR-IOV est prise
en charge.
Affectation des
VF - Base
VFAllocBasis
X
X
X
X
X
X
X
Non
Périphérique/Port
Non
Définit le domaine dans lequel les fonctions
virtuelles (VF) sont affectées. Port est la
seule valeur utilisée.
Affectation des
VF - Multiple
VFAllocMult
X
X
X
X
X
X
X
Non
1-255
Non
Les fonctions virtuelles doivent être allouées à
un port en multiples de ce nombre.
Mode NParEP
NParEP
X
Oui
Désactivé/Activé
Désactivé/Activé
Non
Le mode NParEP permet de créer plus de
8 partitions sur le périphérique. Il ne doit pas
être activé si le système et le SE ne prennent
pas en charge les périphériques avec plus de
8 fonctions PCI physiques. Le paramètre
d'attribut s'applique à tous les ports d'un
contrôleur donné.
Boot Order
BootOrderFirstFCoETarget
X
X
X*
Oui
0-4
0-4
Oui
BootOrderSecondFCoETarget
X
X
X*
Oui
0-4
0-4
Oui
Spécifiez cet emplacement de port dans
l'ordre de démarrage FCoE 1-4 ou sur 0=ddésactivé.
BootOrderThirdFCoETarget
X
X
X*
Oui
0-4
0-4
Oui
BootOrderFourthFCoETarget
X
X
X*
Oui
0-4
0-4
Oui
FirstFCoEBootTargetLUN
X
X
X*
Oui
0-255
0-255
Oui
INTEL_SecondFCoEBootTargetLUN
X
X
X*
Oui
0-255
0-255
Non
Le numéro d'unité logique (LUN) à utiliser sur
la cible FCoE. La valeur du LUN doit être au
format décimal.
INTEL_ThirdFCoEBootTargetLUN
X
X
X*
Oui
0-255
0-255
Non
* Uniquement pris en charge sur les cartes
réseau Ethernet Intel® 10G 2P X550-t.
INTEL_FourthFCoEBootTargetLUN
X
X
X*
Oui
0-255
0-255
Non
FirstFCoEFCFVLANID
X
X
X*
Oui
1-4094
1-4094
Oui
Spécifier l'ID de VLAN de la cible FCoE.
INTEL_SecondFCoEFCFVLANID
X
X
X*
Oui
1-4094
1-4094
Non
* Uniquement pris en charge sur les cartes
réseau Ethernet Intel® 10G 2P X550-t.
INTEL_ThirdFCoEFCFVLANID
X
X
X*
Oui
1-4094
1-4094
Non
INTEL_FourthFCoEFCFVLANID
X
X
X*
Oui
1-4094
1-4094
Non
Numéro d'unité
logique (LUN)
de démarrage
ID de réseau
local virtuel
X
X
VirtualizationMode
- NPAR ou NPAR
+ SR-IOV
* Uniquement pris en charge sur les cartes
réseau Ethernet Intel® 10G 2P X550-t.
Nom d'affichage
Nom X-UEFI
Cartes prises en charge
I350
Cible du nom de
port mondial
(WWPN)
X710
XL710
XXV710
Configurable
par
l'utilisateur
Valeurs configurables par
l'utilisateur
Valeurs pouvant être affichées
Dépendances pour
les valeurs
Optimisation
de l'identité
d'E/S
(iDRAC 8/9)
Information
Spécifie le nom de port mondial (WWPN) de
la première cible de stockage FCoE.
X520
X540
X550
FirstFCoEWWPNTarget
X
X
X*
Oui
XX:XX:XX:XX:XX:XX:XX:XX
XX:XX:XX:XX:XX:XX:XX:XX
Oui
INTEL_SecondFCoEWWPNTarget
X
X
X*
Oui
XX:XX:XX:XX:XX:XX:XX:XX
XX:XX:XX:XX:XX:XX:XX:XX
Non
INTEL_ThirdFCoEWWPNTarget
X
X
X*
Oui
XX:XX:XX:XX:XX:XX:XX:XX
XX:XX:XX:XX:XX:XX:XX:XX
Non
INTEL_FourthFCoEWWPNTarget
X
X
X*
Oui
XX:XX:XX:XX:XX:XX:XX:XX
XX:XX:XX:XX:XX:XX:XX:XX
Non
* Uniquement pris en charge sur les cartes
réseau Ethernet Intel® 10G 2P X550-t.
Bande passante
de transmission
max. de la partition n
MaxBandwidth[Partition:n]
X
X
Oui
1-100
1-100
Oui
Représente la bande passante de transmission maximum de la partition sous la
forme d'un pourcentage de la vitesse de liaison du port physique complet. La plage de la
bande passante maximum est de 1 à 100 %
pour chaque partition autorisée. Si la valeur
de la bande passante maximale configurée à
distance sur la partition n'est inférieure à la
bande passante minimale sur la partition n, la
bande passante minimale sera utilisée.
Bande passante
de transmission
min. de la partition n
MinBandwidth[Partition:n]
X
X
Oui
1-100
1-100
Oui
Représente la bande passante de transmission minimale de la partition sous la
forme d'un pourcentage de la vitesse de liaison du port physique complet. La plage de la
bande passante minimale est de 1 à 100 %
pour chaque partition autorisée. La bande passante minimale pour toutes les partitions activées sur un port doit totaliser 100 %. Si les
pourcentages de la bande passante minimale
configurée à distance ne totalisent pas 100, le
microprogramme les normalisera automatiquement à 100.
LUN de démarrage
FirstTgtBootLun
X
X
X
X
X
X
X
Oui
0-255
0-255
Oui
Spécifie le numéro d'unité logique (LUN) de
démarrage sur la première cible de stockage
iSCSI.
Secret CHAP
FirstTgtChapPwd
X
X
X
X
X
X
X
Oui
chaîne
chaîne
Oui
Spécifie le mot de passe secret CHAP (Challenge-Handshake Authentication Protocol) de
la première cible de stockage iSCSI. La
valeur de chaîne est limitée aux caractères
alphanumériques, ainsi que '.' (point), ':'
(deux-points) et '-' (tiret).
Adresse IP
FirstTgtIpAddress
X
X
X
X
X
X
X
Oui
X.X.X.X
X.X.X.X
Oui
Spécifie l'adresse IP de la première cible
iSCSI.
Nom iSCSI
FirstTgtIscsiName
X
X
X
X
X
X
X
Oui
chaîne
chaîne
Oui
Spécifie le nom IQN (iSCSI Qualified Name)
de la première cible de stockage iSCSI. La
valeur de chaîne est limitée aux caractères
alphanumériques, ainsi que '.' (point), ':'
(deux-points) et '-' (tiret).
Port TCP
FirstTgtTcpPort
X
X
X
X
X
X
X
Oui
1024-65535
1024-65535
Oui
Spécifie le numéro de port TCP de la première cible iSCSI.
ID CHAP
IscsiInitiatorChapId
X
X
X
X
X
X
X
Oui
chaîne
chaîne
Oui
Spécifie l'ID CHAP (Challenge-Handshake
Authentication Protocol) de la première cible
de stockage iSCSI. La valeur de chaîne est
limitée aux caractères alphanumériques,
ChapAuthEnable Activé
Nom d'affichage
Nom X-UEFI
Cartes prises en charge
I350
X520
X540
X550
X710
XL710
XXV710
Configurable
par
l'utilisateur
Valeurs configurables par
l'utilisateur
Valeurs pouvant être affichées
Dépendances pour
les valeurs
Optimisation
de l'identité
d'E/S
(iDRAC 8/9)
Information
ainsi que '.' (point), ':' (deux-points) et '-'
(tiret).
Authentification
CHAP
ChapAuthEnable
X
X
X
X
X
X
X
Oui
Activé/Désactivé
Activé/Désactivé
Non
Permet à l'initiateur d'utiliser l'authentification
CHAP lors de la connexion à la cible iSCSI.
Paramètres
TCP/IP via
DHCP
TcpIpViaDHCP
X
X
X
X
X
X
X
Oui
Désactivé/Activé
Désactivé/Activé
Non
Contrôle la source de l'adresse IP de
l'initiateur (affectation DHCP ou statique).
Cette option est spécifique à IPv4.
Version IP
IpVer
X
X
X
X
X
X
X
Non
IPv4
Non
Contrôle si l'adressage réseau IPv4 ou IPv6
sera utilisé pour l'initiateur et les cibles
iSCSI. Actuellement, seul l'adressage IPv4
est pris en charge.
Authentification
mutuelle CHAP
ChapMutualAuth
X
X
X
X
X
X
X
Oui
Désactivé/Activé
Désactivé/Activé
ChapAuthEnable Activé
Non
Active ou désactive l'authentification mutuelle
CHAP. Pour utiliser l'authentification mutuelle
CHAP, spécifiez un secret d'initiateur dans la
page Paramètres de l'initiateur et configurez
ce secret sur la cible.
Paramètres
iSCSI via
DHCP
IscsiViaDHCP
X
X
X
X
X
X
X
Oui
Désactivé/Activé
Désactivé/Activé
TcpIpViaDHCP Activé
Non
Permet l'acquisition des paramètres de la
cible iSCSI depuis DHCP.
Nom iSCSI
IscsiInitiatorName
X
X
X
X
X
X
X
Oui
chaîne
chaîne
Oui
Spécifie le nom IQN (iSCSI Qualified Name)
de l'initiateur. Le paramètre d'attribut
s'applique à tous les ports d'un contrôleur
donné. Il est recommandé d'utiliser le même
IscsiInitiatorName sur tous les ports d'un périphérique donné.
Secret CHAP
IscsiInitiatorChapPwd
X
X
X
X
X
X
X
Oui
chaîne
chaîne
ChapAuthEnable Activé
Oui
Définit le secret (mot de passe) CHAP (Challenge-Handshake Authentication Protocol) de
l'initiateur iSCSI. La valeur de chaîne est limitée aux caractères alphanumériques, ainsi
que '.' (point), ':' (deux-points) et '-' (tiret).
Passerelle par
défaut
IscsiInitiatorGateway
X
X
X
X
X
X
X
Oui
X.X.X.X
X.X.X.X
TcpIpViaDHCP Désactivé
Oui
Spécifie l'adresse IP de la passerelle par
défaut utilisée par l'initiateur iSCSI.
Adresse IP
IscsiInitiatorIpAddr
X
X
X
X
X
X
X
Oui
X.X.X.X
X.X.X.X
TcpIpViaDHCP Désactivé
Oui
Spécifie l'adresse IP de l'initiateur iSCSI.
Masque de
sous-réseau
IscsiInitiatorSubnet
X
X
X
X
X
X
X
Oui
X.X.X.X
X.X.X.X
TcpIpViaDHCP Désactivé
Oui
Spécifie le masque de sous-réseau IPv4 de
l'initiateur iSCSI.
Faire clignoter
les DEL
BlnkLeds
X
X
X
X
X
X
X
Oui
0-15
0-15
Non
Spécifie le nombre de secondes pendant lesquelles les DEL sur le port réseau physique
doivent clignoter pour faciliter l'identification
des ports.
Adresse MAC
FIP virtuelle
VirtFIPMacAddr
X
X
X*
Oui
XX:XX:XX:XX:XX:XX
XX:XX:XX:XX:XX:XX
Oui
Définit l'adresse MAC FIP pouvant être affectée par programmation pour FCoE.
* Uniquement pris en charge sur les cartes
réseau Ethernet Intel® 10G 2P X550-t de la
famille de périphériques X550.
Adresse MAC
VirtMacAddr
X
X
X
X
X
X
X
Oui
XX:XX:XX:XX:XX:XX
XX:XX:XX:XX:XX:XX
Oui
Définit l'adresse MAC pouvant être affectée
Nom d'affichage
Nom X-UEFI
Cartes prises en charge
I350
X520
X540
X550
X710
XL710
XXV710
Configurable
par
l'utilisateur
Valeurs configurables par
l'utilisateur
Valeurs pouvant être affichées
Dépendances pour
les valeurs
Optimisation
de l'identité
d'E/S
(iDRAC 8/9)
virtuelle
Nom virtuel de
nœud mondial
(WWNN)
Information
par programmation pour le port.
VirtWWN
X
X
X*
Oui
XX:XX:XX:XX:XX:XX:XX:XX
XX:XX:XX:XX:XX:XX:XX:XX
Oui
Définit l'identifiant de nom de nœud World
Wide Fibre Channel pour FCoE pouvant être
affecté par programmation. Les 6 derniers
octets doivent être conformes à l'adresse
MAC FIP active.
* Uniquement pris en charge sur les cartes
réseau Ethernet Intel® 10G 2P X550-t.
Nom virtuel de
port mondial
(WWPN)
VirtWWPN
X
X
X*
Oui
XX:XX:XX:XX:XX:XX:XX:XX
XX:XX:XX:XX:XX:XX:XX:XX
Oui
Définit l'Identifiant de nom de port World
Wide Fibre Channel pour FCoE pouvant être
affecté par programmation. Les 6 derniers
octets doivent être conformes à l'adresse
MAC FIP active.
* Uniquement pris en charge sur les cartes
réseau Ethernet Intel® 10G 2P X550-t.
Prise en charge
de l'amorçage
FCoE
FCoEBootSupport
Adresse MAC
FIP
FIPMacAddr
X
X
X
X
X
X
X*
X
X
X
Non
Disponible/Indisponible
Non
Indique si la fonctionnalité Fibre Channel over
Ethernet Boot est prise en charge.
Non
XX:XX:XX:XX:XX:XX
Non
Définit l'adresse MAC FIP permanente pour
FCoE affectée pendant la fabrication.
* Uniquement pris en charge sur les cartes
réseau Ethernet Intel® 10G 2P X550-t.
FlexAddressing
FlexAddressing
X
X
X
X
X
X
X
Non
Disponible/Indisponible
Non
Indique si la fonctionnalité Dell FlexAddressing est prise en charge.
Prise en charge
de l'amorçage
iSCSI
iSCSIBootSupport
X
X
X
X
X
X
X
Non
Disponible/Indisponible
Non
Indique si le démarrage iSCSI est pris en
charge.
Prise en charge
de la version
iSCSI Dual IP
iSCSIDualIPVersionSupport
X
X
X
X
X
X
X
Non
Disponible/Indisponible
Non
Indique la prise en charge des configurations
simultanées IPv4 et IPv6 de l'initiateur iSCSI
et des cibles iSCSI principales et secondaires. Indisponible est la seule valeur utilisée.
Prise en charge
du délestage
iSCSI
iSCSIOffloadSupport
X
X
X
X
X
X
X
Non
Disponible/Indisponible
Non
Indique si la fonctionnalité de délestage iSCSI
est prise en charge. Indisponible est la seule
valeur utilisée.
État de la liaison
LinkStatus
X
X
X
X
X
X
X
Non
Déconnecté/Connecté
Non
Indique l'état de la liaison physique des ports
réseau signalé par le contrôleur.
Adresse MAC
MacAddr
X
X
X
X
X
X
X
Non
XX:XX:XX:XX:XX:XX
Non
Indique l'adresse MAC permanente affectée
pendant la fabrication.
Prise en charge
des partitions
NIC
NicPartitioningSupport
X
X
X
X
X
X
X
Non
Disponible/Indisponible
Non
Indique si la fonctionnalité de partitionnement
NIC est prise en charge.
PassThrough de
gestion BMC
SE
OSBMCManagementPassThrough
X
X
X
Non
Disponible/Indisponible
Non
Indique si la fonctionnalité de PassThrough de
gestion BMC SE est prise en charge.
Nom d'affichage
Nom X-UEFI
Cartes prises en charge
I350
X520
X540
X550
X710
XL710
XXV710
Configurable
par
l'utilisateur
Valeurs configurables par
l'utilisateur
Valeurs pouvant être affichées
Dépendances pour
les valeurs
Optimisation
de l'identité
d'E/S
(iDRAC 8/9)
Information
ID de périphérique PCI
PCIDeviceID
X
X
X
X
X
X
X
Non
XXXX
Non
Indique l'ID de périphérique PCI du contrôleur.
Prise en charge
de l'amorçage
PXE
PXEBootSupport
X
X
X
X
X
X
X
Non
Disponible/Indisponible
Non
Indique si la fonction d'amorçage PXE est
prise en charge.
Contrôle du flux
de réception
RXFlowControl
X
X
X
Non
Disponible/Indisponible
Non
Indique si la fonctionnalité de contrôle du flux
de réception (RX) est prise en charge. "Indisponible" est la seule valeur utilisée.
Prise en charge
TOE
TOESupport
X
X
X
Non
Disponible/Indisponible
Non
Indique si la fonctionnalité de moteur de délestage TCP/IP (TCP/IP Offload Engine) est
prise en charge. Indisponible est la seule
valeur utilisée.
Contrôle du
débit de transmission - Maximum
TXBandwidthControlMaximum
Non
Disponible/Indisponible
Non
Indique si la fonctionnalité Contrôle du débit
de transmission - Maximum est prise en
charge.
Contrôle du flux
de transmission
TXFlowControl
Non
Disponible/Indisponible
Non
Indique si la fonctionnalité du contrôle du flux
de transmission est prise en charge. Indisponible est la seule valeur utilisée.
Nom du nœud
World Wide
(WWNN)
WWN
Non
XX:XX:XX:XX:XX:XX:XX:XX
Non
Indique l'identifiant de nom de nœud World
Wide Fibre Channel pour FCoE. Affecté pendant la fabrication.
X
X
X
X
X
X
X
X
X
X*
* Uniquement pris en charge sur les cartes
réseau Ethernet Intel® 10G 2P X550-t.
Nom WWN du
port
WWPN
X
X
X*
Non
XX:XX:XX:XX:XX:XX:XX:XX
Non
Indique l'identifiant de nom de port World
Wide Fibre Channel pour FCoE. Affecté pendant la fabrication.
* Uniquement pris en charge sur les cartes
réseau Ethernet Intel® 10G 2P X550-t.
Protocole
d'amorçage
existant
LegacyBootProto
X
X
X
X
X
X
X
Oui
Aucun/PXE/iSCSI principal/iSCSI secondaire/*FCoE)
Aucun/PXE/iSCSI principal/iSCSI secondaire/*FCoE
Non
Sélectionne un protocole d'amorçage à utiliser en mode d'amorçage BIOS existant (non
UEFI).
* L"option FCoE s'affiche uniquement sur les
périphériques pris en charge par FCoE
ID de réseau
local virtuel
VLanId
X
X
X
X
X
X
X
Oui
0-4094
0-4094
Non
Spécifie l'ID (balise) à utiliser en mode VLAN
PXE. L'ID de VLAN doit être compris entre 0
et 4 094. Le VLAN PXE est désactivé lorsque
cette valeur est définie sur 0.
Wake On LAN
WakeOnLan
X
X
X
X
X
X
X
Oui
Désactivé/Activé/'N/A'
Désactivé/Activé/'N/A'
Non
Active l'alimentation du système via un
réseau LAN. Remarque : la configuration de
la fonctionnalité Wake on LAN sur le système
d'exploitation ne change pas la valeur de ce
paramètre, mais change le comportement
Wake on LAN dans les états d'alimentation
contrôlés par le SE.
Vitesse de liaison
LnkSpeed
X
X
X
X
X
X
X
*Oui
Négociation
Négociation
Non
Spécifie la vitesse de liaison du port à utiliser
lors du démarrage du protocole sélectionné.
Nom d'affichage
Nom X-UEFI
Cartes prises en charge
I350
X
X520
X
X540
X
X550
X
X710
Fonctions PCI
virtuelles
publiées
NumberVFAdvertised
X
Fonctions PCI
virtuelles
publiées
NumberVFAdvertised
X
Nombre de fonctions PCI physiques
actuellement
autorisées par
port
NumberPCIFunctionsEnabled
X
Nombre de fonctions PCI physiques prises en
charge
NumberPCIFunctionsSupported
Partition n
XL710
X
XXV710
Configurable
par
l'utilisateur
Valeurs configurables par
l'utilisateur
Valeurs pouvant être affichées
automatique/1000 Mbit/s
Full/10 Mbit/s
Half/10 Mbit/s
Full/100 Mbit/s
Half/100 Mbit/s Full
automatique/1000 Mbit/s
Full/10 Mbit/s
Half/10 Mbit/s
Full/100 Mbit/s
Half/100 Mbit/s Full
Dépendances pour
les valeurs
Optimisation
de l'identité
d'E/S
(iDRAC 8/9)
Information
*L'attribut est modifiable sur les périphériques
1G (I350) uniquement.
X
Oui
I350 : 1-8, X520/X540/X550 :
1-64, X710/XL710/XXV710 :
0-127
I350 : 1-8, X520/X540/X550 :
1-64, X710/XL710/XXV710 :
0-127
VirtualizationMode
- SR-IOV
Non
Indique le nombre de fonctions PCI virtuelles
(VF) à publier en mode non NPAR. Les
valeurs disponibles varient selon les familles
de produits. Sur les périphériques équipés de
cartes réseau I350, X520, X540 et X550, la
valeur représente le nombre total de VF PCI
qui seront partagés entre tous les ports d'un
contrôleur donné. Sur tous les autres périphériques, la valeur représente le nombre de
VF PCI qui seront dédiés à chaque port.
X
Oui
0-128
0-128
VirtualizationMode
-NPAR+ SR-IOV
Non
Indique le nombre de fonctions PCI virtuelles
(VF) à publier sur ce port en mode NPAR.
Cet attribut est présent uniquement dans le
navigateur HII. Les fonctions virtuelles en
mode NPAR ne peuvent être affectées qu'à la
première partition d'un port. Utilisez l'attribut
VFDistribution pour la configuration à distance.
X
X
Non
1-8
Non
Indique le nombre de fonctions PCI physiques
actuellement activées sur ce port.
X
X
X
Non
1-8
Non
Indique le nombre de fonctions PCI physiques
prises en charge sur ce port. Cette valeur
peut varier en fonction de la prise en charge et
de la configuration de NParEP.
PartitionState[Partition:n]
X
X
X
Non
Activé/Désactivé
Non
Indique l'état d'activation actuel de la partition.
Adresse MAC
virtuelle
VirtMacAddr[Partition:n]
X
X
X
Oui
Adresse MAC
MacAddr[Partition:n]
X
X
X
Non
XX:XX:XX:XX:XX:XX
Non
Indique l'adresse MAC permanente affectée
pendant la fabrication.
Mode NIC
NicMode[Partition:n]
X
X
X
Non
Désactivé/Activé
Non
Spécifie l'utilisation de la partition pour le trafic Ethernet L2. Activé est la seule valeur utilisée.
ID de périphérique PCI
PCIDeviceID[Partition:n]
X
X
X
Non
XXXX
Non
Indique l'ID de périphérique PCI de la partition.
Numéro de port
PortNumber[Partition:n]
X
X
X
Non
1-4
Non
Indique le port auquel la partition appartient,
où n représente le nombre de partitions.
Distribution des
VF
VFDistribution
X
X
X
Oui
Non
Définit la distribution des VF sur les PF dans
le domaine spécifié par VFAllocBasis. Une
valeur apparaît dans la liste séparée par des
deux-points de chaque fonction physique qui
XX:XX:XX:XX:XX:XX
X:0:0:0:...:0:0 (le nombre de
zéros dépend du nombre de
partitions actuellement activées sur le port)
XX:XX:XX:XX:XX:XX
X:0:0:0:...:0:0 (le nombre de
zéros dépend du nombre de
partitions actuellement activées sur le port)
Indique l'adresse MAC pouvant être affectée
par programmation pour la partition.
VirtualizationMode
- NPAR + SR-IOV
Nom d'affichage
Nom X-UEFI
Cartes prises en charge
I350
X520
X540
X550
X710
XL710
XXV710
Configurable
par
l'utilisateur
Valeurs configurables par
l'utilisateur
Valeurs pouvant être affichées
Dépendances pour
les valeurs
Optimisation
de l'identité
d'E/S
(iDRAC 8/9)
Information
peut être potentiellement présente dans le
domaine d'affectation. Les valeurs de gauche
à droite dans la liste s'appliquent aux numéros de fonction du plus petit au plus grand
dans le domaine.
Avertissements
Contrat de licence du logiciel
CONTRAT DE LICENCE DU LOGICIEL INTEL (licence finale)
IMPORTANT - À LIRE AVANT TOUTE TENTATIVE DE COPIE, D’INSTALLATION OU D’UTILISATION.
Veuillez ne pas utiliser ou charger ce logiciel et tout programme associé (regroupés sous la désignation "Logiciel") tant que vous n’avez pas lu attentivement les conditions suivantes. En chargeant ou en utilisant le Logiciel,
vous acceptez les termes de ce contrat. Si vous êtes en désaccord avec les termes de ce contrat, veuillez ne
pas installer ou utiliser le Logiciel.
CONTRATS DE LICENCE
Veuillez noter :
l
Si vous êtes un administrateur réseau, reportez-vous à la "Licence de site" ci-dessous.
l
Si vous êtes un utilisateur final, reportez-vous à la "Licence utilisateur unique" ci-dessous.
LICENCE DE SITE. Vous pouvez copier le Logiciel sur les ordinateurs de votre organisation afin que les employés
puissent l’utiliser et vous pouvez sauvegarder un nombre raisonnable de copies du Logiciel, conformément à ces
conditions :
1. Ce Logiciel est concédé sous licence pour une utilisation exclusive avec les produits composants Intel.
L’utilisation du Logiciel avec des produits composants autres que Intel n’est pas couverte par cette
licence.
2. Vous n’êtes pas autorisé(e) à copier, modifier, louer, vendre, distribuer, ni transférer une partie quelconque du
Logiciel, sauf dans la mesure prévue par le présent Contrat, et vous vous engagez à empêcher toute copie non
autorisée du Logiciel.
3. Vous n’êtes pas autorisé(e) à reconstituer la logique du Logiciel, à le décompiler ou à le désassembler.
4. Vous n’êtes pas autorisé(e) à concéder une sous-licence du Logiciel ou à permettre à plusieurs utilisateurs de
l’utiliser simultanément.
5. Le Logiciel peut inclure des portions sujettes à des termes complémentaires aux présents, définis dans une
licence accompagnant ces portions.
LICENCE UTILISATEUR UNIQUE. Vous pouvez copier le Logiciel sur un seul ordinateur pour une utilisation personnelle et non commerciale, et vous pouvez effectuer une copie de sauvegarde du Logiciel, conformément à ces
conditions :
1. Ce Logiciel est concédé sous licence pour une utilisation exclusive avec les produits composants Intel.
L’utilisation du Logiciel avec des produits composants autres que Intel n’est pas couverte par cette
licence.
2. Vous n’êtes pas autorisé(e) à copier, modifier, louer, vendre, distribuer, ni transférer une partie quelconque du
Logiciel, sauf dans la mesure prévue par le présent Contrat, et vous vous engagez à empêcher toute copie non
autorisée du Logiciel.
3. Vous n’êtes pas autorisé(e) à reconstituer la logique du Logiciel, à le décompiler ou à le désassembler.
4. Vous n’êtes pas autorisé(e) à concéder une sous-licence du Logiciel ou à permettre à plusieurs utilisateurs de
l’utiliser simultanément.
5. Le Logiciel peut inclure des portions sujettes à des termes complémentaires aux présents, définis dans une
licence accompagnant ces portions.
PROPRIÉTÉ DU LOGICIEL ET COPYRIGHT (DROITS D’AUTEUR). Intel ou ses fournisseurs demeurent les propriétaires de toutes les copies du Logiciel. Le logiciel est protégé par la loi sur le copyright, les lois en vigueur aux
États-Unis et dans d’autres pays, ainsi que par les dispositions de traités internationaux. Vous n’êtes pas autorisés à
retirer la mention de copyright du Logiciel. Intel peut modifier le Logiciel ou des éléments référencés dans ce document, à tout moment et sans préavis, mais n’est pas dans l’obligation de mettre à jour le Logiciel ni d’offrir une assistance. Sauf stipulation expresse contraire, Intel exclut tout droit, explicite ou implicite, vis à vis des brevets, copyrights
et marques Intel, et tout autre droit de propriété intellectuelle. Vous pouvez transférer le Logiciel uniquement si le bénéficiaire accepte d’être lié par ces termes et si vous ne conservez aucune copie du Logiciel.
GARANTIE LIMITÉE DU SUPPORT. Si le logiciel a été remis par Intel sur un support physique, Intel garantit que celuici est exempt de défauts matériels pendant une période de quatre-vingt-dix jours à compter de la date de livraison par
Intel. Si un tel défaut est détecté, renvoyez le support à Intel qui pourra choisir de le remplacer ou d’employer une autre
méthode de livraison.
EXCLUSION DE TOUTE AUTRE GARANTIE. À L’EXCEPTION DES CAS CI-DESSUS, LE LOGICIEL EST FOURNI
"EN L’ÉTAT", SANS GARANTIE EXPRESSE OU IMPLICITE D’AUCUNE SORTE, NOTAMMENT TOUTE GARANTIE
DE QUALITÉ MARCHANDE, D’ABSENCE DE CONTREFAÇON OU D’ADÉQUATION À UN USAGE PARTICULIER.
Intel ne garantit pas la précision ni l’exhaustivité des informations, des textes, des graphiques, des liens ou d’autres
éléments contenus dans le Logiciel et ne peut en être tenu responsable.
LIMITATION DE RESPONSABILITÉ. EN AUCUN CAS INTEL OU SES FOURNISSEURS NE POURRONT ÊTRE
TENUS POUR RESPONSABLES DE TOUT DOMMAGE, DE QUELQUE NATURE QUE CE SOIT (Y COMPRIS, MAIS
DE MANIÈRE NON LIMITATIVE, TOUTE PERTE DE BÉNÉFICES, INTERRUPTION D’ACTIVITÉ OU PERTE
D’INFORMATIONS), RÉSULTANT DE L’UTILISATION OU DE L’IMPOSSIBILITÉ D’UTILISER LE LOGICIEL, ET CE
MÊME SI INTEL A ÉTÉ PRÉVENU DE L’ÉVENTUALITÉ DE TELS DOMMAGES. CERTAINES JURIDICTIONS
N’AUTORISENT PAS L’EXCLUSION OU LA LIMITATION DE RESPONSABILITÉ POUR LES GARANTIES
IMPLICITES OU LES DOMMAGES INDIRECTS OU ACCESSOIRES, DE SORTE QUE LA LIMITATION CI-DESSUS
PEUT NE PAS VOUS ÊTRE APPLICABLE. VOUS POUVEZ ÉGALEMENT DISPOSER D’AUTRES DROITS QUI
VARIENT DE JURIDICTION EN JURIDICTION.
RÉSILIATION DE CE CONTRAT. Intel peut résilier ce contrat à tout moment si vous n’en respectez pas les termes.
Dans ce cas, vous devez immédiatement détruire le Logiciel et retourner toutes les copies dudit Logiciel à Intel.
LOIS APPLICABLES. Toute réclamation établie dans le cadre de ce contrat sera régie par les lois de l’État de Californie (États-Unis), à l’exception de ses principes de conflit des lois et de la convention des Nations Unies sur les
contrats pour la vente de biens. Vous n’êtes pas autorisés à exporter le Logiciel en infraction des lois et des régulations d’exportation applicables. Intel n’est contraint par aucun autre contrat à moins que celui-ci ne soit établi par
écrit et signé par un représentant habilité d’Intel.
LIMITATION DES DROITS DU GOUVERNEMENT. Le Logiciel est fourni avec des "DROITS LIMITÉS". L’utilisation, la
duplication ou la diffusion par le gouvernement est soumise à des restrictions comme indiqué dans les clauses
FAR52.227-14 et DFAR252.227-7013 et seq. ou son successeur. L’utilisation du Logiciel par le gouvernement constitue la reconnaissance des droits de propriété de Intel mentionnés dans ce document. Le sous-traitant ou le fabricant
est Intel.
Licences tierces
Des parties de cette version peuvent inclure des logiciels distribués sous les licences suivantes.
Open Toolkit Library (OpenTK)
Licence The Open Toolkit Library
Copyright (c) 2006 - 2009 The Open Toolkit library.
L'autorisation est accordée gratuitement par les présentes à toute personne obtenant une copie de ce logiciel et des
fichiers de documentation associés (le "logiciel") d'utiliser le logiciel sans restriction, y compris, sans limitation, le droit
d'utiliser, de copier, de modifier, de fusionner, de publier, de distribuer, d'accorder des sous-licences et/ou de vendre
des copies du logiciel, et d'autoriser les personnes à qui le logiciel est fourni à faire de même, sous réserve des conditions suivantes :
La mention de copyright ci-dessus et cette notification d'autorisation doivent être incluses dans toutes les copies ou portions substantielles du logiciel.
LE LOGICIEL EST FOURNI "EN L'ÉTAT" SANS GARANTIE D'AUCUNE SORTE, EXPLICITE NI IMPLICITE, Y
COMPRIS, SANS QUE CE SOIT UNE LIMITATION, LA GARANTIE DE POSSIBILITÉ DE COMMERCIALISATION,
D'ADAPTATION À UN OBJECTIF PARTICULIER ET DE NON-VIOLATION. EN AUCUN CAS LES AUTEURS OU
DÉTENTEURS DU COPYRIGHT NE POURRONT ÊTRE TENUS POUR RESPONSABLES EN CAS DE PLAINTE,
DOMMAGES OU AUTRE RISQUE, QUE CE SOIT LORS D'UNE ACTION CONTRACTUELLE, PRÉJUDICE OU AUTRE,
DÉCOULANT DE OU LIÉ AU LOGICIEL OU À SON UTILISATION OU EN RAPPORT AVEC LE LOGICIEL.
Tiers
* The Open Toolkit Library comprend des parties de la bibliothèque de classes Mono, qui sont couvertes par la licence
ci-après :
Copyright (c) 2004 Novell, Inc.
L'autorisation est accordée gratuitement par les présentes à toute personne obtenant une copie de ce logiciel et des
fichiers de documentation associés (le "logiciel") d'utiliser le logiciel sans restriction, y compris, sans limitation, le droit
d'utiliser, de copier, de modifier, de fusionner, de publier, de distribuer, d'accorder des sous-licences et/ou de vendre
des copies du logiciel, et d'autoriser les personnes à qui le logiciel est fourni à faire de même, sous réserve des conditions suivantes :
La mention de copyright ci-dessus et cette notification d'autorisation doivent être incluses dans toutes les copies ou portions substantielles du logiciel.
LE LOGICIEL EST FOURNI "EN L'ÉTAT" SANS GARANTIE D'AUCUNE SORTE, EXPLICITE NI IMPLICITE, Y
COMPRIS, SANS QUE CE SOIT UNE LIMITATION, LA GARANTIE DE POSSIBILITÉ DE COMMERCIALISATION,
D'ADAPTATION À UN OBJECTIF PARTICULIER ET DE NON-VIOLATION. EN AUCUN CAS LES AUTEURS OU
DÉTENTEURS DU COPYRIGHT NE POURRONT ÊTRE TENUS POUR RESPONSABLES EN CAS DE PLAINTE,
DOMMAGES OU AUTRE RISQUE, QUE CE SOIT LORS D'UNE ACTION CONTRACTUELLE, PRÉJUDICE OU AUTRE,
DÉCOULANT DE OU LIÉ AU LOGICIEL OU À SON UTILISATION OU EN RAPPORT AVEC LE LOGICIEL.
* Les conversions Half-to-Single et Single-to-Half sont couvertes par la licence suivante :
Copyright (c) 2002, Industrial Light & Magic, une division de Lucas Digital Ltd. LLC. Tous droits réservés.
La redistribution et l'utilisation sous forme de code source ou sous forme binaire, avant ou sans modification, sont autorisées sous réserve que les conditions suivantes soient remplies :
l
La redistribution du code source doit conserver la mention de copyright ci-dessus, cette liste de conditions et
l'exclusion de responsabilité qui suit.
l
La redistribution sous forme binaire doit reproduire dans la documentation et/ou les autres documents fournis
avec la distribution la mention de copyright ci-dessus, cette liste de conditions et l'exclusion de responsabilité
qui suit.
l
Ni le nom de Industrial Light & Magic, ni celui de ses contributeurs ne peut être utilisé pour soutenir ou promouvoir les produits dérivés de ce logiciel sans une autorisation écrite spécifique préalable.
CE LOGICIEL EST FOURNI "EN L'ÉTAT" PAR LES DÉTENTEURS DU COPYRIGHT ET LES CONTRIBUTEURS, ET
TOUTE GARANTIE EXPRESSE OU IMPLICITE Y COMPRIS, SANS LIMITATION, LA GARANTIE IMPLICITE DE
POSSIBILITÉ DE COMMERCIALISATION ET D'ADAPTATION À UN OBJECTIF PARTICULIER, EST EXCLUE. EN
AUCUN CAS LE DÉTENTEUR DU COPYRIGHT OU SES CONTRIBUTEURS NE POURRONT ÊTRE TENUS POUR
RESPONSABLES DE QUELQUE DOMMAGE DIRECT, INDIRECT, INCIDENT, SPÉCIAL, EXEMPLAIRE OU
CONSÉCUTIF (Y COMPRIS, SANS LIMITATION, L'APPROVISIONNEMENT EN MARCHANDISES OU SERVICES DE
SUBSTITUTION ; LA PERTE D'UTILISATION, DE DONNÉES OU DE PROFITS ; OU L'INTERRUPTION D'ACTIVITÉ)
QUELLE QU'EN SOIT LA CAUSE ET DANS LE CADRE DE QUELQUE THÉORIE DE RESPONSABILITÉ QUE CE
SOIT, PAR CONTRAT, RESPONSABILITÉ STRICTE OU DÉPENDS (Y COMPRIS LA NÉGLIGENCE OU DES
CONCEPTS SIMILAIRES) DÉCOULANT, DE QUELQUE MANIÈRE QUE CE SOIT, DE L'UTILISATION DE CE
LOGICIEL, MÊME EN CAS D'AVERTISSEMENT RELATIF À LA POSSIBILITÉ DE TEL DOMMAGE.
RSA Data Security-MD5 Message
RSA Data Security
Copyright (C) 1991-2, RSA Data Security, Inc. Créé en 1991. Tous droits réservés.
Une licence permettant la copie et l'utilisation de ce logiciel est accordée sous condition d'identification par le libellé
"RSA Data Security, Inc. MD5 Message-Digest Algorithm" dans tous les documents mentionnant ou faisant référence à
ce logiciel ou cette fonction.
La licence permet également de créer et d'utiliser des œuvres dérivées à condition que ces œuvres soient identifiées
comme "dérivées de RSA Data Security, Inc. MD5 Message-Digest Algorithm" dans tous les documents mentionnant
les œuvres dérivées ou y faisant référence.
RSA Data Security, Inc. ne fait aucune garantie quant à la qualité marchande de ce logiciel ou son adéquation à un
usage particulier. Le logiciel est fourni "tel quel", sans garantie expresse ou implicite d'aucune sorte.
Ces avis doivent être conservés dans toutes les copies de toute partie de ce document et/ou du logiciel.
Restrictions et clauses exonératoires de responsabilité
Les informations contenues dans ce document pourront faire l’objet de modifications sans préavis.
Copyright © 2008-2018, Intel Corporation. Tous droits réservés.
Marques commerciales utilisées dans ce document : Dell EMC et le logo Dell EMC sont des marques commerciales de
Dell Inc. Intel est une marque déposée d'Intel Corporation ou de ses filiales aux États-Unis et/ou dans d'autres pays.
* Les autres marques et noms de produit utilisés dans ce document font référence aux entités revendiquant les
marques et les noms de leurs produits. Intel renonce à tout intérêt propriétaire dans les marques et noms de produits
qui ne lui appartiennent pas.
Restrictions et clauses exonératoires de responsabilité
Les informations contenues dans le présent document, y compris l’ensemble des instructions, avertissements ainsi
que les approbations et les homologations de réglementation, ont été soumises par le fournisseur et n’ont été ni vérifiées ni testées de façon indépendante par Dell. Dell EMC ne pourrait être tenu pour responsable des dommages causés suite au respect ou au non-respect de ces instructions.
Toutes les déclarations ou revendications relatives aux propriétés, capacités, vitesses ou qualifications du dispositif
mentionné dans le présent document sont communiquées par le revendeur et non pas par Dell EMC. Dell EMC n'est
pas en mesure de certifier l'exactitude de ces déclarations, d'en garantir l'exhaustivité ou de les justifier. Veuillez vous
adresser à votre fournisseur pour toute question relative à ces déclarations.
Contrôle des exportations
Le client reconnaît que ces produits, qui peuvent inclure des technologies ou des logiciels, sont sujets aux lois et réglementations relatives aux douanes et à l’exportation des États-Unis et peuvent également être sujets aux lois et réglementations relatives aux douanes et à l’exportation du pays dans lequel les produits sont fabriqués et/ou reçus. Le
client accepte de respecter ces lois et réglementations. En vertu de la loi des États-Unis, les produits ne peuvent être
vendus, loués ou cédés de quelque manière que ce soit à des utilisateurs finaux ou des pays faisant l'objet de restrictions. De plus, les produits ne peuvent être vendus, loués, transférés ou utilisés par un utilisateur engagé dans des
activités liées aux armes de destruction massive, y compris mais sans s’y limiter, les activités liées à la conception, au
développement, à la production ou à l’utilisation d’armes, de matériaux, ou de bâtiments nucléaires, de missiles, de
projets liés aux missiles, ou d’armes chimiques ou biologiques.
9 mars 2018

Manuels associés