Mode d'emploi | Dell PowerVault MD3600i/3620i Windows HA Cluster Manuel utilisateur

Ajouter à Mes manuels
82 Des pages
Mode d'emploi | Dell PowerVault MD3600i/3620i Windows HA Cluster Manuel utilisateur | Fixfr
Matrices de stockage
Dell PowerVault MD3600i
et MD3620i à clusters
de basculement
Microsoft Windows Server
Guide d'installation et de
dépannage du matériel
Remarques et précautions
REMARQUE : une REMARQUE indique des informations importantes qui peuvent
vous aider à mieux utiliser votre ordinateur.
PRÉCAUTION : une PRÉCAUTION indique un risque d'endommagement
du matériel ou de perte de données en cas de non respect des instructions.
__________________
Les informations contenues dans cette publication sont sujettes à modification sans préavis.
© 2011 Dell Inc. tous droits réservés.
La reproduction de ce document de quelque manière que ce soit sans l'autorisation écrite de Dell Inc.
est strictement interdite.
Marques utilisées dans ce document : Dell™, le logo DELL, PowerEdge™ et PowerVault™ sont
des marques de Dell Inc. Microsoft®, Windows® et Windows Server® sont des marques ou des
marques déposées de Microsoft Corporation aux États-Unis et/ou dans d'autres pays.
D'autres marques et noms commerciaux peuvent être utilisés dans ce document pour faire référence
aux entités revendiquant la propriété de ces marques ou de ces noms de produits. Dell Inc. rejette tout
intérêt propriétaire dans les marques et les noms commerciaux autres que les siens.
Février 2011
Rév. A00
Table des matières
1
Introduction .
Présentation
. . . . . . . . . . . . . . . . . . . . . . .
5
. . . . . . . . . . . . . . . . . . . . . . . .
5
Solution de cluster .
. . . . . . . . . . . . . . . . . . . .
Exigences du cluster
. . . . . . . . . . . . . . . . . . .
Nœuds de cluster .
. . . . . . . . . . . . . . . . . .
Stockage du cluster
. . . . . . . . . . . . . . . . .
Logiciels de gestion du stockage du cluster .
Configurations de cluster prises en charge .
Autres documents utiles .
2
. . . .
6
7
7
8
9
. . . . . .
11
. . . . . . . . . . . . . . . .
13
Câblage du matériel du cluster .
. . . . . . .
Câblage de la souris, du clavier et du moniteur
Câblage des blocs d'alimentation .
. . . .
15
. . . . . . . . . . .
15
Câblage des réseaux public et privé
. . . . . . . . . .
17
. . . . . . . . . . . . .
18
. . . . . . . . . . . . . .
18
Câblage du réseau public
Câblage du réseau privé
15
Utilisation de cartes réseau à deux connecteurs
pour le réseau privé . . . . . . . . . . . . . . .
Regroupement (« teaming »)
des cartes réseau . . . . .
.
19
. . . . . . . . . . . .
20
Table des matières
3
Câblage des systèmes de stockage
. . . . . . . . . . .
Câblage du cluster dans une configuration
à connexion directe . . . . . . . . . . . . .
. . . .
21
Câblage du cluster dans une configuration
avec connexion à un réseau . . . . . . . .
. . . .
23
. . . . . . . .
26
. . . . . . . . . . . .
29
Connexion d'un cluster PowerEdge
à plusieurs systèmes de stockage
PowerVault MD3600i ou MD3620i .
3
Préparation des systèmes
pour la mise en cluster . .
Présentation de la configuration du cluster .
Présentation de l'installation
. . . . . .
29
. . . . . . . . . . . . . .
32
Installation des cartes réseau iSCSI
. . . . . . . .
. . . . . .
33
34
Installation du logiciel de gestion de stockage .
. .
35
Configuration du système de stockage partagé
. .
37
. . . . . . . . . . . . . . . .
57
Outils de dépannage
Configuration d'un cluster de basculement
A Dépannage .
. . . .
. . . . . . . . . . . . . . . . . . . . . .
C Fiche de configuration iSCSI .
68
69
. . . . . .
75
. . . . . . . .
77
B Formulaire technique du cluster
4
33
Installation de l'initiateur logiciel iSCSI Microsoft .
Configuration des cartes réseau iSCSI .
Index
20
Paramètres IPv4
. . . . . . . . . . . . . . . . . .
77
Paramètres IPv6
. . . . . . . . . . . . . . . . . .
78
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
Table des matières
Introduction
Ce document fournit des informations sur l'installation et la gestion de votre
solution de cluster à l'aide des systèmes de stockage Dell PowerVault
MD3600i et MD3620i. Il est destiné aux professionnels de l'informatique
expérimentés appelés à configurer la solution de cluster, ainsi qu'aux
techniciens de maintenance qualifiés chargés des procédures de mise à niveau
et d'entretien. Il s'adresse également aux utilisateurs découvrant la
technologie de mise en cluster.
Présentation
La fonctionnalité Clustering avec basculement de Microsoft Windows Server
associe des composants matériels et logiciels spécifiques en vue d'optimiser la
disponibilité des applications et services qui y sont exécutés. Il est conçu pour
éviter les risques d'indisponibilité de ces applications et services liés à la
défaillance d'un élément du système. Il est recommandé d'utiliser des
composants redondants, notamment pour les blocs d'alimentation du
système et du stockage, les connexions entre les nœuds et la ou les matrices
de stockage, les connexions aux systèmes clients ou aux autres systèmes de
l'architecture d'applications d'entreprise multi-niveau de votre cluster.
Ce guide présente la configuration des matrices de stockage Dell MD3600i
et MD3620i iSCSI pour un ou plusieurs clusters de basculement Windows
Server. Il contient des informations ainsi que des tâches de configuration
spécifiques vous permettant de déployer le stockage partagé de votre cluster.
Pour plus d'informations sur le déploiement de votre cluster, consultez le
manuel Dell Failover Clusters with Microsoft Windows Server Installation and
Troubleshooting Guide (Guide d'installation et de dépannage des clusters de
basculement sous Microsoft Windows Server) sur le site
support.dell.com/manuals.
REMARQUE : dans ce document, Windows Server 2008 désigne Windows Server
2008 x64 Enterprise Edition ou Windows Server 2008 R2 x64 Enterprise Edition.
Introduction
5
Pour obtenir une liste des systèmes d'exploitation, composants matériels
et pilotes ou versions de micrologiciel recommandés pour le cluster de
basculement Dell Windows Server, voir le document Dell Cluster
Configuration Support Matrices (Tableaux des configurations prises en
charge par les clusters Dell) sur le site dell.com/ha.
Solution de cluster
Votre cluster iSCSI est doté de deux nœuds au minimum et de seize nœuds
au maximum, et offre les fonctionnalités suivantes :
•
Technologie iSCSI (Internet Small Computer System Interface)
•
Haute disponibilité des services et ressources système pour les clients
réseau
•
Chemins d'accès redondants au stockage partagé
•
Récupération en cas d'échec d'applications et de services
•
Fonctions d'entretien souples permettant de réparer, d'entretenir ou
de mettre à niveau un nœud de cluster sans mettre hors ligne le cluster
tout entier
L'implémentation de la technologie iSCSI dans un cluster offre différents
avantages :
6
•
Souplesse : étant basée sur le protocole TCP/IP, la technologie iSCSI
permet d'utiliser des nœuds de cluster et des systèmes de stockage se
trouvant sur différents sites.
•
Disponibilité : grâce à leurs connexions redondantes, les composants
iSCSI offrent plusieurs chemins d'accès des données et améliorent ainsi
la disponibilité pour les clients.
•
Connectivité : la technologie iSCSI permet de connecter plus de
périphériques que l'interface SCSI. Les périphériques iSCSI étant
enfichables à chaud, vous pouvez les installer ou les retirer des nœuds
sans arrêter le cluster.
Introduction
Exigences du cluster
Le cluster requiert les composants suivants :
•
Serveurs (nœuds de cluster)
•
Logiciels de stockage et de gestion du stockage
Nœuds de cluster
Le tableau 1-1 répertorie la configuration matérielle requise pour les nœuds
du cluster.
Tableau 1-1.
Configuration requise pour les nœuds
Composant
Configuration minimale
Processeur
Au moins un processeur par nœud de cluster.
Nœuds de cluster Au moins deux systèmes PowerEdge identiques.
RAM
Au moins 1 Go de RAM sur chaque nœud de cluster.
Initiateur iSCSI
Pilote de l'initiateur iSCSI Microsoft et service initiateur iSCSI
Microsoft
Cartes réseau
pour l'accès
iSCSI
Deux cartes réseau iSCSI ou ports de carte réseau par nœud.
Afin d'améliorer la disponibilité et les performances, installez
les cartes réseau sur des bus PCI distincts. Les cartes réseau avec
moteur TOE (moteur de décentralisation TCP/IP) sont également
prises en charge pour le trafic iSCSI. Pour obtenir une liste des
systèmes d'exploitation, composants matériels et pilotes ou
versions de micrologiciel recommandés pour le cluster de
basculement Dell Windows Server, voir le document Dell Cluster
Configuration Support Matrices (Tableaux des configurations
prises en charge par les clusters Dell) sur le site dell.com/ha.
Introduction
7
Tableau 1-1.
Configuration requise pour les nœuds (suite)
Composant
Configuration minimale
Cartes réseau
(public et privé)
Au moins deux cartes réseau, dont une pour le réseau public et
une autre pour le réseau privé.
REMARQUE : il est recommandé d'utiliser des cartes identiques sur
chaque réseau public et sur chaque réseau privé.
Contrôleur de
disque interne
Un contrôleur connecté aux disques internes sur chaque nœud.
Utilisez n'importe quel contrôleur RAID (Redundant Array of
Independent Disk) ou contrôleur de disque pris en charge.
Deux disques physiques sont nécessaires pour la mise en miroir
(RAID 1), alors qu'il en faut au moins trois pour la répartition des
disques avec parité (RAID 5).
REMARQUE : pour les disques internes, il est recommandé
d'utiliser une configuration RAID matérielle ou une fonction logicielle
de tolérance de pannes.
Stockage du cluster
Le tableau 1-2 présente la configuration minimale d'un système de stockage
partagé.
Tableau 1-2.
Configuration requise pour le stockage du cluster
Composants
matériels
Configuration minimale
Systèmes de stockage Un boîtier RAID Dell PowerVault MD3600i ou MD3620i.
pris en charge
Toute combinaison de boîtiers d'extension Dell PowerVault
MD1200 et/ou MD1220 (sept au maximum).
REMARQUE : le nombre de disques durs ne doit pas dépasser
96.
Commutateur
et câble
Une infrastructure à capacité de 10GBase-T constituée de
câbles de catégorie 6 ou supérieure, de tableaux de connexion
à capacité de 10GBase-T et de commutateurs.
Les infrastructures 1GBase-T existantes peuvent être utilisées
à l'aide d'un commutateur 10GBase-T ou en configurant
manuellement les ports iSCSI sur des vitesses 1GBase-T.
8
Introduction
Tableau 1-2.
Configuration requise pour le stockage du cluster (suite)
Composants
matériels
Configuration minimale
Configuration
requise pour
l'alimentation et
le refroidissement
Deux modules de ventilation/blocs d'alimentation intégrés
et remplaçables à chaud.
Disques physiques
Au moins deux disques physiques dans le boîtier RAID
PowerVault MD3600i ou MD3620i.
Clusters et systèmes Dans une configuration avec liaison par commutateurs,
autonomes multiples les clusters et les systèmes autonomes peuvent partager un
ou plusieurs systèmes PowerVault MD3600i ou MD3620i.
REMARQUE : vous pouvez utiliser des disques RAID 0 et des disques
indépendants. Toutefois, ils ne sont pas recommandés pour un système à haute
disponibilité, car ils n'assurent pas la redondance des données en cas de panne
d'un disque.
Logiciels de gestion du stockage du cluster
Dell PowerVault Modular Disk Storage Manager
Le logiciel s'exécute sur la station de gestion ou sur tout hôte relié à la matrice
pour une gestion centralisée des boîtiers RAID PowerVault MD3600i et
MD3620i. Vous pouvez utiliser Dell PowerVault Modular Disk Storage
Manager (MDSM) pour de nombreuses tâches, telles que la création de
groupes de disques, la création et le mappage de disques virtuels, la
surveillance de l'état du boîtier et le téléchargement de micrologiciels.
MDSM est une interface graphique utilisateur dotée d'assistants et d'une
structure basée sur les tâches. MDSM est conçu pour :
•
Réduire la complexité des tâches d'installation, de configuration,
de gestion et de diagnostic sur les matrices de stockage.
•
Contenir un service de surveillance d'événements qui envoie des alertes
lorsqu'un problème important se produit sur la matrice de stockage.
•
Fournir une interface de ligne de commande pour exécuter les commandes
à partir d'une invite du système d'exploitation.
Introduction
9
PowerVault Modular Disk Storage Manager Agent
Ce logiciel est installé sur chaque nœud du cluster. Il collecte des données
sur la topologie des systèmes pouvant être gérées par MDSM.
Logiciel Multipath I/O (MPIO)
Le logiciel MPIO (également appelé « pilote de basculement ») est installé
sur chaque nœud du cluster. Il permet de gérer les chemins de données
redondants entre le serveur et le boîtier RAID. Pour une gestion correcte de
ces chemins par le logiciel, la configuration doit inclure des cartes réseau et
un câblage redondants.
Le logiciel MPIO détecte l'existence de plusieurs chemins d'accès à un disque
virtuel et définit le chemin favori. En cas de défaillance d'un composant de ce
chemin, le logiciel réachemine automatiquement les requêtes d'E/S vers le
chemin secondaire, assurant ainsi la continuité du fonctionnement de la
matrice de stockage.
Fonctions avancées
Les systèmes de stockage RAID PowerVault MD3600i et MD3620i présentent
les fonctionnalités avancées suivantes :
•
Cliché de disque virtuel : capture une image à l'instant T d'un disque
virtuel pour les sauvegardes, les tests ou le traitement de données, sans
que cela n'ait d'incidence sur le contenu du disque virtuel source.
•
Copie de disque virtuel : copie l'intégralité des données entre un disque
virtuel source et un disque virtuel cible d'une matrice de stockage.
Vous pouvez l'utiliser pour effectuer différentes opérations : sauvegarde
de données, copie de données d'un groupe de disques de faible capacité
vers un autre de capacité supérieure, restauration des données d'un cliché
de disque virtuel sur le disque virtuel source, etc.
•
Mise à niveau vers une couche hautes performances : augmente les
performances du système au-delà d'une matrice série MD3600i
fonctionnant au niveau de performances standard.
REMARQUE : pour les instructions relatives au déploiement des options
appropriées sur l'environnement du cluster, voir la section « Utilisation des
fonctions avancées (Premium) de PowerVault Modular Disk Storage
Manager » à la page 65.
10
Introduction
Configurations de cluster prises en charge
Figure 1-1. Configuration d'un cluster à connexion directe
Module de
contrôleur RAID
MD36xxi 0
Matrice de
stockage
Module de
contrôleur RAID
MD36xxi 1
Réseau d'entreprise, public
ou privé
Introduction
11
Figure 1-2.
Configuration d'un cluster redondant à connexion réseau
Matrice
de stockage
Réseau d'enModule de
treprise, public
contrôleur RAID
ou privé
MD36xxi 0
Module de contrôleur
RAID MD36xxi 1
REMARQUE : la configuration peut comporter jusqu'à 64 nœuds. Les nœuds
peuvent être :
12
•
un cluster (jusqu'à 16 nœuds)
•
plusieurs clusters
•
plusieurs clusters et serveurs autonomes
Introduction
Autres documents utiles
PRÉCAUTION : les consignes de sécurité jointes à votre ordinateur fournissent
d'importantes informations sur la sécurité et les réglementations. Les informations
sur la garantie se trouvent dans ce document ou dans un document distinct.
•
Le document Rack Installation Guide (Guide d'installation du rack) fourni
avec le rack indique comment installer le système en rack.
•
Le Guide de mise en route présente l'installation initiale du système.
•
Le document Dell Failover Clusters with Microsoft Windows Server 2008
Installation and Troubleshooting Guide (Guide d'installation et de
dépannage des clusters de basculement Dell dans une installation
Microsoft Windows Server 2008) fournit davantage d'informations sur
le déploiement de votre cluster.
•
Le document Dell Cluster Configuration Support Matrices (Tableaux des
configurations prises en charge par les clusters Dell) répertorie les systèmes
d'exploitation, composants matériels et versions de pilote ou de
micrologiciel recommandés pour le cluster de basculement Dell Windows
Server.
•
La documentation du système d'exploitation indique comment installer
(au besoin), configurer et utiliser le logiciel du système d'exploitation.
•
La documentation fournie avec les composants achetés séparément
indique comment installer et configurer ceux-ci.
•
La documentation de la bibliothèque de bandes Dell PowerVault fournit
des informations sur l'installation, le dépannage et la mise à niveau de la
bibliothèque de bandes.
•
Des mises à jour sont parfois fournies avec le système pour décrire les
modifications apportées au système, au logiciel et/ou à la documentation.
•
Le Guide d'utilisation du système PowerEdge décrit les fonctionnalités et
les spécifications techniques du système, le programme de configuration
du système (le cas échéant), le support logiciel et l'utilitaire de
configuration système.
•
Le document Dell PowerVault MD3600i and MD3620i Storage Arrays
Getting Started Guide (Guide de mise en route des matrices de stockage
Dell PowerVault MD3600i et MD3620i) présente la configuration et le
câblage de votre matrice de stockage.
Introduction
13
•
Le document Dell PowerVault MD3600i and MD3620i Storage Arrays
Owner's Manual (Manuel du propriétaire des matrices de stockage Dell
PowerVault MD3600i et MD3620i) contient des informations sur les
caractéristiques du système, ainsi que des instructions relatives au
dépannage et à l'installation ou au remplacement de composants.
•
Le document Dell PowerVault MD3600i and MD3620i Storage Arrays
Deployment Guide (Guide de déploiement des matrices de stockage Dell
PowerVault MD3600i et MD3620i) présente l'installation et la
configuration des logiciels et du matériel.
•
Le document Dell PowerVault Modular Disk Storage Arrays CLI Guide
(Guide CLI des matrices de stockage du disque modulaire Dell
PowerVault) offre des informations d'utilisation de l'interface de ligne
de commande (CLI) pour la configuration et la gestion de votre matrice
de stockage.
•
Le DVD Dell PowerVault MD36xxi Resource (Ressource Dell
PowerVault MD36xxi) contient la documentation relative aux outils de
configuration et de gestion, ainsi que l'intégralité de la documentation
mentionnée dans ce guide.
•
Le document Dell PowerVault MD Systems Support Matrix (Matrice
de support des systèmes Dell PowerVault MD) indique les logiciels
et le matériel pris en charge par les systèmes PowerVault MD.
REMARQUE : lisez toujours les mises à jour en premier, car elles remplacent
souvent les informations contenues dans d'autres documents.
•
14
Des notes de version ou des fichiers Lisez-moi sont parfois fournis ;
ils contiennent des mises à jour de dernière minute de la documentation
ou des informations techniques avancées destinées aux utilisateurs
expérimentés ou aux techniciens.
Introduction
Câblage du matériel du cluster
Les sections suivantes décrivent les procédures permettant de câbler les
composants du cluster.
Câblage de la souris, du clavier et du moniteur
Si vous installez un cluster dans un rack, vous devez ajouter un commutateur
KVM pour connecter la souris, le clavier et le moniteur aux nœuds. Consultez
la documentation fournie avec le rack pour savoir comment relier chaque
nœud au commutateur KVM.
Câblage des blocs d'alimentation
Pour vous assurer que les spécifications relatives à l'alimentation sont
respectées, consultez la documentation fournie avec chaque composant
de la solution cluster.
Il est recommandé de respecter les consignes suivantes afin de protéger
le cluster des pannes liées à l'alimentation :
•
Pour les nœuds comprenant plusieurs blocs d'alimentation,
branchez chaque bloc sur un circuit CA distinct.
•
Utilisez des onduleurs.
•
Dans certains environnements, utilisez des groupes électrogènes
de secours et des sources d'alimentation provenant de différentes
sous­stations électriques.
La figure 2-1 présente le câblage électrique recommandé pour une solution
de cluster comprenant deux systèmes Dell PowerEdge et un système de
stockage. Pour garantir la redondance de l'alimentation, les blocs
d'alimentation principaux de tous les composants sont regroupés sur un ou
deux circuits, et les blocs d'alimentation redondants sur un circuit différent.
Câblage du matériel du cluster
15
Figure 2-1.
Exemple de câblage électrique
module de
contrôleur
RAID
MD36xxi 1
blocs d'alimentation principaux sur
une barrette d'alimentation en CA
(ou une unité de distribution
électrique en CA, non représentée)
module de
contrôleur
RAID
MD36xxi 0
blocs d'alimentation redondants sur
une barrette d'alimentation en CA
(ou une unité de distribution électrique
en CA, non représentée)
REMARQUE : cette illustration est uniquement destinée à montrer la répartition
de l'alimentation entre les composants.
16
Câblage du matériel du cluster
Câblage des réseaux public et privé
Les cartes réseau des nœuds du cluster permettent au moins deux connexions
réseau pour chaque nœud. Ces connexions sont décrites dans le tableau 2-1.
Tableau 2-1.
Connexions réseau
Connexion réseau
Réseau public
Description
Toutes les connexions vers le réseau local client.
Pour que le basculement vers le réseau privé soit pris
en charge, au moins un réseau public doit être
configuré en mode mixte (public et privé).
Réseau privé
Une connexion dédiée permettant le partage des
informations sur l'état et l'intégrité du cluster entre
les nœuds du cluster.
Les cartes réseau connectées au réseau local
permettent également une redondance des
communications en cas de panne de l'interconnexion
du cluster.
Pour plus d'informations sur la redondance des
réseaux privés, voir la documentation de Microsoft
Failover Clustering.
La figure 2-2 représente un exemple de câblage de carte réseau : les cartes
réseau dédiées de chaque nœud sont connectées au réseau public, alors que
les autres cartes sont interconnectées (pour le réseau privé).
Câblage du matériel du cluster
17
Figure 2-2.
Exemple de câblage réseau
réseau public
carte du réseau
public
carte du réseau
privé
réseau privé
nœud de cluster 1
nœud de cluster 2
Câblage du réseau public
Toute carte réseau prise en charge par un système exécutant TCP/IP peut être
utilisée pour établir la connexion avec les segments du réseau public. Vous
pouvez installer des cartes réseau supplémentaires pour ajouter d'autres
segments de réseau public ou pour assurer la redondance en cas de défaillance
d'une carte réseau principale ou d'un port du commutateur.
Câblage du réseau privé
La connexion du réseau privé aux nœuds est assurée par une autre carte
réseau (ou davantage), installée sur chaque nœud. Ce réseau est utilisé
pour les communications internes du cluster.
Le tableau 2-2 répertorie les composants matériels requis et indique le mode
de connexion de trois types de réseau privé possibles.
18
Câblage du matériel du cluster
Tableau 2-2.
Composants matériels et connexions pour un réseau privé
Méthode
Composants matériels
Connexion
Commutateur réseau
Cartes réseau et
commutateurs Ethernet
Gigabit ou 10 Gigabit
Suivant le matériel que vous
possédez, connectez les câbles
CAT5e ou CAT6, les câbles
optiques multimode avec les
connecteurs locaux LC (Local
Connector), ou les câbles
Twinax entre les cartes réseau
des nœuds et un
commutateur.
Point à point (cluster
de deux nœuds
uniquement)
Cartes réseau Ethernet
Copper Gigabit ou
10 Gigabit avec
connecteurs RJ-45
Utilisez un câble Ethernet
CAT5e ou CAT6 standard
pour relier les cartes réseau
de chacun des nœuds.
Cartes réseau Ethernet
Copper 10 Gigabit avec
connecteurs SFP+
Connectez un câble Twinax
pour relier les cartes réseau
des deux nœuds.
Cartes réseau optiques
Ethernet Gigabit ou
10 Gigabit avec
connecteurs LC
Connectez un câble optique
multimode pour relier les
cartes réseau de chacun
des nœuds.
REMARQUE : dans ce document, Ethernet peut désigner Gigabit Ethernet ou
10 Gigabit Ethernet.
Utilisation de cartes réseau à deux connecteurs pour le réseau privé
Vous pouvez configurer le cluster de sorte que le réseau public serve de réseau
de basculement pour les communications du réseau privé. Toutefois, si vous
utilisez des cartes à deux connecteurs, n'utilisez pas ceux-ci pour une prise
en charge simultanée du réseau public et du réseau privé.
Câblage du matériel du cluster
19
Regroupement (« teaming ») des cartes réseau
Le regroupement de cartes réseau consiste à associer plusieurs cartes pour
assurer l'équilibrage de charge et/ou la tolérance de panne. Le cluster prend
en charge cette configuration uniquement sur les réseaux publics. Vous ne
pouvez pas l'utiliser sur un réseau privé.
Les cartes réseau regroupées et les pilotes utilisés doivent être de la même
marque.
Câblage des systèmes de stockage
Cette section indique comment relier le cluster à un système de stockage.
REMARQUE : le système de stockage PowerVault MD36xxi nécessite une
infrastructure à capacité de 10GBase-T constituée de câbles de catégorie 6 ou
supérieure, de tableaux de connexion à capacité de 10GBase-T et de
commutateurs. Les infrastructures 1GBase-T existantes peuvent être utilisées à
l'aide d'un commutateur 10GBase-T, qui interconnecte le réseau 10GBase-T, ou
en configurant manuellement les ports iSCSI sur des vitesses 1GBase-T.
La gestion du stockage peut être effectuée en mode intrabande via l'interface
entre système hôte et contrôleur ou bien en mode hors bande (connexion
Ethernet). Pour la gestion hors bande, reliez les ports Ethernet de la matrice
de stockage au réseau public.
REMARQUE : il est recommandé de configurer Dell PowerVault MD3600i et
MD3620i pour la gestion hors bande.
20
Câblage du matériel du cluster
Câblage du cluster dans une configuration à connexion directe
Dans une configuration à connexion directe, chaque nœud du cluster est
directement connecté aux modules contrôleurs RAID du PowerVault
MD3600i ou MD3620i. Cette connexion est réalisée à l'aide de deux câbles
réseau et d'une seule carte réseau à deux connecteurs ou de deux cartes à
connecteur unique.
En cas de défaillance d'un composant (port, câble ou contrôleur de stockage)
du chemin du système de stockage, le logiciel MPIO redirige automatiquement les demandes d'E/S vers le chemin secondaire. Ainsi, la matrice
de stockage fonctionne sans interruption. La configuration à deux cartes
réseau à port unique améliore la disponibilité : en cas de panne de carte
réseau, Microsoft Failover Cluster ne déplace pas les ressources vers l'autre
nœud.
Pour câbler le cluster :
1 Connectez le nœud 1 au système de stockage :
a Reliez la carte réseau iSCSI 1 (ou le port réseau 1) du nœud 1 au port
In-0 du module contrôleur RAID 0 à l'aide d'un câble réseau.
b
Reliez la carte réseau iSCSI 2 (ou le port réseau 2) du nœud 1 au port
In-1 du module contrôleur RAID 1 à l'aide d'un câble réseau.
2 Connectez le nœud 2 au système de stockage :
a Reliez la carte réseau iSCSI 1 (ou le port réseau 1) du nœud 2 au port
In-0 du module contrôleur RAID 1 à l'aide d'un câble réseau.
b Reliez la carte réseau iSCSI 2 (ou le port réseau 2) du nœud 2 au port
In-1 du module contrôleur RAID 0 à l'aide d'un câble réseau.
Câblage du matériel du cluster
21
Figure 2-3.
Configuration d'un cluster à connexion directe
réseau public
réseau privé
nœud de
cluster 1
nœud de
cluster 2
port de gestion
Ethernet (2)
port SAS « Out » (2)
module de contrôleur
RAID MD36xxi 0
module de contrôleur
RAID MD36xxi 1
REMARQUE : le port SAS « Out » sert de connecteur SAS pour le ou les boîtiers
d'extension MD1200 or MD1220.
22
Câblage du matériel du cluster
Câblage du cluster dans une configuration avec connexion à un réseau
Dans une configuration avec connexion à un réseau, chaque nœud du cluster
est connecté au système de stockage. Cette connexion est réalisée au moyen
de commutateurs Ethernet 1 Gb standard redondants pour réseaux SAN IP et
d'une seule carte réseau iSCSI à deux ports ou de deux cartes à port unique.
En cas de défaillance d'un composant (port, câble ou contrôleur de stockage)
du chemin du système de stockage, le logiciel MPIO redirige
automatiquement les demandes d'E/S vers le chemin secondaire. Ainsi, la
matrice de stockage fonctionne sans interruption. La configuration à deux
cartes réseau à port unique améliore la disponibilité : en cas de panne de carte
réseau, Microsoft Failover Cluster ne déplace pas les ressources vers l'autre
nœud.
Cette configuration peut prendre en charge jusqu'à 64 hôtes simultanément.
Exemples :
•
Un seul cluster
•
Deux clusters
•
Un cluster à huit nœuds, deux clusters à deux nœuds et un système
autonome
Pour câbler le cluster :
1 Connectez le système de stockage au réseau iSCSI :
a
Reliez le commutateur 1 au port In-0 du contrôleur 0 à l'aide d'un
câble réseau.
b
Reliez le commutateur 1 au port In-0 du contrôleur 1 à l'aide d'un
câble réseau.
c
Reliez le commutateur 2 au port In-1 du contrôleur 0 à l'aide d'un
câble réseau.
d
Reliez le commutateur 2 au port In-1 du contrôleur 1 à l'aide d'un
câble réseau.
Câblage du matériel du cluster
23
2 Connectez le cluster au réseau iSCSI :
a
Reliez la carte réseau iSCSI 1 (ou port réseau 1) du nœud 1 au
commutateur réseau 1 à l'aide d'un câble réseau.
b
Reliez la carte réseau iSCSI 2 (ou port réseau 2) du nœud 1 au
commutateur réseau 2 à l'aide d'un câble réseau.
c
Répétez l'étape a et l'étape b pour chaque nœud supplémentaire
du cluster.
3 Répétez l'étape 2 afin de connecter des clusters supplémentaires
ou des systèmes autonomes au réseau iSCSI.
24
Câblage du matériel du cluster
Figure 2-4. Configuration d'un cluster à connexion réseau
réseau public
réseau privé
2 à n nœuds
de cluster
SAN IP
(double
commutateur
Ethernet
Gigabit) (2)
port SAS
« Out » (2)
module de contrôleur
RAID MD36xxi 0
module de contrôleur
RAID MD36xxi 1
port de
gestion
Ethernet (2)
Câblage du matériel du cluster
25
Connexion d'un cluster PowerEdge à plusieurs systèmes de stockage
PowerVault MD3600i ou MD3620i
Vous pouvez étendre la capacité de stockage du cluster en le reliant à
plusieurs systèmes de stockage au moyen de commutateurs réseau
redondants. Les systèmes de clusters PowerEdge prennent en charge des
configurations incluant plusieurs systèmes de stockage PowerVault MD3600i
ou MD3620i reliés à des systèmes en cluster. Dans ce scénario, le logiciel
Microsoft Failover Cluster peut faire basculer les disques de n'importe quel
système de stockage partagé connecté au cluster entre les nœuds.
26
Câblage du matériel du cluster
Figure 2-5. Configuration d'un cluster avec connexion à un réseau incluant plusieurs
matrices de stockage
réseau public
réseau privé
2 à n nœuds
de cluster
SAN IP (double
commutateur
Ethernet Gigabit) (2)
matrice de stockage 2
matrice de stockage 1
module de contrôleur
RAID MD36xxi 0
module de contrôleur
RAID MD36xxi 1
Câblage du matériel du cluster
27
Lorsque vous reliez plusieurs systèmes de stockage PowerVault MD3600i et
MD3620i au cluster, les règles suivantes s'appliquent :
28
•
Il ne faut pas dépasser quatre systèmes de stockage Power Vault MD3600i
et MD3620i par cluster.
•
Les systèmes de stockage partagés et les versions de micrologiciel doivent
être identiques. Pour le stockage partagé, les systèmes de stockage et les
versions de micrologiciel différents ne sont pas pris en charge.
•
Windows limite l'accès aux lecteurs utilisant un nombre restreint de lettres
de lecteur (22). Les lettres de lecteur A à D étant réservées aux disques
locaux, un maximum de 22 lettres de lecteur (E à Z) peut être utilisé pour
les disques des systèmes de stockage.
•
Windows Server 2008 Enterprise Edition prend en charge les points de
montage, ce qui permet d'utiliser plus de 22 lecteurs par cluster.
Câblage du matériel du cluster
Préparation des systèmes pour
la mise en cluster
PRÉCAUTION : seuls les techniciens de maintenance qualifiés sont habilités
à accéder aux composants internes du système et à les retirer. Pour des
informations détaillées sur les mesures de sécurité, les interventions
dans l'ordinateur et la protection contre les décharges électrostatiques,
consultez les consignes de sécurité fournies avec l'ordinateur.
Présentation de la configuration du cluster
1 Vérifiez que le site d'installation peut assurer l'alimentation du cluster.
Contactez votre représentant commercial pour connaître les
caractéristiques techniques de l'alimentation électrique en vigueur
dans votre pays.
2 Installez les serveurs, la ou les matrices de stockage partagé et les
commutateurs d'interconnexion (exemple : dans un rack) et vérifiez qu'ils
sont sous tension.
REMARQUE : pour plus d'informations sur l'étape 3 à l'étape 7 et l'étape 10 à
l'étape 12, consultez la section « Preparing your systems for clustering »
(Préparation des systèmes pour la mise en cluster) du manuel Dell Failover
Clusters with Microsoft Windows Server 2008 Installation and
Troubleshooting Guide (Guide d'installation et de dépannage des clusters de
basculement Dell dans une installation Microsoft Windows Server 2008) sur
le site support.dell.com/manuals.
Préparation des systèmes pour la mise en cluster
29
3 Déployez le système d'exploitation (ainsi que les service packs et les
correctifs appropriés), les pilotes des cartes réseau et des adaptateurs de
stockage (y compris le logiciel MPIO) sur chacun des serveurs qui seront
configurés comme nœuds du cluster. Suivant le mode de déploiement
utilisé, une connexion réseau peut être nécessaire pour l'exécution correcte
de cette étape.
REMARQUE : vous pouvez enregistrer la configuration du cluster dans
le formulaire technique du cluster afin de faciliter sa planification et son
déploiement. Pour plus d'informations, voir « Formulaire technique du
cluster » à la page 75 et « Fiche de configuration iSCSI » à la page 77.
4 Définissez la topologie du réseau physique et les paramètres TCP/IP des
cartes réseau de chaque serveur pour l'accès aux réseaux public et privé
du cluster.
5 Configurez chaque nœud de serveur en tant que membre du même
domaine Active Directory Windows.
REMARQUE : vous pouvez configurer les nœuds du cluster comme
contrôleurs de domaine. Pour plus d'informations, consultez la section
« Selecting a Domain Model » (Sélection d'un modèle de domaine) du manuel
Dell Failover Clusters with Microsoft Windows Server 2008 Installation and
Troubleshooting Guide (Guide d'installation et de dépannage des clusters de
basculement Dell dans une installation Microsoft Windows Server 2008) sur
le site support.dell.com/manuals.
6 Définissez la topologie physique du stockage ainsi que les paramètres
requis du réseau de stockage afin de permettre la connectivité entre la
matrice de stockage et les serveurs devant être configurés en tant que
nœuds de cluster. Configurez le ou les systèmes de stockage à l'aide de
la documentation s'y rapportant.
7 Utilisez les outils de gestion de matrices de stockage pour créer au moins
un LUN (numéro d'unité logique). Le LUN est utilisé comme disque
témoin pour le cluster de basculement Microsoft Windows Server 2008.
Vérifiez que le LUN est présenté aux serveurs devant être configurés en
tant que nœuds de cluster.
REMARQUE : pour des raisons de sécurité, il est recommandé de configurer
le LUN sur un seul nœud lors de la configuration du cluster, conformément à
l'étape 8. Par la suite, vous pouvez adopter la configuration décrite à l'étape 9
pour permettre aux autres nœuds d'y accéder.
30
Préparation des systèmes pour la mise en cluster
8 Sélectionnez un des systèmes, puis formez un nouveau cluster de
basculement en configurant son nom, son adresse IP de gestion et sa
ressource quorum. Pour plus d'informations, voir « Préparation des
systèmes pour la mise en cluster » à la page 29.
REMARQUE : pour les clusters de basculement Windows Server 2008,
exécutez Cluster Validation Wizard (Assistant Validation de cluster)
pour vérifier que votre système est prêt à former le cluster.
9 Reliez le ou les nœuds restants au cluster de basculement. Pour plus
d'informations, voir « Préparation des systèmes pour la mise en cluster »
à la page 29.
10 Configurez les rôles des réseaux du cluster. Annulez le contrôle du cluster
sur toute carte réseau utilisée pour le stockage iSCSI (ou à toute autre fin
externe au cluster).
11 Testez les capacités de basculement de votre nouveau cluster.
REMARQUE : vous pouvez également utiliser Cluster Validation Wizard
(Assistant Validation de cluster).
12 Configurez les applications et services à haute disponibilité sur le cluster
de basculement. Selon le type de configuration adopté, votre cluster peut
nécessiter l'ajout de LUN supplémentaires ou la création d'autres groupes
de ressources. Testez les capacités de basculement de ces nouvelles
ressources.
13 Configurez l'accès des systèmes clients aux applications et services à haute
disponibilité hébergés par le cluster de basculement.
Préparation des systèmes pour la mise en cluster
31
Présentation de l'installation
Chaque nœud d'un cluster de basculement Dell Windows Server doit être
doté des mêmes versions, éditions, Service Packs et architectures de
processeur que le système exécutant Windows Server. Par exemple, vous
pouvez configurer tous les nœuds de votre cluster à l'aide de Windows Server
2008 R2, Enterprise Edition x64. Si le système d'exploitation change d'un
nœud à l'autre, vous ne pourrez pas configurer correctement le cluster de
basculement. Il est recommandé de définir les rôles système avant de
configurer un cluster de basculement, en fonction du système d'exploitation
qui y est installé.
Pour obtenir une liste des systèmes d'exploitation, composants matériels et
pilotes ou versions de micrologiciel recommandés pour le cluster de
basculement Dell Windows Server, voir le document Dell Cluster
Configuration Support Matrices (Tableaux des configurations prises en charge
par les clusters Dell) sur le site dell.com/ha.
Pour plus d'informations sur le déploiement d'un cluster sous
Windows Server 2008, voir le document Dell Failover Clusters with Microsoft
Windows Server 2008 Installation and Troubleshooting Guide (Guide
d'installation et de dépannage des clusters de basculement Dell sous
Microsoft Windows Server 2008) sur le site support.dell.com/manuals.
Les sous-sections suivantes décrivent les étapes à effectuer pour permettre les
communications entre les nœuds du cluster et la ou les matrices de stockage
partagé MD3600i ou MD3620i, et pour présenter les disques de la matrice de
stockage au cluster :
1 Installation des cartes réseau iSCSI
2 Installation de l'initiateur logiciel iSCSI Microsoft
3 Installation du logiciel de gestion de stockage
4 Configuration du système de stockage partagé
5 Configuration d'un cluster de basculement
32
Préparation des systèmes pour la mise en cluster
Installation des cartes réseau iSCSI
Il est recommandé d'installer la dernière version du pilote prise en charge.
Si le pilote de carte réseau requiert l'installation de Service Packs ou de
correctifs logiciels parallèlement au système d'exploitation, installez-les à
ce stade.
Pour obtenir une liste des systèmes d'exploitation, composants matériels et
pilotes ou versions de micrologiciel recommandés pour le cluster de
basculement Dell Windows Server, voir le document Dell Cluster
Configuration Support Matrices (Tableaux des configurations prises en charge
par les clusters Dell) sur le site dell.com/ha.
Activation de la carte réseau TOE
Le moteur TOE décentralise sur la carte réseau le traitement des paquets
TCP/IP qui doivent être gérés par le(s) processeur(s) du système. Cette
opération permet d'éliminer les goulots d'étranglement créés par les
applications générant un trafic réseau important, ce qui allège la charge de
travail du processeur et libère de la mémoire. Les cartes réseau dotées de cette
fonction optimisent les performances du trafic iSCSI.
REMARQUE : pour le trafic iSCSI, tous les nœuds de la solution cluster doivent
utiliser des cartes réseau similaires (c'est-à-dire dotées ou dépourvues de la
fonction TOE). Les solutions de cluster ne prennent pas en charge les
configurations combinant ces deux types de cartes.
Configuration des cartes réseau iSCSI
Vous devez configurer l'adresse IP et les extrèmes de chaque port iSCSI
connecté à la matrice de stockage. Les étapes à effectuer varient selon que
vous utilisez un serveur DHCP (Dynamic Host Configuration Protocol) ou
un adressage IP statique.
REMARQUE : pour les communications réseau, les adresses IP du serveur doivent
être configurées pour utiliser le même sous-réseau IP que les ports de gestion et
iSCSI de la matrice de stockage.
Si vous utilisez un serveur DHCP :
1 Cliquez sur Start→ Network (Démarrer → Réseau).
2 Sélectionnez Network and Sharing Center. (Centre de réseau et partage).
Préparation des systèmes pour la mise en cluster
33
3 Sélectionnez Change adapter settings (Modifier les paramètres de
l'adaptateur) (pour Windows Server 2008 R2) ou Gérer les connexions
réseau (pour Windows Server 2008).
4 Effectuez un clic droit sur la connexion réseau à configurer, puis
sélectionnez Properties (Propriétés).
5 Dans l'onglet Général (Général) (pour une connexion locale) ou
Networking (Réseau) (pour toutes les autres connexions), sélectionnez
Internet Protocol (Protocole Internet) (TCP/IP), puis sur Properties
(Propriétés).
6 Sélectionnez Obtain an IP address automatically (Obtenir une adresse IP
automatiquement), puis cliquez sur OK.
Si vous utilisez l'adressage IP statique :
1 Cliquez sur Start→ Network (Démarrer → Réseau).
2 Sélectionnez Network and Sharing Center (Centre de réseau et partage).
3 Sélectionnez Change adapter settings (Modifier les paramètres de
l'adaptateur) (pour Windows Server 2008 R2) ou Manage network
connections (Gérer les connexions réseau) (pour Windows Server 2008).
4 Effectuez un clic droit sur la connexion réseau à configurer, puis
sélectionnez Properties (Propriétés).
5 Dans l'onglet General (Général) (pour une connexion locale) ou Réseau
(pour toutes les autres connexions), sélectionnez Internet Protocol
(Protocole Internet) (TCP/IP), puis sur Properties (Propriétés).
6 Sélectionnez Use the following IP address (Utiliser l'adresse IP suivante)
et entrez l'adresse IP, le masque de sous-réseau et les adresses de passerelle
par défaut.
Installation de l'initiateur logiciel iSCSI Microsoft
L'initiateur iSCSI Microsoft est installé originairement sur Windows
Server 2008.
34
Préparation des systèmes pour la mise en cluster
Installation du logiciel de gestion de stockage
Le programme d'installation des logiciels de stockage PowerVault MD3600i
et MD3620i offre des fonctionnalités telles que les logiciels de base, les
fournisseurs, ainsi que des utilitaires en option. Les logiciels de base
comprennent l'agent de stockage hôte, le logiciel MPIO et l'application
MDSM utilisée pour configurer, gérer et surveiller la solution de matrice
de stockage. La fonction fournisseurs comprend un fournisseur pour les
structures des services VDS (Microsoft Virtual Disk Service) et VSS
(Microsoft Volume Shadow-Copy Service).
L'utilitaire de configuration MDCU est un utilitaire optionnel qui permet
une approche consolidée de la configuration des ports de gestion et des ports
hôtes iSCSI, et de la création de sessions pour les matrices de stockage sur
disques modulaires iSCSI. Il est recommandé d'utiliser l'utilitaire MDCU
pour configurer l'interface iSCSI sur chaque hôte connecté aux systèmes
PowerVault MD3600i ou MD3620i.
REMARQUE : pour plus d'informations sur les fournisseurs des services Microsoft
VDS et Microsoft VSS, voir le document Dell PowerVault MD3600i and MD3620i
Storage Arrays Owner's Manual (Manuel du propriétaire des matrices de stockage
Dell PowerVault MD3600i et MD3620i).
Procédez comme suit pour installer le logiciel de gestion de stockage :
1 Avant d'installer tout nouvel élément logiciel, fermez tous les autres
programmes.
2 Insérez le support PowerVault MD36xxi.
En fonction des paramètres de sortie du système d'exploitation, vous
verrez apparaître soit la fenêtre Dell PowerVault MD36xxi Resource DVD
ou une invite pour l'exécution du fichier md_launcher.exe. Si le
programme de lancement PowerVault MD ne s'affiche pas et qu'aucune
invite ne vous demande d'exécuter le fichier md_launcher.exe, naviguez
jusqu'à la racine du support et exécutez le fichier md_launcher.exe.
3 Sélectionnez Install MD36xxi Storage Software (Installer le logiciel de
stockage MD36xxi).
Préparation des systèmes pour la mise en cluster
35
4 Sélectionnez l'une des options d'installation suivantes :
•
Full (Complète - recommandée) : ce paquet permet d'installer le
logiciel noyau, les fournisseurs et les utilitaires. II comprend l'agent
de stockage hôte requis, le logiciel MPIO, MD Storage Manager,
les fournisseurs et des utilitaires facultatifs.
•
Host Only (Hôte uniquement) : ce paquet comprend l'agent de
stockage basé sur l'hôte, le logiciel MPIO et des utilitaires en option
nécessaires à la configuration de l'hôte.
•
Management Station (Station de gestion) : ce paquet comprend
MD Storage Manager, les fournisseurs et des utilitaires facultatifs.
•
Custom (Personnalisée) : cette option vous permet de sélectionner
des composants spécifiques.
5 Redémarrez chaque serveur hôte.
36
Préparation des systèmes pour la mise en cluster
Configuration du système de stockage partagé
Avant d'entamer la configuration iSCSI, vous devez remplir la « Fiche de
configuration iSCSI » à la page 77. La collecte ce type d'informations relatives
au réseau en amont de la configuration permet de gagner du temps.
Terminologie
Le tableau suivant présente la terminologie utilisée dans la description des
opérations de configuration iSCSI décrites dans la suite de cette section.
Tableau 3-1.
Terminologie standard utilisée pour la configuration iSCSI
Terme
Définition
CHAP (Challenge
Protocole de sécurité facultatif utilisé pour contrôler
Handshake
l'accès à un système de stockage iSCSI en limitant
Authentication Protocol) l'utilisation des ports de données iSCSI, à la fois sur
le serveur hôte et sur la matrice de stockage.
hôte ou serveur hôte
Serveur relié à la matrice de stockage via des ports iSCSI.
port de serveur hôte
Port iSCSI du serveur hôte utilisé pour la liaison avec la
matrice de stockage.
initiateur iSCSI
Logiciel iSCSI spécifique installé sur le serveur hôte afin
de contrôler les communications entre le serveur hôte et
la matrice de stockage.
port de stockage iSCSI
Port iSCSI (deux par contrôleur) de la matrice de
stockage.
iSNS (Microsoft Internet Outil de détection automatique, de gestion et de
Storage Naming Service) configuration utilisé par certains périphériques iSCSI.
station de gestion
Système à partir duquel vous gérez la configuration
du serveur hôte et de la matrice de stockage.
matrice de stockage
Boîtier contenant les données de stockage auxquelles
le serveur hôte accède.
cible
Port iSCSI de la matrice de stockage qui reçoit et traite
les requêtes provenant de l'initiateur iSCSI installé sur
le serveur hôte.
Préparation des systèmes pour la mise en cluster
37
Fonctionnement de l'authentification CHAP
Que signifie CHAP ?
CHAP (Challenge Handshake Authentication Protocol) est une méthode
d'authentification iSCSI facultative par laquelle la matrice de stockage
(cible) authentifie les initiateurs iSCSI du serveur hôte. Deux types
d'authentification CHAP sont pris en charge : authentification CHAP
unidirectionnelle et authentification CHAP mutuelle.
Authentification CHAP unidirectionnelle
Lorsque cette méthode est utilisée, la matrice de stockage utilise une clé
secrète CHAP pour authentifier toutes les demandes d'accès émises par
le ou les initiateurs iSCSI du serveur hôte. Pour configurer ce type
d'authentification, vous devez saisir une clé secrète CHAP sur la matrice
de stockage, puis configurer chaque initiateur iSCSI du serveur hôte pour
qu'il envoie cette clé secrète chaque fois qu'il tente d'accéder à la matrice
de stockage.
Authentification CHAP mutuelle
En plus de l'authentification cible, vous pouvez utiliser le protocole CHAP
de telle sorte que la matrice de stockage et l'initiateur iSCSI s'authentifient
réciproquement. Pour utiliser ce type d'authentification, vous devez
configurer l'initiateur iSCSI en définissant une clé secrète CHAP que la
matrice de stockage doit envoyer au serveur hôte pour établir une connexion.
Au cours de ce processus d'authentification mutuelle, la connexion n'est
autorisée que si les informations renvoyées à la fois par le serveur hôte et par
la matrice de stockage sont validées par l'autre partie.
L'utilisation de l'authentification CHAP est facultative ; vous ne devez pas
obligatoirement faire appel à ce protocole pour utiliser les fonctions iSCSI.
Cependant, si l'authentification CHAP n'est pas configurée, tout serveur hôte
connecté au même réseau IP que la matrice de stockage peut lire et écrire sur
cette dernière.
REMARQUE : si vous choisissez d'utiliser l'authentification CHAP, vous devez la
configurer à la fois sur la matrice de stockage (à l'aide de MD Storage Manager)
et sur le serveur hôte (à l'aide de l'initiateur iSCSI) avant de préparer les disques
virtuels à la réception de données. Si vous préparez les disques à la réception de
données avant de configurer l'authentification CHAP, vous perdrez toute visibilité
sur ces disques une fois l'authentification CHAP configurée.
38
Préparation des systèmes pour la mise en cluster
Définition des types d'authentification CHAP
Pour résumer les différences entre les authentifications CHAP
unidirectionnelle et mutuelle, voir le tableau 3-2.
Tableau 3-2.
Définition des types d'authentification CHAP
Type d'authentification Description
CHAP
Authentification
CHAP
unidirectionnelle
Définit des comptes que les initiateurs iSCSI utilisent pour
se connecter à la matrice de stockage cible. La matrice de
stockage cible authentifie les initiateurs iSCSI.
Authentification
CHAP mutuelle
Appliquée en plus de l'authentification CHAP
unidirectionnelle. L'authentification CHAP mutuelle permet
de définir un compte qu'une matrice de stockage cible utilise
pour se connecter à un initiateur iSCSI. L'initiateur iSCSI
authentifie ensuite la cible.
Utilisation d'iSNS (Internet Storage Naming Service Server)
Grâce à iSNS (Internet Storage Naming Service Server), il n'est plus besoin
de configurer manuellement chaque matrice de stockage individuelle avec
une liste spécifique d'initiateurs et d'adresses IP cibles. En effet, iSNS
détecte, gère et configure automatiquement tous les périphériques iSCSI
faisant partie de l'environnement.
Pour plus d'informations sur iSNS, notamment sur son installation et sa
configuration, rendez-vous sur le site microsoft.com.
Préparation des systèmes pour la mise en cluster
39
Configuration de l'interface iSCSI sur votre matrice de stockage à l'aide
de l'utilitaire MDCU
Les sections suivantes contiennent des instructions étape par étape pour
la configuration de l'interface iSCSI sur la matrice de stockage à l'aide
de l'utilitaire MDCU (Modular Disk Configuration Utility).
Il est recommandé d'utiliser l'utilitaire MDCU pour la configuration
de l'interface iSCSI. L'Assistant MDCU vous guide à travers les étapes
de configuration décrites ci-dessus. Pour une configuration manuelle,
voir la documentation des systèmes MD3600i et MD3620i.
MDCU offre une approche consolidée pour la configuration du réseau
iSCSI de serveurs hôtes et de matrices de stockage sur disques modulaires
iSCSI (PowerVault MD36xxi) à l'aide d'une interface dotée d'assistants.
Cet utilitaire vous permet également de configurer les sessions iSCSI du
serveur hôte en suivant les meilleures pratiques et d'obtenir des chemins
à équilibre de charge avec les ports hôtes iSCSI des matrices de stockage.
Cet utilitaire est automatiquement lancé après l'installation de MDSM
si vous avez sélectionné l'option Launch the MDCU After Reboot
(Lancer l'utilitaire MDCU après le redémarrage). Il peut également
être lancé manuellement.
MDCU effectue les deux tâches suivantes :
•
Configuration de la matrice de stockage
•
Configuration de l'hôte
Pour configurer la ou les matrices de stockage MD iSCSI à l'aide de
l'utilitaire MDCU :
1 Si l'utilitaire ne s'est pas automatiquement lancé, démarrez-le à partir
du serveur sur lequel vous avez accès aux ports de gestion de la ou des
matrices de stockage à configurer. Cliquez sur Start→ All Programs→
Dell→ MD Storage Software→ Modular Disk Configuration Utility
(Démarrer→ Tous les programmes→ Dell→ MD Storage Software→
Modular Disk Configuration Utility).
2 Cliquez sur Next (Suivant) pour continuer.
3 Sélectionnez Configure Modular Disk Storage Array (Configurer
la matrice de stockage sur disque modulaire) puis cliquez sur Next
(Suivant) pour continuer.
40
Préparation des systèmes pour la mise en cluster
4 Sélectionnez la méthode selon laquelle l'utilitaire doit détecter les
matrices de stockage à configurer puis cliquez sur Next (Suivant).
•
Automatic Discovery (Détection automatique) : cette option permet
de repérer sur le sous-réseau local toutes les matrices de stockage sur
disques modulaires iSCSI, ce qui peut prendre plusieurs minutes.
•
Manual Discovery (Détection manuelle) : cette option permet de
localiser les matrices de stockage sur disques modulaires iSCSI situées
en dehors du sous-réseau local. Pour cela, vous devez indiquer si votre
matrice de stockage comporte un contrôleur unique (simplex) ou
deux contrôleurs (duplex), et si vous souhaitez utiliser le protocole
IPv4 ou IPv6 pour communiquer avec le port de gestion de la matrice
de stockage.
REMARQUE : si le protocole de configuration dynamique d'hôte (DHCP) n'est pas
utilisé, lors de la configuration initiale, configurez au moins une carte réseau sur le
même sous-réseau IP que le port de gestion par défaut de la matrice de stockage
(192.168.128.101 or 192.168.128.102). Une fois la configuration initiale terminée, les
ports de gestion sont configurés à l'aide du logiciel MDSM et l'adresse IP de la
station de gestion peut être redéfinie de manière à rétablir les paramètres
antérieurs.
5 La fenêtre suivante affiche une liste de matrices de stockage MD iSCSI
qui ont été identifiées grâce au processus de détection. Si vous avez
sélectionné Automatic Discovery (Détection automatique), la fenêtre
affiche la liste des matrices de stockage MD iSCSI détectées dans le sousréseau. Si vous avez sélectionné Manual Discovery, (Détection manuelle),
la liste contient uniquement la matrice dont l'adresse IP a été saisie. Pour
ajouter des matrices supplémentaires à la liste, cliquez sur Add (Ajouter).
6 Sélectionnez la matrice en cliquant sur le bouton radio de la matrice de
stockage correspondante puis cliquez sur Next (Suivant).
7 Entrez le nom de la matrice de stockage et le mot de passe.
Cliquez sur la case à cocher Set Password (Définir le mot de passe) si
vous souhaitez choisir un nouveau mot de passe pour la matrice. Entrez
le nouveau mot de passe dans les champs New Password (Nouveau mot
de passe) et Confirm New Password (Confirmer le nouveau mot de passe).
Cliquez sur Next (Suivant) pour continuer.
Préparation des systèmes pour la mise en cluster
41
8 Sélectionnez le protocole IP (IPv4 ou IPv6) que les ports de gestion
doivent utiliser. De plus, pour chaque protocole, choisissez si vous
souhaitez que la configuration des adresses IP du port de gestion soit
effectuée manuellement ou automatiquement. Reportez-vous à l'aide
en ligne pour plus d'informations.
Cliquez sur Next (Suivant) pour continuer. Si vous n'avez pas sélectionné
Specify Configuration Manually (Spécifier la configuration
manuellement) pour les deux protocoles, vous pouvez ignorer l'étape 9.
9 Si vous avez sélectionné Specify Configuration Manually pour l'un des
deux protocoles à l'étape précédente, une série de fenêtres affichant une
vue arrière des contrôleurs de la matrice de stockage est affichée.
Chaque image contient les adresses IP des ports de gestion des
contrôleurs. De plus, sur chaque image, un port de gestion apparaît
en rouge.
•
Pour modifier l'adresse IPv4 du port mis en évidence, entrez l'adresse
IP, le masque de sous-réseau et l'adresse de passerelle dans les champs
situés en dessous de l'image.
•
Pour modifier l'adresse IPv6 du port mis en évidence, entrez l'adresse
IP locale, l'IP routable et l'adresse IP du router dans les champs situés
en dessous de l'image.
Cliquez sur Next (Suivant) pour continuer à passer en revue ces images et
ainsi terminer la configuration de tous les ports de gestion des protocoles
sélectionnés.
10 Sélectionnez le protocole IP (IPv4 ou IPv6) que les ports iSCSI doivent
utiliser. De plus, pour chaque protocole, choisissez si vous souhaitez que la
configuration des adresses IP du port iSCSI soit effectuée manuellement
ou automatiquement. Reportez-vous à l'aide en ligne pour plus
d'informations.
Sélectionnez la vitesse de port iSCSI appropriée dans le menu déroulant
situé sous la section Protocole (1 G ou 10 G). Cette sélection doit être
effectuée selon les vitesses de port prises en charge des périphériques
connectés aux ports iSCSI de la matrice de stockage.
Après avoir sélectionné les protocoles, la méthode de configuration et la
vitesse de port, cliquez sur Suivant pour poursuivre.
42
Préparation des systèmes pour la mise en cluster
Si vous n'avez pas sélectionné Specify Configuration Manually (Spécifier
la configuration manuellement) pour les deux protocoles, vous pouvez
ignorer l'étape 11.
11 Si vous avez sélectionné Specify Configuration Manually pour l'un des
deux protocoles au cours de la dernière étape, une série d'écrans illustrant
l'image de la vue arrière des contrôleurs de la matrice de stockage s'affiche.
Chaque image contient les adresses IP des ports iSCSI des contrôleurs.
De plus, un port iSCSI est en surbrillance rouge sur chaque image.
Pour utiliser une adresse IPv4 du port en surbrillance, entrez l'adresse IP,
le masque de sous-réseau et l'adresse de passerelle dans les champs affichés
sous l'image pour la modifier.
Pour utiliser une adresse IPv6 du port en surbrillance, entrez l'adresse IP
locale, l'IP routable et l'adresse IP du routeur dans les champs affichés sous
l'image pour la modifier.
Cliquez sur Next (Suivant) pour continuer à passer en revue ces images
et ainsi terminer la configuration de tous les ports iSCSI des protocoles
sélectionnés.
12 Dans la fenêtre CHAP Configuration (Configuration de l'authentification
CHAP), sélectionnez la méthode d'authentification CHAP puis cliquez
sur Next (Suivant). Pour plus d'informations sur l'authentification CHAP,
voir « Fonctionnement de l'authentification CHAP » à la page 38.
13 Dans la fenêtre Summary (Récapitulatif), passez en revue les informations
que vous avez saisies pour la matrice de stockage.
Cliquez sur Apply (Appliquer) pour sauvegarder les modifications
apportées à la matrice de stockage.
REMARQUE : cliquez sur Cancel Array (Annuler matrice) afin d'annuler la
configuration de la matrice de stockage et retourner en arrière pour sélectionner
une autre matrice de stockage à configurer.
14 Dans la fenêtre Configure Additional Arrays (Configuration de matrices
supplémentaires), choisissez si vous souhaitez configurer une matrice
supplémentaire. Cliquez sur Next (Suivant) pour continuer.
15 Si vous avez sélectionné Yes (Oui) à l'étape 14, recommencez la procédure
de l'étape 4 à l'étape 13 pour la configuration d'une matrice
supplémentaire.
Préparation des systèmes pour la mise en cluster
43
16 Si vous avez sélectionné Non à l'étape 14, dans l'écran Configure Host
Connectivity (Configurer la connectivité de l'hôte), indiquez si vous
souhaitez configurer la connectivité de l'initiateur iSCSI de l'hôte actuel.
Cliquez sur Next (Suivant) pour continuer.
Si vous avez sélectionné No (Non) ci-dessus, vous avez terminé la tâche
de configuration. Cliquez sur Finish (Terminer) pour fermer l'assistant.
17 Si vous avez sélectionné Yes (Oui) au cours de la dernière étape, l'écran
Select Storage Array (Sélectionner une matrice de stockage) s'affiche.
Sélectionnez la matrice de stockage que vous souhaitez configurer pour
la connectivité à l'hôte local.
REMARQUE : dans la liste de matrices de stockage, la mention Configuration
Complete (Configuration terminée) figure en regard du nom de celles qui viennent
d'être configurées par l'utilitaire. Ceci vous permet d'identifier les matrices prêtes à
être configurées pour l'accès des systèmes hôtes.
18 Dans la fenêtre Storage Array Login (Connexion à la matrice de stockage),
procédez comme suit :
a
Dans la colonne Controller# (N° de contrôleur), sélectionnez le port
hôte iSCSI de la matrice de stockage que vous souhaitez configurer,
ainsi que son ou ses adresses IP.
b
Dans la colonne Host Address (Adresse hôte), à partir du menu
déroulant, sélectionnez l'adresse IP hôte qui doit se connecter au port
hôte iSCSI de la matrice de stockage.
c
Cliquez sur Next (Suivant) si vous souhaitez entrer les informations
de connexion d'un autre contrôleur, ou cliquez sur Apply (Appliquer)
pour valider les informations de connexion.
19 Dans la fenêtre Connect to Additional Arrays (Connexion à des matrices
supplémentaires), choisissez si vous souhaitez vous connecter à une autre
matrice de stockage. Pour vous connecter à une autre matrice de stockage,
répétez les étapes précédentes à partir de l'étape 17. Si vous ne souhaitez
pas vous connecter à des matrices supplémentaires, cliquez sur Finish
(Terminer) afin de quitter l'utilitaire.
44
Préparation des systèmes pour la mise en cluster
Configurer la connectivité de l'hôte à l'aide de l'utilitaire MDCU
Après avoir configuré les adresses IP de votre ou vos matrices de stockage
iSCSI, exécutez cet utilitaire sur tous les hôtes devant accéder aux matrices
de stockage. Pour configurer la connectivité de l'hôte d'une matrice de
stockage iSCSI à l'aide de l'utilitaire MDCU, procédez comme suit :
1 Lancez l'utilitaire (s'il ne s'est pas lancé automatiquement) à partir
du serveur qui a besoin d'être configuré pour accéder aux matrices
de stockage. Ce serveur doit avoir accès à la matrice à l'aide des ports
de gestion de celle-ci ou à l'aide des ports d'hôte iSCSI de la matrice.
Pour Windows, cliquez sur Start→ All Programs→ Dell→ MD Storage
Software→ Modular Disk Configuration Utility (Démarrer→ Tous les
programmes→ Dell→ MD Storage Software→ Modular Disk
Configuration Utility).
Cliquez sur Next (Suivant) pour continuer.
2 Dans l'écran Configuration Task (Tâche de configuration), sélectionnez
Configure Host (Configurer l'hôte), puis cliquez sur Next (Suivant).
REMARQUE : cette tâche n'est pas prise en charge ou est désactivée si l'agent
MDSM n'est pas installé sur l'hôte sur lequel l'utilitaire est exécuté.
3 Dans l'écran Discovery Method (Méthode de détection), sélectionnez
une des méthodes de détection.
•
Si l'hôte a accès aux ports de gestion des matrices de stockage MD,
sélectionnez la méthode Discover via Management Port (Détecter via
un port de gestion), puis cliquez sur Next (Suivant).
•
Si l'hôte n'a pas accès aux ports de gestion de la matrice, sélectionnez
la méthode Discover via iSCSI Port (Détecter via un port iSCSI) (en
supposant que l'hôte a accès aux ports d'hôte iSCSI de la matrice de
stockage), puis cliquez sur Next (Suivant). Passez à la section étape 6.
4 Sélectionnez la tâche de configuration Configure Modular Disk Storage
Array (Configurer la matrice de stockage sur disques modulaires) puis
cliquez sur Next (Suivant) pour continuer.
5 Sélectionnez la méthode que l'utilitaire doit utiliser pour détecter les
matrices de stockage pour la configuration, puis cliquez sur Next (Suivant).
Préparation des systèmes pour la mise en cluster
45
•
Automatic Discovery (Détection automatique) : cette option permet
de repérer sur le sous-réseau local toutes les matrices de stockage
iSCSI, ce qui peut prendre plusieurs minutes.
•
Détection manuelle : la détection manuelle permet de localiser les
matrices de stockage iSCSI situées hors du sous-réseau local. La
détection manuelle exige la sélection du nombre de contrôleurs de
la matrice de stockage : un (simplex) ou deux (duplex). Elle permet
également de choisir d'utiliser le protocole IPv4 ou IPv6 pour
communiquer avec le port de gestion de la matrice de stockage.
Passez à la section étape 7.
6 Dans l'écran iSCSI Port IP Address (Adresse IP du port iSCSI), saisissez
l'adresse IP IPv4 de n'importe quel port hôte iSCSI de la matrice à laquelle
l'hôte peut se connecter ou saisissez l'adresse locale IPv6 de l'un des ports
hôtes iSCSI. Cliquez sur Next (Suivant) pour continuer.
7 Dans l'écran Configuration CHAP, saisissez le secret CHAP si vous l'avez
configuré pour la matrice de stockage.
8 Dans l'écran Storage Array Login (Connexion à la matrice de stockage),
dans la colonne correspondant au numéro du contrôleur, sélectionnez le
port hôte iSCSI de la matrice de stockage qui doit être configurée et
son/ses adresse(s) IP. Dans la colonne Host Address (Adresse de l'hôte),
dans la liste de menu déroulant, sélectionnez l'adresse IP d'hôte qui se
connectera au port hôte iSCSI de la matrice de stockage. Voir « Sélection
du port source pour les ports d'hôte iSCSI » à la page 47 pour plus
d'informations sur la façon dont ces adresses IP d'hôte sont répertoriées
dans le menu déroulant et les consignes de sélection des adresses IP d'hôte.
Cliquez sur Next (Suivant) pour poursuivre la saisie des informations de
connexion d'un autre contrôleur ou cliquez sur Apply (Appliquer) pour
enregistrer les informations de connexion de la matrice.
9 Dans l'écran Connect to Additional Arrays (Connecter à des matrices
supplémentaires), indiquez si vous souhaitez vous connecter à une autre
matrice de stockage.
Si vous souhaitez vous connecter à une autre matrice de stockage, répétez
les étapes ci-dessus à partir de l'étape 4 ou 5, selon votre dernière sélection.
Si vous ne souhaitez pas vous connecter à des matrices supplémentaires,
cliquez sur Finish (Terminer) afin de quitter l'utilitaire.
46
Préparation des systèmes pour la mise en cluster
Sélection du port source pour les ports d'hôte iSCSI
Pour établir la communication des données entre un hôte et une matrice
de stockage iSCSI, l'initiateur iSCSI sur l'hôte doit être configuré de façon
à établir des sessions iSCSI vers les ports d'hôte iSCSI de la matrice de
stockage. L'écran de connexion des ports iSCSI permet de spécifier les
adresses IP d'hôte et de la matrice de stockage que l'initiateur iSCSI utilise
pour établir ces sessions iSCSI.
Sélection de connexion des ports
Chaque port iSCSI de chaque contrôleur de la matrice de stockage se
présente avec une liste des adresses IP d'hôte via lesquelles l'initiateur iSCSI
peut se connecter. Les adresses IP d'hôte sont les adresses IP source et le port
iSCSI est la cible. Chaque liste ne contient que les adresses IP d'hôtes qui
peuvent communiquer avec le port iSCSI associé. Si aucune des adresses IP
d'hôte ne peut communiquer avec un port iSCSI, l'option Not Available
(Non disponible) est la seule affichée pour ce port iSCSI. Si aucune des
adresses IP d'hôte ne peut communiquer avec un port iSCSI de l'un ou l'autre
des ports iSCSI de n'importe lequel des contrôleurs de la matrice de stockage,
l'option de configuration de l'hôte est annulée pour cette matrice de stockage.
Sélection automatique
L'utilitaire tente de trouver automatiquement et de sélectionner la meilleure
configuration possible d'adresse(s) IP d'hôte et de ports iSCSI de la matrice
de stockage pour des performances et une redondance optimales.
L'objectif de cette sélection automatique est de garantir qu'une adresse IP d'hôte
(jusqu'à deux adresses IP pour les matrices de stockage MD3000i/MD3020i et
MD3600i/MD3620i, et jusqu'à quatre adresses IP pour les matrices de stockage
MD3200i/MD3220i) établit une session iSCSI avec chaque contrôleur de matrice
de stockage et que l'adresse IP d'hôte est connectée au plus à un port iSCSI par
contrôleur. Une telle configuration assure la redondance et l'équilibrage de la
charge parmi les multiples adresses IP d'hôte (cartes réseau).
L'option Do Not Connect (Ne pas connecter) peut être sélectionnée comme
option par défaut si l'utilitaire recommande de ne pas établir de connexion au
port iSCSI. Par ailleurs, même si la meilleure configuration recommandée est
présentée (lorsque c'est possible), vous pouvez toujours annuler cette
configuration en sélectionnant les autres adresses IP d'hôte dans la liste
déroulante.
Préparation des systèmes pour la mise en cluster
47
Avertissements de configuration non optimale
Un message d'avertissement s'affiche dans les cas suivants. Indiquez si vous
souhaitez continuer.
•
Les adresses IP d'hôte sont sélectionnées de façon à ce qu'une adresse IP
d'hôte établisse une session iSCSI avec un seul contrôleur de matrice de
stockage dans une configuration à deux contrôleurs (duplex).
•
Les adresses IP d'hôte sont sélectionnées de façon à ce qu'une adresse IP
d'hôte établisse deux sessions iSCSI ou plus avec le même contrôleur de
matrice de stockage.
Détection automatique de la matrice de stockage
1 Lancez MDSM.
La fenêtre Enterprise Management (Gestion de l'ordinateur) apparaît.
Elle contient les onglets suivants :
•
Onglet Devices (Périphériques) : fournit des informations concernant
les matrices de stockage.
•
Onglet Setup (Configuration) : présente les tâches de configuration
initiale qui vous guideront dans l'ajout de matrices de stockage et la
configuration d'alertes.
Si la matrice est la première que vous configurez, la fenêtre Add New
Storage Array (Ajouter une nouvelle matrice de stockage) s'affiche.
2 Sélectionnez Automatic, puis cliquez sur OK.
Le processus de détection peut prendre plusieurs minutes.
Vous pouvez gérer la matrice en démarrant la fenêtre Array Management
(Gestion de matrice) à partir de la fenêtre Enterprise Management
(Gestion de l'ordinateur). La fenêtre Array Management propose plusieurs
fonctions pour gérer une matrice de stockage. Pour en gérer plusieurs, vous
pouvez ouvrir simultanément plusieurs fenêtres Array Management.
Pour afficher la fenêtre Array Management (Gestion de matrice), cliquez
sur l'onglet Devices (Périphériques) de la fenêtre Enterprise Management
(Gestion de l'ordinateur) et double-cliquez sur la matrice de stockage
adéquate.
48
Préparation des systèmes pour la mise en cluster
Définition d'un hôte
Si l'hôte exécute l'agent de contexte de système hôte, les hôtes et les ports
hôtes connectés à la matrice de stockage sont automatiquement détectés
par le logiciel MDSM ; ils sont affichés dans l'onglet Mappings (Mappages)
de la fenêtre Array Management (Gestion de matrice), sous Default Group
(Groupe par défaut).
Lorsque le logiciel de stockage est installé, tous les hôtes s'affichent. Si l'un
d'eux n'est pas détecté, il peut être ajouté manuellement :
1 Dans la fenêtre Array Management (Gestion des matrices), sélectionnez
l'onglet Mappings (Mappages) puis la matrice de stockage appropriée.
2 Effectuez les actions suivantes :
•
Sélectionnez Mappings (Mappages)→ Define (Définir)→ Host (Hôte).
•
Sélectionnez l'onglet Setup (Configuration), et cliquez sur Manually
Define Hosts (Définir des hôtes manuellement).
•
Sélectionnez l'onglet Mappings (Mappages). Effectuez un clic droit sur
le nœud racine (nom de la matrice de stockage), le nœud Default Group
(Groupe par défaut) ou le nœud Host Group (Groupe d'hôtes) dans le
volet Topology auquel vous souhaitez ajouter l'hôte, puis sélectionnez
Define Host (Définir un hôte) depuis le menu contextuel.
La fenêtre Specify Host Name (Spécifier un nom d'hôte) s'affiche.
3 Dans Host Name (Nom d'hôte), entrez un nom alphanumérique de moins
de 30 caractères.
4 Sélectionnez l'option adéquate dans le champ Do you plan to use the
storage partitions in the this storage array? (Envisagez-vous d'utiliser les
partitions de stockage dans cette matrice de stockage ?) puis cliquez sur
Next (Suivant).
La fenêtre Specify Host Port Identifiers (Indiquer les identificateurs du
port hôte) s'affiche.
Préparation des systèmes pour la mise en cluster
49
5 Sélectionnez l'option pertinente pour ajouter un identificateur de port
hôte à l'hôte. Vous pouvez sélectionner :
•
Add by selecting a known unsolicited host port identifier (Ajouter en
sélectionnant un identificateur de port d'hôte non associé connu) :
dans Known unsolicited host port identifiers (Identificateurs de port
d'hôte non associés connus), sélectionnez l'identificateur de port d'hôte
pertinent.
•
Add by creating a new host port identifier (Ajouter en créant un nouvel
identificateur de port d'hôte) : dans New host port identifier (Nouvel
identificateur de port d'hôte), entrez un nom de 16 caractères et un Alias
de moins de 30 caractères pour l'identificateur de port d'hôte, puis cliquez
sur Add (Ajouter).
REMARQUE : le nom de l'identificateur de port d'hôte ne peut contenir que des
lettres de A à F.
6 Cliquez sur Next (Suivant).
La fenêtre Specify Host Type (Spécifier le type d'hôte) s'affiche.
7 Dans Host Type (Type d'hôte), sélectionnez le système d'exploitation
pertinent pour l'hôte.
La fenêtre Host Group Question (Question relative au groupe d'hôtes)
s'affiche.
8 Vous pouvez sélectionner :
•
Yes (Oui) : cet hôte partage l'accès aux mêmes disques virtuels avec
d'autres hôtes.
•
No (Non) : cet hôte ne partage PAS l'accès aux mêmes disques virtuels
avec d'autres hôtes.
9 Cliquez sur Next (Suivant).
Si vous sélectionnez Yes, la fenêtre Specify Host Group (Spécifier
le type d'hôte) s'affiche. Si vous sélectionnez No, passez à l'étape 11.
10 Entrez le nom du groupe d'hôtes ou sélectionnez un groupe d'hôtes
existant et cliquez sur Next (Suivant).
La fenêtre Preview (Aperçu) s'affiche.
11 Cliquez sur Finish (Terminer).
50
Préparation des systèmes pour la mise en cluster
Création d'un groupe d'hôtes
Un groupe d'hôtes est une entité logique composée de plusieurs hôtes
partageant l'accès à des disques virtuels spécifiques de la matrice de stockage.
Pour créer un groupe d'hôtes :
1 Dans la fenêtre Array Management (Gestion de matrice), sélectionnez
l'onglet Mappings (Mappages).
2 Dans le volet Topology (Topologie), sélectionnez la matrice de stockage
ou le groupe par défaut.
3 Effectuez l'une des actions suivantes :
–
Sélectionnez Mappings (Mappages)→ Define (Définir)→ Host
Group (Groupe d'hôtes).
–
Cliquez avec le bouton droit sur la matrice de stockage ou Default
Group (Groupe par défaut) et sélectionnez Define→ Host Group
(Définir→ Groupe d'hôtes) dans le menu contextuel.
4 Entrez le nom du nouveau groupe d'hôtes dans le champ Enter New Host
Group Name (Entrer un nouveau nom de groupe d'hôtes).
5 Sélectionnez les hôtes appropriés dans le champ Select Hosts to Add Area
(Zone de sélection d'hôtes à ajouter), puis cliquez sur Add (Ajouter).
6 Cliquez sur OK. Le groupe d'hôtes est ajouté à la matrice de stockage.
Création de groupes de disques et de disques virtuels
Dans certains cas, des liaisons de disques virtuels peuvent avoir été
prédéfinies en usine. Cependant, il est important d'installer le logiciel de
gestion et de vérifier que la configuration des disques virtuels correspond bien
à celle dont vous avez besoin.
Vous pouvez gérer vos disques virtuels à distance avec PowerVault Modular
Disk Storage Manager. Le nombre minimal de disques virtuels requis est de 1
pour une configuration de cluster actif/passif et de 2 pour une configuration
de cluster actif/actif.
Les groupes de disques sont créés dans l'espace non configuré de la matrice,
alors que les disques virtuels sont créés dans l'espace disponible d'un groupe
de disques. Les systèmes hôtes connectés à la matrice de stockage lisent et
écrivent des données sur les disques virtuels.
Préparation des systèmes pour la mise en cluster
51
REMARQUE : avant de créer des disques virtuels, vous devez organiser les
disques physiques en groupes et définir les paramètres d'accès des systèmes
hôtes. Vous pouvez ensuite créer des disques virtuels à l'intérieur d'un groupe
de disques.
Pour créer un disque virtuel, vous disposez de deux méthodes :
•
Configuration automatique
•
Configuration manuelle
Créez des groupes de disques en utilisant la configuration automatique de
la façon suivante :
1 Pour démarrer Create Disk Group Wizard (Assistant Création d'un groupe
de disques), effectuez l'une des actions suivantes :
52
•
Pour créer un groupe de disques à partir de l'espace non configuré de
la matrice de stockage : dans l'onglet Logical (Logique), sélectionnez
un nœud Unconfigured Capacity (Espace non configuré) et
sélectionnez Disk Group→ Create (Groupe de disques→ Créer).
Vous pouvez aussi cliquer avec le bouton droit de la souris sur le nœud
Unconfigured Capacity (Espace non configuré) et sélectionner
Create Disk Group (Créer un groupe de disques) dans le menu
contextuel.
•
Pour créer un groupe de disques à partir de disques physiques non
affectés sur la matrice de stockage : dans l'onglet Physical (Physique),
sélectionnez un ou plusieurs disques physiques non affectés du même
type puis sélectionnez Disk Group→ Create (Groupe de disques→
Créer). Vous pouvez aussi cliquer avec le bouton droit de la souris sur
les disques physiques non affectés et sélectionner Create Disk Group
(Créer un groupe de disques) dans le menu contextuel.
Préparation des systèmes pour la mise en cluster
•
Pour créer un groupe de disques sécurisés : dans l'onglet Physical
(Physique), sélectionnez un ou plusieurs disques physiques sécurisés
et non affectés du même type, puis sélectionnez Disk Group→ Create
(Groupe de disques→ Créer). Vous pouvez aussi cliquer avec le
bouton droit de la souris sur les disques physiques sécurisés et non
affectés, puis sélectionner Create Disk Group (Créer un groupe de
disques) dans le menu contextuel. La fenêtre Create Disk Group
(Création d'un groupe de disques) s'affiche.
2 Cliquez sur Next (Suivant). La fenêtre Disk Group Name and Physical
Disk Selection (Nom du groupe de disques et sélection des disques
physiques) s'affiche.
3 Entrez un nom (composé de 30 caractères maximum) pour le groupe de
disques dans le champ Disk Group Name (Nom du groupe de disques).
4 Sélectionnez la méthode de configuration appropriée parmi les suivantes :
–
Automatic (Automatique) (voir l'étape 6)
–
Manual (Manuelle) (voir l'étape 7)
5 Cliquez sur Next (Suivant).
6 Si vous avez sélectionné la configuration automatique, la fenêtre RAID
Level and Capacity (Niveau RAID et capacité) s'affiche.
a
Sélectionnez le niveau RAID approprié dans le champ Select RAID
Level (Sélection du niveau RAID). Vous pouvez sélectionner les
niveaux RAID 0, 1/10, 6 et 5. En fonction de votre sélection, les
disques physiques disponibles sont affichés dans le tableau Select
Capacity (Sélection de la capacité).
b
Dans le tableau Select Capacity (Sélection de la capacité),
sélectionnez la capacité du groupe de disques puis cliquez sur Finish
(Terminer).
7 Si vous avez sélectionné la configuration manuelle, la fenêtre Manual
Physical Disk Selection (Sélection manuelle des disques physiques)
s'affiche.
a
Sélectionnez le niveau RAID approprié dans le champ Select RAID
Level (Sélection du niveau RAID). Vous pouvez sélectionner les
niveaux RAID 0, 1/10, 6 et 5. En fonction de votre sélection, les
disques physiques disponibles sont affichés dans le tableau
Unselected Physical Disks (Disques physiques non sélectionnés).
Préparation des systèmes pour la mise en cluster
53
b
Dans le tableau Unselected Physical Disks (Disques physiques non
sélectionnés), sélectionnez les disques physiques appropriés puis
cliquez sur Add (Ajouter).
REMARQUE : pour sélectionner plusieurs disques physiques simultanément,
maintenez les touches <Ctrl> ou <Maj> enfoncées tout en sélectionnant des
disques physiques supplémentaires.
8 Cliquez sur Calculate Capacity (Calculer la capacité) pour afficher la
capacité du nouveau groupe de disques.
9 Cliquez sur Finish (Terminer). Un message s'affiche pour confirmer que
le groupe de disques a été créé et que vous devez créer au moins un disque
virtuel avant de pouvoir utiliser la capacité du nouveau groupe de disques.
Pour créer des disques virtuels :
1 Choisissez l'une des méthodes suivantes pour démarrer Create Virtual
Disk Wizard (Assistant Création de disque virtuel) :
54
•
Pour créer un disque virtuel à partir de l'espace non configuré dans la
matrice de stockage : dans l'onglet Logical (Logique), sélectionnez un
nœud Unconfigured Capacity (Espace non configuré), puis Virtual
Disk→ Create (Disque virtuel→ Créer). Vous pouvez aussi cliquer
avec le bouton droit de la souris sur le nœud Unconfigured Capacity
(Espace non configuré) et sélectionner Create Virtual Disk (Créer un
disque virtuel) dans le menu contextuel.
•
Pour créer un disque virtuel à partir de l'espace disponible sur un
groupe de disques : dans l'onglet Logical (Logique), sélectionnez un
nœud Free Capacity (Espace disponible), puis Virtual Disk→ Create
(Disque virtuel→ Créer). Vous pouvez aussi cliquer avec le bouton
droit de la souris sur le nœud Free Capacity (Espace disponible) et
sélectionner Create Virtual Disk (Créer un disque virtuel) dans le
menu contextuel.
•
Pour créer un disque virtuel à partir de disques physiques non affectés
sur la matrice de stockage : dans l'onglet Physical (Physique),
sélectionnez un ou plusieurs disques physiques non affectés du même
type puis sélectionnez Virtual Disk→ Create (Disque virtuel→
Créer). Vous pouvez aussi cliquer avec le bouton droit de la souris sur
les disques physiques non affectés et sélectionner Create Virtual Disk
(Créer un disque virtuel) dans le menu contextuel.
Préparation des systèmes pour la mise en cluster
•
Pour créer un groupe de disques sécurisés : dans l'onglet Physical
(Physique), sélectionnez un ou plusieurs disques physiques sécurisés et
non affectés du même type, puis sélectionnez Virtual Disk→ Create
(Disque virtuel→ Créer). Vous pouvez aussi cliquer avec le bouton
droit de la souris sur les disques physiques sécurisés et non affectés,
puis sélectionner Create Virtual Disk (Créer un disque virtuel) dans le
menu contextuel. Si vous avez choisi un nœud Unconfigured Capacity
(Espace non configuré) ou des disques physiques non affectés pour la
création du disque virtuel, la fenêtre Disk Group Required (Groupe de
disques requis) s'affiche. Cliquez sur Yes (Oui) et créez un groupe de
disques en utilisant Create Disk Group Wizard (Assistant Création
d'un groupe de disques). Lorsque vous avez créé le groupe de disques,
l'assistant de création de disque virtuel s'affiche. Si vous avez choisi un
nœud Free Capacity (Espace disponible), la fenêtre Create Virtual
Disk (Création de disque virtuel) s'affiche.
2 Cliquez sur Next (Suivant). La fenêtre Specify Capacity /Name
(Spécification de la capacité / du nom) s'affiche.
3 Sélectionnez l'unité appropriée de mémoire dans la liste déroulante Units
(Unités) puis entrez la capacité du disque virtue dans le champ New
Virtual Disk Capacity (Capacité du nouveau disque virtuel).
4 Entrez un nom (composé de 30 caractères maximum) pour le disque
virtuel dans le champ Virtual Disk Name (Nom du disque virtuel).
5 Dans le champ Advanced Virtual Disk Parameters (Paramètres avancés
du disque virtuel), vous pouvez sélectionner :
–
Use recommended settings (Utiliser les paramètres recommandés).
–
Customize settings (Personnaliser les paramètres).
6 Cliquez sur Next (Suivant).
7 Dans la fenêtre Customize Advanced Virtual Disk Parameters
(Personnalisation des paramètres avancés du disque virtuel), sélectionnez
le type approprié de caractéristiques d'E/S du disque virtuel, parmi les
options suivantes :
–
File system (typical) (Système de fichiers, option standard)
–
Database (Base de données)
–
Multimedia
–
Custom (Personnalisé)
Préparation des systèmes pour la mise en cluster
55
REMARQUE : si vous sélectionnez Custom (Personnalisé), vous devez choisir une
taille de segment appropriée.
8 Sélectionnez le module de contrôleur RAID préféré adéquat.
Pour plus d'informations sur la création de groupes de disques et de disques
virtuels, consultez le manual Dell PowerVault Modular Disk Storage Manager
User’s Guide (Dell PowerVault Modular Disk Storage Manager - Guide
d'utilisation) sur le site support.dell.com/manuals.
Il est recommandé de créer au moins un disque virtuel pour chaque application.
Si plusieurs volumes NTFS sont créés sur un seul disque virtuel à l'aide de la
fonction Windows Disk Management (Gestion des disques de Windows), ils
basculeront ensemble et non individuellement d'un nœud à l'autre.
REMARQUE : Dell conseille d'utiliser un niveau RAID autre que RAID 0 (aussi
appelé « striping » ou « agrégation par bande »). Ce dernier offre en effet des
performances optimales, mais ne garantit pas le niveau de disponibilité requis pour
la ressource quorum. Voir la documentation du système de stockage pour obtenir
des informations supplémentaires sur la configuration des niveaux RAID du
système.
Création de mappages entre systèmes hôtes et disques virtuels
Pour créez des mappages entre systèmes hôtes et disques virtuels et attribuer
ainsi des disques virtuels aux groupes de systèmes hôtes contenant des nœuds
de cluster, procédez comme suit :
1 Dans la fenêtre Array Management (Gestion de matrice), sélectionnez
l'onglet Mappings (Mappages).
2 Dans le volet Topology (Topologie), sélectionnez :
–
Default Group (Groupe par défaut)
–
Undefined Mappings Node (Nœud de mappages non définis)
–
Individual Defined Mapping (Mappage défini individuel)
–
Host Group (Groupe de systèmes hôtes)
–
Host (Hôte)
3 Dans la barre d'outils, sélectionnez Mappings→ Define→ Additional
Mapping (Mappages→ Définir→ Mappage supplémentaire). La fenêtre
Define Additional Mapping (Définir un mappage supplémentaire)
s'affiche.
56
Préparation des systèmes pour la mise en cluster
4 Sélectionnez le groupe d'hôtes approprié dans le champ Host Group
(Groupe d'hôtes) ou Host (Hôte).
5 Dans le champ Logical Unit Number (Numéro d'unité logique),
sélectionnez un LUN. Les LUN de 0 à 255 sont pris en charge.
6 Dans la section Virtual Disk (Disque virtuel), sélectionnez le disque
virtuel à mapper. La section Virtual Disk (Disque virtuel) répertorie les
noms et la capacité des disques virtuels disponibles pour le mappage,
en fonction de l'hôte ou du groupe d'hôtes sélectionné.
7 Cliquez sur Add (Ajouter).
REMARQUE : le bouton Add (Ajouter) reste inactif tant qu'un hôte ou groupe
d'hôtes, qu'un LUN et qu'un disque virtuel ne sont pas sélectionnés.
8 Pour définir des mappages supplémentaires, répétez la procédure de
l'étape 4 à l'étape 7.
REMARQUE : lorsqu'un disque virtuel a été mappé une fois, il n'est plus disponible
dans la zone Virtual Disk (Disque virtuel).
9 Cliquez sur Close (Fermer). Les mappages sont enregistrés. Les volets
Topology (Topologie) et Defined Mappings (Mappages définis) de
l'onglet Mappings (Mappages) sont mis à jour afin d'afficher les différents
mappages.
Outils de dépannage
Dell PowerVault MDSM communique avec chaque matrice gérée et
détermine son état actuel. Il offre également plusieurs outils de résolution
des incidents.
Journal d'événements
L'Event Log Viewer (Visualiseur de journal d'événements) permet d'afficher
une liste détaillée d'événements se produisant dans la matrice de stockage.
Le journal d'événements est stocké dans des zones réservées sur les disques
de la matrice de stockage. Celui-ci enregistre les événements de configuration
et les échecs de composants de la matrice de stockage.
PRÉCAUTION : n'utilisez cette option qu'avec l'aide d'un représentant du support
technique.
Préparation des systèmes pour la mise en cluster
57
Le journal d'événements stocke approximativement 8 000 événements avant
d'en remplacer un par un nouveau. Si vous souhaitez garder une trace des
événements, vous pouvez les sauvegarder ; sinon, vous pouvez les supprimer
du journal.
La fenêtre Event Log (Journal d'événements) propose les types de vues
suivants :
• Vue récapitulative : affiche un récapitulatif des événements sous la forme
d'un tableau.
• Vue détaillée : affiche les détails d'un événement sélectionné.
Pour afficher le journal d'événements :
1 Dans la fenêtre Array Management (Gestion des matrices), sélectionnez
Advanced→ Troubleshooting→ View Event Log (Avancé→ Dépannage→
Afficher le journal d'événements). La fenêtre Event Log (Journal
d'événements) s'affiche. Par défaut, la vue récapitulative est proposée.
2 Sélectionnez View Details (Afficher les détails) afin d'afficher les détails
de chaque entrée de journal sélectionnée. Un volet Detail (Détails),
contenant des informations sur l'élément de journal, est ajouté au journal
d'événements. Vous pouvez afficher les détails d'une seule entrée de
journal à la fois.
3 Pour sauvegarder le journal d'événements :
a
Cliquez sur Save As (Enregistrer sous). La boîte de dialogue
Save Events (Sauvegarde d'événements) s'affiche.
b
Naviguez jusqu'au dossier approprié puis entrez le nom du fichier
à sauvegarder.
c
Cliquez sur Save (Enregistrer).
4 Cliquez sur Clear All (Tout effacer) pour effacer toutes les entrées
du journal d'événements.
5 Cliquez sur Close (Fermer) afin de quitter le journal d'événements.
Pour plus d'informations, reportez-vous aux rubriques d'aide en ligne
de PowerVault Modular Disk Storage Manager.
58
Préparation des systèmes pour la mise en cluster
Recovery Guru
Recovery Guru est un composant de MDSM qui diagnostique les événements
critiques survenus sur la matrice de stockage et propose des procédures de
récupération étape par étape.
Pour afficher la fenêtre Recovery Guru à partir de la fenêtre Array
Management (Gestion des matrices), effectuez l'une des actions suivantes :
•
Cliquez sur Recovery Guru.
•
Dans l'onglet Support, cliquez sur Recover from Failure (Récupération
après incident).
•
Dans le volet Status (État) de l'onglet Summary (Récapitulatif), cliquez
sur Storage Array Needs Attention (Intervention requise sur la matrice
de stockage).
Les incidents sont signalés par les indicateurs suivants :
•
Icônes d'état autre que « Optimal »
•
Notifications d'alertes envoyées aux destinataires appropriés
•
Voyants des composants matériels
Les icônes d'état indiquent de nouveau « Optimal » une fois les problèmes
résolus.
Profil de stockage
Le profil de matrice de stockage offre une description de tous les composants
et de toutes les propriétés de la matrice de stockage. Il permet aussi
d'enregistrer les informations du profil de la matrice de stockage dans un
fichier texte. Il peut également être utilisé comme aide lors d'une
récupération ou présenter la configuration actuelle de la matrice de stockage.
Si cette configuration change, créez une copie du profil de la matrice de
stockage.
1 Pour ouvrir le profil de la matrice de stockage dans la fenêtre Array
Management (Gestion de matrice), effectuez l'une des opérations
suivantes :
–
Sélectionnez Storage Array→ View→ Profile (Matrice de stockage→
Vue→ Profil).
Préparation des systèmes pour la mise en cluster
59
–
Sélectionnez l'onglet Summary (Récapitulatif) et cliquez sur Storage
Array Profile (Profil de matrice de stockage) dans la zone Status
(État).
–
Sélectionnez l'onglet Support puis cliquez sur View Storage Array
Profile (Afficher le profil de la matrice de stockage).
La fenêtre Storage Array Profile (Profil de matrice de stockage) s'affiche.
Cette fenêtre contient plusieurs onglets, et l'intitulé de chacun d'eux
correspond au thème des informations qu'il contient.
2 Dans la fenêtre Storage Array Profile (Profil de matrice de stockage),
vous pouvez effectuer l'une des opérations suivantes :
–
Afficher les informations détaillées (Voir l'étape 3)
–
Explorer le profil de la matrice de stockage (Voir l'étape 4)
–
Enregistrer le profil de la matrice de stockage (Voir l'étape 5)
–
Fermer le profil de la matrice de stockage (Voir l'étape 6)
3 Sélectionnez l'un des onglets et utilisez les barres déroulantes horizontale
et verticale pour afficher les informations de profil de la matrice de
stockage. Les autres étapes de cette procédure vous permettront d'explorer,
d'enregistrer ou de fermer le profil de la matrice de stockage.
4 Pour explorer le profil de la matrice de stockage, procédez comme suit :
a
Cliquez sur Find (Rechercher).
b
Dans la zone de texte Find, entrez le terme que vous recherchez. Si le
terme est situé dans l'onglet ouvert, il est mis en évidence dans les
informations du profil de la matrice de stockage.
REMARQUE : la recherche se limite à l'onglet ouvert. Si vous souhaitez
rechercher le terme dans un autre onglet, sélectionnez-le et cliquez de nouveau sur
le bouton Find (Rechercher).
c
Cliquez de nouveau sur le bouton Find (Rechercher) pour rechercher
de nouvelles occurrences du terme.
5 Pour enregistrer le profil de la matrice de stockage, procédez comme suit :
60
a
Cliquez sur Save As (Enregistrer sous).
b
Pour enregistrer toutes les sections du profil de la matrice de stockage,
sélectionnez All Sections (Toutes les sections).
Préparation des systèmes pour la mise en cluster
c
Pour enregistrer des informations de certaines sections seulement du
profil de la matrice de stockage, sélectionnez l'option Select Sections
(Sélection de sections) puis cochez les cases correspondant aux
sections à enregistrer.
d
Sélectionnez un répertoire.
e
Dans le champ File Name (Nom du fichier), entrez le nom de fichier
que vous souhaitez. Pour associer ce fichier avec une application
logicielle spécifique, indiquez une extension de fichier, par exemple
.text.
REMARQUE : le fichier est enregistré en tant que texte ASCII.
f
Cliquez sur Save (Enregistrer).
6 Pour quitter le profil de la matrice de stockage, cliquez sur Close (Fermer).
Icônes d'état
Les icônes d'état indiquent les six conditions d'état possibles de la matrice de
stockage. Lorsqu'une icône affiche un état autre qu'optimal, utilisez Recovery
Guru pour détecter et résoudre l'incident. Les six conditions d'état possibles
sont les suivantes :
•
Optimal : chaque composant de la matrice gérée se trouve dans un état de
fonctionnement correct.
•
Needs Attention (Intervention requise) : un incident s'est produit et
nécessite une intervention.
•
Fixing (Résolution en cours) : une condition Needs Attention
(Intervention requise) a été corrigée et la matrice revient actuellement à
l'état Optimal.
•
Unresponsive (Ne répond pas) : la station de gestion ne peut pas
communiquer avec la matrice ou avec un de ses contrôleurs, voire les deux.
Après une récupération, attendez au moins 5 minutes avant que la matrice
de stockage ne revienne à l'état Optimal.
•
Unsupported (Non pris en charge) : le nœud n'est pas pris en charge par
cette version de MDSM.
•
Software Unsupported (Logiciel non pris en charge) : la matrice de
stockage exécute une version de logiciel qui n'est plus prise en charge
par MDSM.
Préparation des systèmes pour la mise en cluster
61
Configuration du niveau RAID du sous-système de stockage partagé
Les disques virtuels du sous-système de stockage partagé doivent être
configurés en groupes de disques ou en disques virtuels à l'aide du logiciel
Dell PowerVault MDSM. Tous les disques virtuels, surtout s'ils sont utilisés
pour la ressource quorum, doivent être liés et intégrer le niveau RAID
voulu pour garantir une haute disponibilité.
REMARQUE : Dell conseille d'utiliser un niveau RAID autre que RAID 0 (aussi
appelé « striping » ou « agrégation par bande »). Ce dernier offre en effet des
performances optimales, mais ne garantit pas le niveau de disponibilité requis pour
la ressource quorum. Voir la documentation du système de stockage pour savoir
comment configurer les niveaux RAID du système.
Système d'exploitation Windows et volumes dynamiques
Le système d'exploitation Windows ne prend pas en charge les volumes ou
les disques dynamiques (disques mis à niveau) définis comme clusters de
stockage partagés. Si une ressource partagée est configurée en tant que disque
dynamique, l'Assistant de configuration de cluster ne peut pas détecter les
disques, ce qui empêche le cluster et les clients du réseau d'y accéder.
Attribution de lettres de lecteurs et de points de montage
Un point de montage est un lecteur associé à un dossier vide se trouvant sur
un volume NTFS. Un point de montage fonctionne de la même façon qu'un
lecteur normal, mais il est désigné par un nom (appelé « label ») au lieu d'une
lettre. Son utilisation dans un cluster permet de gérer plus de disques
partagés qu'il n'existe de lettres de lecteurs disponibles.
L'ajout du point de montage aux disques gérés par le cluster ne s'effectue pas
automatiquement lors de l'installation de ce dernier. Pour chaque point de
montage à ajouter au cluster, vous devez créer une ressource de disque
physique dans le groupe de ressources du cluster. Vérifiez que la nouvelle
ressource de disque physique se trouve dans le même groupe de ressources
du cluster et qu'elle dépend du disque racine (c'est-à-dire le disque auquel le
point de montage est rattaché).
REMARQUE : lorsque vous montez un lecteur dans un volume NTFS, ne créez pas
de point de montage à partir de la ressource quorum, ni entre les disques du cluster
et les disques locaux. Les points de montage doivent faire partie du même groupe
de ressources du cluster et être dépendants du disque racine.
62
Préparation des systèmes pour la mise en cluster
Attribution de noms et formatage des lecteurs du système de stockage partagé
Chaque disque virtuel créé sous PowerVault Modular Disk Storage Manager
devient un disque physique dans l'interface Gestion des disques de Windows.
Pour chaque disque physique, vous devez effectuer les opérations suivantes :
•
Entrer la signature du disque
•
Créer la partition
•
Affecter la lettre de lecteur
•
Formater la partition avec NTFS
PRÉCAUTION : si les lettres d'unité sont attribuées manuellement à partir du
second nœud, les disques partagés sont accessibles simultanément à partir des
deux nœuds. Pour garantir l'intégrité du système de fichiers et éviter tout risque
de perte de données avant d'installer le logiciel Microsoft Failover Clustering,
empêchez toute activité d'E/S vers les lecteurs partagés. Pour ce faire, exécutez
la procédure ci-après sur un seul nœud à la fois, en vérifiant que l'autre nœud
est arrêté.
Le nombre de lettres de lecteurs requis par chaque serveur d'un cluster est
variable. Il est recommandé d'attribuer les lettres des lecteurs partagés par
ordre alphabétique inversé (commencer par z). Pour attribuer des lettres
de lecteurs et formater les disques du système de stockage partagé,
procédez comme suit :
1 Arrêtez le nœud 2 et ouvrez Disk Management (Gestion des disques) sur
le nœud 1.
2 Laissez Windows entrer une signature sur tous les nouveaux disques
logiques ou physiques.
REMARQUE : abstenez-vous de mettre à niveau ou de convertir vos disques
en disques dynamiques.
3 Recherchez l'icône correspondant au premier lecteur non nommé et non
formaté du système de stockage partagé.
4 Cliquez avec le bouton droit sur cette icône et sélectionnez Create (Créer)
dans le sous-menu. Si les disques non formatés ne sont pas visibles, vérifiez :
• que les connexions cibles de l'initiateur iSCSI Initiator sont actives.
• que les LUN ont été affectés aux systèmes hôtes.
• que le système de stockage est correctement relié aux serveurs.
Préparation des systèmes pour la mise en cluster
63
5 Dans la boîte de dialogue, créez une partition d'une taille égale à celle du
disque (choix par défaut) et cliquez sur OK.
REMARQUE : dans Windows, les disques virtuels adressés ou affectés à un
ou plusieurs nœuds à partir du système de stockage sont représentés sous
forme de disques physiques dans chaque nœud. Microsoft Cluster autorise un
seul nœud à la fois à accéder à une ressource de disque physique spécifique.
Par conséquent, si un disque est partitionné et contient plusieurs volumes
NTFS, l'accès simultané à plusieurs volumes n'est possible qu'à partir du
nœud qui contrôle la ressource de disque physique. Si deux volumes NTFS
doivent être contrôlés par des nœuds différents, ces volumes doivent résider
sur des disques distincts.
6 Cliquez sur Yes (Oui) pour confirmer la partition.
7 Pointez avec la souris sur la même icône, faites un clic droit et sélectionnez
Change Drive Letter and Path (Modifier la lettre de lecteur et le chemin
d'accès) dans le sous-menu.
8 Attribuez une lettre à un volume NTFS ou créez un point de montage.
Pour attribuer une lettre de lecteur à un volume NTFS :
a
Cliquez sur Edit (Modifier) et sélectionnez la lettre que vous
souhaitez attribuer au lecteur (z, par exemple).
b
Cliquez sur OK.
c
Passez à l'étape 9.
Pour créer un point de montage :
a
Cliquez sur Add. (Ajouter).
b
Cliquez sur Mount (Monter) dans le dossier NTFS vide suivant.
c
Tapez le chemin d'accès d'un dossier vide sur un volume NTFS
ou cliquez sur Browse (Parcourir) pour le sélectionner dans
l'arborescence.
d
Cliquez sur OK.
e
Passez à l'étape 9.
9 Cliquez sur Oui pour confirmer la partition.
10 Faites de nouveau un clic droit sur l'icône du lecteur et sélectionnez
Format (Formater) dans le sous-menu.
11 Sous Volume Label (Nom de volume), entrez un nom décrivant le
nouveau volume, par exemple Disque_Z ou Mails.
64
Préparation des systèmes pour la mise en cluster
12 Dans la boîte de dialogue, remplacez le système de fichiers par NTFS,
sélectionnez Quick Format (Formatage rapide), puis cliquez sur Start
(Démarrer).
REMARQUE : le format du système de fichiers NTFS est requis pour les
ressources de disque partagé sous Microsoft Cluster.
13 Cliquez sur OK lorsque l'avertissement s'affiche.
14 Cliquez sur OK pour confirmer la fin du formatage.
15 Cliquez sur Fermer pour fermer la boîte de dialogue.
16 Recommencez la procédure décrite de l'étape 3 à l'étape 15 pour chaque
lecteur restant.
17 Fermez Disk Management (Gestion des disques).
18 Arrêtez le nœud 1.
19 Activez le nœud 2.
20 Sur le nœud 2, ouvrez Disk Management (Gestion des disques).
21 Vérifiez que les lettres de lecteurs définies pour le nœud 2 sont correctes
et modifiez les affectations, si nécessaire. Pour réattribuer une lettre
de lecteur, répétez la procédure décrite de l'étape 7 à l'étape 9.
Utilisation des fonctions avancées (Premium) de PowerVault Modular Disk Storage
Manager
PowerVault Modular Disk Storage Manager propose les fonctions avancées
suivantes :
•
Cliché de disque virtuel
•
Copie de disque virtuel
Pour installer et activer ces fonctions Premium, vous devez acheter un fichier
de clé pour chaque fonction, puis définir la matrice de stockage qui doit les
héberger. Pour plus d'informations, reportez-vous à la carte Premium Feature
Activation (Activation des fonctions Premium) fournie avec le système de
stockage Dell PowerVault MD3600i or MD3620i.
Ces fonctions Premium étendent la haute disponibilité de la solution de
cluster. En outre, pour garantir le bon fonctionnement du cluster, vous devez
impérativement suivre les instructions ci-dessous.
Préparation des systèmes pour la mise en cluster
65
Cliché de disque virtuel
La fonction de cliché de disque virtuel permet de capturer une image à
l'instant T d'un disque virtuel pour les sauvegardes, les tests ou le traitement
de données, sans que cela n'ait d'incidence sur le contenu du disque virtuel
source. Pour créer un tel cliché, vous pouvez utiliser l'option de chemin
simple ou avancé. Le cliché de disque virtuel peut être mappé sur le nœud
principal (propriétaire du disque source) ou sur le nœud secondaire (non
propriétaire du disque source) pour les sauvegardes, les tests ou le traitement
de données.
PRÉCAUTION : évitez de mapper le cliché de disque virtuel sur plus d'un nœud à
la fois dans le cluster. Ce cliché n'est pas géré par le gestionnaire de cluster de
basculement. Par conséquent, si vous le mappez sur le groupe de systèmes hôtes
ou sur les deux nœuds du cluster, plusieurs systèmes pourront accéder aux
données simultanément, et ces dernières risquent d'être endommagées.
Vous pouvez utiliser le service VSS de Microsoft (Volume Shadow-copy
Service) pour créer et mapper des clichés. Si vous utilisez plutôt MDSM,
vous devez suivre les procédures décrites ci-dessous.
Pour mapper le cliché sur le nœud principal, procédez comme suit :
1 Sous Modular Disk Storage Manager, créez le mappage entre le système
hôte et le disque virtuel. Vous vous assurez ainsi qu'une signature distincte
sera correctement attribuée au cliché de disque virtuel.
2 Utilisez la fonction de gestion des disques de Windows pour détecter
le cliché de disque virtuel, lui attribuer une lettre et accéder au lecteur
correspondant.
REMARQUE : les disques peuvent être analysés plusieurs fois avant que le
cliché de disque virtuel ne soit détecté. S'il ne l'est pas, attendez quelques
minutes et relancez l'analyse. Recommencez la procédure jusqu'à ce que le
cliché soit détecté. Ne redémarrez pas le serveur.
Si vous devez mapper le cliché de disque virtuel sur le nœud secondaire
(non propriétaire du disque source), vous devez d'abord le mapper sur le
nœud principal pour faire en sorte qu'une nouvelle signature de disque lui
soit affectée. Ensuite, utilisez Modular Disk Storage Manager pour supprimer
le mappage entre le cliché et le nœud principal, créer le mappage sur le nœud
secondaire et accéder au lecteur correspondant.
66
Préparation des systèmes pour la mise en cluster
PRÉCAUTION : si vous essayez de mapper le cliché de disque virtuel sur le nœud
secondaire avant d'obtenir la signature à partir du nœud principal, il est possible
que le système d'exploitation identifie à tort ce cliché comme étant un volume de
disque existant. Dans ce cas, vous risquez de perdre des données et de ne plus
pouvoir accéder au cliché.
REMARQUE : pour une configuration de cluster avec plusieurs clichés de disques
virtuels, chaque disque doit d'abord être mappé sur le nœud propriétaire du disque
source associé. Le nœud principal correspondant à un cliché de disque virtuel n'est
pas forcément le même que celui d'un autre cliché.
Copie de disque virtuel
Cette fonction copie l'intégralité des données entre un disque virtuel source
et un disque virtuel cible d'une matrice de stockage. Vous pouvez l'utiliser
pour effectuer différentes opérations : sauvegarde des données, copie des
données à partir de groupes de disques de faible capacité vers d'autres de
capacité supérieure, restauration des données d'un cliché sur le disque virtuel
source.
Pour créer une copie de disque virtuel d'un disque partagé sur un cluster
Microsoft Cluster, procédez comme suit :
1 Créez un cliché de disque virtuel en utilisant le disque partagé du cluster
comme disque source.
2 Ne mappez pas ce cliché au nœud du cluster. Utilisez ensuite ce nouveau
cliché comme disque source pour la copie.
REMARQUE : lorsque vous essayez de créer directement une copie de
disque virtuel d'un disque partagé du cluster Microsoft, l'opération échoue
et affiche l'erreur suivante :
The operation cannot complete because the selected
virtual disk is not a source virtual disk candidate.
(L'opération n'a pas pu être effectuée car le disque virtuel sélectionné n'est
pas un disque virtuel source valide.)
Si vous souhaitez effectuer une restauration à partir du disque virtuel cible
suite à une panne du disque partagé du cluster, utilisez Failover Cluster
Manager pour modifier l'état du groupe de cluster contenant le disque en
panne et le mettre hors ligne. Procédez de l'une des manières suivantes :
1 Utilisez la fonction de copie de disque virtuel pour transférer les données
du disque virtuel cible sur le disque partagé du cluster.
2 Supprimez l'affectation du disque partagé au groupe de systèmes hôtes,
puis mappez le disque virtuel cible à ce groupe.
Préparation des systèmes pour la mise en cluster
67
Configuration d'un cluster de basculement
Vous pouvez configurer les services du système d'exploitation du cluster de
basculement Windows Server après avoir créé les réseaux privé et public et
affecté les disques partagés aux nœuds du cluster à partir de la matrice de
stockage. La procédure de configuration varie en fonction de la version de
Windows Server utilisée.
Pour plus d'informations sur le déploiement de votre cluster, consultez le
manuel Dell Failover Clusters with Microsoft Windows Server 2008 Installation
and Troubleshooting Guide (Guide d'installation et de dépannage des clusters
de basculement Dell dans une installation Microsoft Windows Server 2008)
sur le site support.dell.com/manuals.
68
Préparation des systèmes pour la mise en cluster
Dépannage
Cette annexe contient des informations de dépannage des configurations en
cluster.
Le tableau A-1 décrit les incidents courants liés aux clusters, leurs causes
probables et les solutions proposées.
Tableau A-1.
Dépannage courant pour les clusters
Problème
Cause probable
Mesure corrective
Les nœuds ne peuvent
pas accéder au système
de stockage, ou bien
les logiciels du cluster
ne fonctionnent pas
avec le système de
stockage.
Le câblage reliant le
système de stockage aux
nœuds ou le câblage des
composants de stockage
est incorrect.
Vérifiez que la connexion des
câbles entre le nœud et le
système de stockage est correcte.
Pour plus d'informations, voir
« Câblage du matériel du
cluster » à la page 15.
L'un des câbles est
défectueux.
Remplacez le câble défectueux.
Le groupe de systèmes
Vérifiez les points suivants :
hôtes ou les mappages
• Le groupe de systèmes hôtes a
entre systèmes hôtes et
été créé et les nœuds du cluster
disques virtuels n'ont pas
y ont été ajoutés.
été correctement créés.
• Le mappage entre systèmes
hôtes et disques virtuels a été
créé ; les disques virtuels ont
été affectés au groupe de
systèmes hôtes contenant les
nœuds du cluster.
Le mot de passe CHAP
saisi est incorrect.
Si le protocole CHAP est utilisé,
entrez un nom d'utilisateur et un
mot de passe corrects.
Outils de Dépannage
69
Tableau A-1.
Dépannage courant pour les clusters (suite)
Problème
Cause probable
Mesure corrective
Un des nœuds met
beaucoup de temps à
rejoindre le cluster.
Le réseau nœud à nœud a
échoué à la suite d'un
incident de câblage ou
d'une panne matérielle.
Vérifiez le câblage du réseau.
Vérifiez que l'interconnexion
nœud à nœud et le réseau public
sont connectés aux cartes réseau
adéquates.
Des délais importants
dans les communications
de nœud à nœud peuvent
être normaux.
Vérifiez que les nœuds peuvent
communiquer entre eux. Pour ce
faire, lancez la commande ping
sur chaque nœud pour vérifier
que vous obtenez une réponse
de l'autre nœud. Lancez la
commande ping avec le nom
d'hôte, puis avec l'adresse IP.
Le pare-feu de connexion
Internet est peut-être
activé sur un ou plusieurs
nœuds et bloque les
communications RPC
(Remote Procedure Call)
entre les nœuds.
Configurez le pare-feu de
connexion Internet de manière à
autoriser les communications
requises par Microsoft Failover
Clustering et les applications ou
services exécutés sur le cluster.
Pour plus d'informations, voir
l'article KB883398 de la base de
connaissances Microsoft à
l'adresse support.microsoft.com.
OU
Un des nœuds ne
parvient pas à
rejoindre le cluster.
70
Outils de Dépannage
Tableau A-1.
Dépannage courant pour les clusters (suite)
Problème
Cause probable
Les tentatives de
connexion à un cluster
via Failover Cluster
Manager échouent.
Cluster Service n'a pas été Vérifiez que Cluster Service est
démarré. Aucun cluster
actif et qu'un cluster a été créé.
n'a été formé sur le
système. Le système vient
d'être initialisé et les
services sont encore en
cours de démarrage.
Le nom de réseau du
cluster ne répond pas car
le pare-feu de connexion
Internet est activé sur un
ou plusieurs nœuds.
Mesure corrective
Configurez le pare-feu de
connexion Internet de manière
à autoriser les communications
requises par Microsoft Cluster
et les applications ou services
exécutés sur le cluster. Pour plus
d'informations, voir l'article
KB883398 de la base de
connaissances Microsoft à
l'adresse support.microsoft.com.
Outils de Dépannage
71
Tableau A-1.
Problème
Dépannage courant pour les clusters (suite)
Cause probable
Vous êtes invité à
La configuration de
configurer un seul
TCP/IP est incorrecte.
réseau au lieu de deux
lors de l'installation de
Microsoft Failover
Cluster.
Le réseau privé (point à
point) est déconnecté.
72
Outils de Dépannage
Mesure corrective
Le réseau nœud à nœud et le
réseau public doivent disposer
d'adresses IP statiques sur des
sous-réseaux différents. Pour plus
d'informations sur l'attribution
d'adresses IP, voir la section
« Assigning Static IP Addresses
to Your Cluster Resources and
Components » du manuel Dell
Failover Clusters with Microsoft
Windows Server 2003 Installation
and Troubleshooting Guide
(Guide d'installation et de
dépannage des clusters de
basculement Dell dans une
installation Microsoft Windows
Server 2008).
Vérifiez que tous les systèmes
sont sous tension pour que les
cartes réseau du réseau privé
soient disponibles.
Tableau A-1.
Dépannage courant pour les clusters (suite)
Problème
Cause probable
Mesure corrective
Impossible d'ajouter
un nœud au cluster.
Le nouveau nœud ne peut Vérifiez que le nouveau nœud du
pas accéder aux disques
cluster peut énumérer les disques
partagés.
du cluster à l'aide de l'outil
Windows Disk Administration
(Gestion des disques de
Windows). Si les disques
n'apparaissent pas dans l'outil
Windows Disk Administration
(Gestion des disques de
Windows) :
• Vérifiez toutes les connexions
des câbles.
• Vérifiez les paramètres d'Access
Control sur les systèmes de
stockage connectés.
Les clients du réseau
public ne peuvent pas
accéder aux
applications ou
services fournis par le
cluster.
Le pare-feu de connexion
Internet peut être activé
sur un ou plusieurs nœuds
et bloquer les
communications RPC
(Remote Procedure Call)
entre les nœuds.
Configurez le pare-feu de
connexion Internet de manière à
autoriser les communications
requises par Microsoft Cluster et
les applications ou services
exécutés sur le cluster. Pour plus
d'informations, voir l'article
KB883398 de la base de
connaissances Microsoft à
l'adresse support.microsoft.com.
Le pare-feu de connexion
Internet peut être activé
sur un ou plusieurs nœuds
et bloquer les
communications RPC
(Remote Procedure Call)
entre les nœuds.
Configurez le pare-feu de
connexion Internet de manière à
autoriser les communications
requises par Microsoft Cluster et
les applications ou services
exécutés sur le cluster.
Pour plus d'informations, voir
l'article KB883398 de la base de
connaissances Microsoft à
l'adresse support.microsoft.com.
Outils de Dépannage
73
Tableau A-1.
Dépannage courant pour les clusters (suite)
Problème
Cause probable
La copie de disque
virtuel échoue.
Cette opération utilise le Pour créer une copie de disque
disque du cluster comme virtuel à partir d'un disque
disque source.
partagé du cluster, créez un
cliché de ce disque, puis faites
une copie de disque virtuel de ce
cliché.
Impossible d'attribuer
une lettre de lecteur au
cliché de disque
virtuel.
Le cliché de disque virtuel
a été mappé par erreur
avec le nœud qui n'est pas
propriétaire du disque
source.
Impossible d'accéder
au cliché de disque
virtuel.
Le journal d'erreurs du
système contient un
avertissement de
partmgr
(événement 59)
indiquant que le cliché
de disque virtuel est
un chemin redondant
d'un disque du cluster.
74
Outils de Dépannage
Mesure corrective
Supprimez le mappage entre le
cliché de disque virtuel et le
nœud non propriétaire du disque
source, puis créez le mappage
avec le nœud propriétaire.
Consultez la section Utilisation
des fonctions avancées
(Premium) de PowerVault
Modular Disk Storage Manager
pour plus d'informations.
Formulaire technique du cluster
Vous pouvez placer le formulaire ci-dessous à côté de chaque rack ou nœud
du cluster afin d'y noter des informations relatives au cluster. Consultez-le
lorsque vous faites appel au support technique.
Tableau B-1.
Informations de configuration du cluster
Informations sur le
cluster
Solution de cluster
Nom et adresse IP du
cluster
Type de serveur
Installé par
Date d'installation
Applications
Emplacement
Remarques
Tableau B-2.
Nom du nœud
Informations de configuration des nœuds
Numéro de service Adresse IP publique Adresse IP privée
Formulaire technique du cluster
75
Tableau B-2.
Nom du nœud
Tableau B-3.
Informations de configuration des nœuds
Numéro de service Adresse IP publique Adresse IP privée
Autres informations sur le réseau
Réseaux supplémentaires
Tableau B-4.
Matrice
Informations de configuration de la matrice de stockage
Numéro de service Adresse IP
de la matrice
1
2
3
4
76
Formulaire technique du cluster
Nombre de matrices de Disques virtuels
disques connectées
Fiche de configuration iSCSI
Paramètres IPv4
A
192.168.131.101 (entrée 1 par défaut)
192.168.128.101 (port du réseau de gestion)
Clé secrète
CHAP cible
PowerVault
MD36xxi
192.168.130.101 (entrée 0 par défaut)
B
Clé secrète
CHAP mutuelle
serveur hôte
192.168.130.102 (entrée 0 par défaut)
192.168.131.102 (entrée 1 par défaut)
192.168.128.102 (port réseau de gestion)
Au besoin, utilisez une feuille supplémentaire (si vous disposez de plusieurs serveurs hôtes,
par exemple).
Masque de sous-réseau
Passerelle par défaut
A Adresse IP statique (serveur hôte)
Port iSCSI 1
___ ___ ___ ___
___ ___ ___ ___
___ ___ ___ ___
Port iSCSI 2
___ ___ ___ ___
___ ___ ___ ___
___ ___ ___ ___
Port de gestion
___ ___ ___ ___
___ ___ ___ ___
___ ___ ___ ___
B
Adresse IP statique (matrice de stockage)
Contrôleur iSCSI 0, Entrée 0 ___ ___ ___ ___
Masque de sous-réseau
___ ___ ___ ___
Passerelle par défaut
___ ___ ___ ___
Contrôleur iSCSI 0, Entrée 1 ___ ___ ___ ___
___ ___ ___ ___
___ ___ ___ ___
Port de gestion cntrl 0
___ ___ ___ ___
___ ___ ___ ___
___ ___ ___ ___
Contrôleur iSCSI 1, Entrée 0 ___ ___ ___ ___
___ ___ ___ ___
___ ___ ___ ___
Contrôleur iSCSI 1, Entrée 1 ___ ___ ___ ___
___ ___ ___ ___
___ ___ ___ ___
Port de gestion cntrl 1
___ ___ ___ ___
___ ___ ___ ___
___ ___ ___ ___
Fiche de configuration iSCSI
77
Paramètres IPv6
serveur hôte
A
Clé secrète
CHAP mutuelle
Clé secrète
CHAP cible
B
PowerVault MD36xxi
Au besoin, utilisez une feuille supplémentaire (si vous disposez de plusieurs serveurs hôtes, par exemple).
A
B
Port hôte iSCSI 1
Port hôte iSCSI 2
Adresse IP de liaison locale ___ ___ ___ ___
Adresse IP de liaison locale ___ ___ ___ ___
Adresse IP routable
___ ___ ___ ___
Adresse IP routable
___ ___ ___ ___
Préfixe du sous-réseau
___ ___ ___ ___
Préfixe du sous-réseau
___ ___ ___ ___
Passerelle
___ ___ ___ ___
Passerelle
___ ___ ___ ___
Contrôleur iSCSI 0, Entrée 0
Adresse IP
FE80
Adresse IP routable 1
Adresse IP routable 2
Adresse IP du routeur
____
Adresse IP routable 2
____
____
____
____
Fiche de configuration iSCSI
____
____
____
:
____
:
____
:
____
:
:
:
____
:
____
____
____
____
:
:
:
:
____
:
____
____
0000
____
:
:
:
:
____
:
____
____
0000
____
:
:
:
:
:
____
____
0000
:
____
:
:
:
Adresse IP du routeur
78
____
____
FE80
0000
:
:
:
Adresse IP routable 1
0000
:
:
Contrôleur iSCSI 0, Entrée 1
Adresse IP
0000
:
____
:
____
:
____
:
Contrôleur iSCSI 1, Entrée 0
Adresse IP
FE80
Adresse IP routable 1
Adresse IP routable 2
Adresse IP du routeur
0000
:
____
0000
:
____
:
____
____
:
____
:
0000
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
Contrôleur iSCSI 1, Entrée 1
Adresse IP
FE80
Adresse IP routable 1
Adresse IP routable 2
Adresse IP du routeur
0000
:
____
0000
:
____
:
____
____
:
____
:
0000
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
____
:
Fiche de configuration iSCSI
79
80
Fiche de configuration iSCSI
Index
A
attribution
lettres de lecteurs et points
de montage, 62
configuration requise pour
le stockage du cluster, 8
configurations de cluster prises
en charge, 11
copie de disque virtuel, 67
C
câblage
blocs d'alimentation, 15
câblage
cluster dans une configuration
à connexion directe, 21
cluster dans une configuration
avec connexion à un
réseau, 23
souris, clavier et moniteur, 15
systèmes de stockage, 20
CHAP, 38
cible, 38
mutuel, 38
D
dépannage
courant sur les clusters, 69
F
fonctions avancées
cliché de disque virtuel, 10
copie de disque virtuel, 10
formulaire technique
du cluster, 75
configuration
cluster de basculement, 68
système de stockage partagé, 37
I
configuration initiale de la
matrice de stockage, 40
installation
cartes réseau iSCSI, 33
Microsoft iSCSI Software
Initiator, 34
configuration iSCSI
sur la matrice de stockage, 40
icônes d'état, 61
installation et configuration
logiciels de gestion
du stockage, 35
Index
81
instantané de disque virtuel, 66
R
iSCSI, 37
terminologie, 37
recovery guru, 59
regroupement de cartes
réseau, 20
J
journal d'événements, 57
S
système d'exploitation
installation, 32
L
logiciel multiacheminement, 10
P
profil de stockage, 59
système de stockage PowerVault
22xS
mise en cluster, 63
W
Windows Server 2003
Enterprise Edition
installation, 32
82
Index

Manuels associés