Mode d'emploi | Dell PowerVault MD3600i/3620i Windows HA Cluster Manuel utilisateur
Ajouter à Mes manuels82 Des pages
▼
Scroll to page 2
of
82
Matrices de stockage Dell PowerVault MD3600i et MD3620i à clusters de basculement Microsoft Windows Server Guide d'installation et de dépannage du matériel Remarques et précautions REMARQUE : une REMARQUE indique des informations importantes qui peuvent vous aider à mieux utiliser votre ordinateur. PRÉCAUTION : une PRÉCAUTION indique un risque d'endommagement du matériel ou de perte de données en cas de non respect des instructions. __________________ Les informations contenues dans cette publication sont sujettes à modification sans préavis. © 2011 Dell Inc. tous droits réservés. La reproduction de ce document de quelque manière que ce soit sans l'autorisation écrite de Dell Inc. est strictement interdite. Marques utilisées dans ce document : Dell™, le logo DELL, PowerEdge™ et PowerVault™ sont des marques de Dell Inc. Microsoft®, Windows® et Windows Server® sont des marques ou des marques déposées de Microsoft Corporation aux États-Unis et/ou dans d'autres pays. D'autres marques et noms commerciaux peuvent être utilisés dans ce document pour faire référence aux entités revendiquant la propriété de ces marques ou de ces noms de produits. Dell Inc. rejette tout intérêt propriétaire dans les marques et les noms commerciaux autres que les siens. Février 2011 Rév. A00 Table des matières 1 Introduction . Présentation . . . . . . . . . . . . . . . . . . . . . . . 5 . . . . . . . . . . . . . . . . . . . . . . . . 5 Solution de cluster . . . . . . . . . . . . . . . . . . . . . Exigences du cluster . . . . . . . . . . . . . . . . . . . Nœuds de cluster . . . . . . . . . . . . . . . . . . . Stockage du cluster . . . . . . . . . . . . . . . . . Logiciels de gestion du stockage du cluster . Configurations de cluster prises en charge . Autres documents utiles . 2 . . . . 6 7 7 8 9 . . . . . . 11 . . . . . . . . . . . . . . . . 13 Câblage du matériel du cluster . . . . . . . . Câblage de la souris, du clavier et du moniteur Câblage des blocs d'alimentation . . . . . 15 . . . . . . . . . . . 15 Câblage des réseaux public et privé . . . . . . . . . . 17 . . . . . . . . . . . . . 18 . . . . . . . . . . . . . . 18 Câblage du réseau public Câblage du réseau privé 15 Utilisation de cartes réseau à deux connecteurs pour le réseau privé . . . . . . . . . . . . . . . Regroupement (« teaming ») des cartes réseau . . . . . . 19 . . . . . . . . . . . . 20 Table des matières 3 Câblage des systèmes de stockage . . . . . . . . . . . Câblage du cluster dans une configuration à connexion directe . . . . . . . . . . . . . . . . . 21 Câblage du cluster dans une configuration avec connexion à un réseau . . . . . . . . . . . . 23 . . . . . . . . 26 . . . . . . . . . . . . 29 Connexion d'un cluster PowerEdge à plusieurs systèmes de stockage PowerVault MD3600i ou MD3620i . 3 Préparation des systèmes pour la mise en cluster . . Présentation de la configuration du cluster . Présentation de l'installation . . . . . . 29 . . . . . . . . . . . . . . 32 Installation des cartes réseau iSCSI . . . . . . . . . . . . . . 33 34 Installation du logiciel de gestion de stockage . . . 35 Configuration du système de stockage partagé . . 37 . . . . . . . . . . . . . . . . 57 Outils de dépannage Configuration d'un cluster de basculement A Dépannage . . . . . . . . . . . . . . . . . . . . . . . . . . . C Fiche de configuration iSCSI . 68 69 . . . . . . 75 . . . . . . . . 77 B Formulaire technique du cluster 4 33 Installation de l'initiateur logiciel iSCSI Microsoft . Configuration des cartes réseau iSCSI . Index 20 Paramètres IPv4 . . . . . . . . . . . . . . . . . . 77 Paramètres IPv6 . . . . . . . . . . . . . . . . . . 78 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 Table des matières Introduction Ce document fournit des informations sur l'installation et la gestion de votre solution de cluster à l'aide des systèmes de stockage Dell PowerVault MD3600i et MD3620i. Il est destiné aux professionnels de l'informatique expérimentés appelés à configurer la solution de cluster, ainsi qu'aux techniciens de maintenance qualifiés chargés des procédures de mise à niveau et d'entretien. Il s'adresse également aux utilisateurs découvrant la technologie de mise en cluster. Présentation La fonctionnalité Clustering avec basculement de Microsoft Windows Server associe des composants matériels et logiciels spécifiques en vue d'optimiser la disponibilité des applications et services qui y sont exécutés. Il est conçu pour éviter les risques d'indisponibilité de ces applications et services liés à la défaillance d'un élément du système. Il est recommandé d'utiliser des composants redondants, notamment pour les blocs d'alimentation du système et du stockage, les connexions entre les nœuds et la ou les matrices de stockage, les connexions aux systèmes clients ou aux autres systèmes de l'architecture d'applications d'entreprise multi-niveau de votre cluster. Ce guide présente la configuration des matrices de stockage Dell MD3600i et MD3620i iSCSI pour un ou plusieurs clusters de basculement Windows Server. Il contient des informations ainsi que des tâches de configuration spécifiques vous permettant de déployer le stockage partagé de votre cluster. Pour plus d'informations sur le déploiement de votre cluster, consultez le manuel Dell Failover Clusters with Microsoft Windows Server Installation and Troubleshooting Guide (Guide d'installation et de dépannage des clusters de basculement sous Microsoft Windows Server) sur le site support.dell.com/manuals. REMARQUE : dans ce document, Windows Server 2008 désigne Windows Server 2008 x64 Enterprise Edition ou Windows Server 2008 R2 x64 Enterprise Edition. Introduction 5 Pour obtenir une liste des systèmes d'exploitation, composants matériels et pilotes ou versions de micrologiciel recommandés pour le cluster de basculement Dell Windows Server, voir le document Dell Cluster Configuration Support Matrices (Tableaux des configurations prises en charge par les clusters Dell) sur le site dell.com/ha. Solution de cluster Votre cluster iSCSI est doté de deux nœuds au minimum et de seize nœuds au maximum, et offre les fonctionnalités suivantes : • Technologie iSCSI (Internet Small Computer System Interface) • Haute disponibilité des services et ressources système pour les clients réseau • Chemins d'accès redondants au stockage partagé • Récupération en cas d'échec d'applications et de services • Fonctions d'entretien souples permettant de réparer, d'entretenir ou de mettre à niveau un nœud de cluster sans mettre hors ligne le cluster tout entier L'implémentation de la technologie iSCSI dans un cluster offre différents avantages : 6 • Souplesse : étant basée sur le protocole TCP/IP, la technologie iSCSI permet d'utiliser des nœuds de cluster et des systèmes de stockage se trouvant sur différents sites. • Disponibilité : grâce à leurs connexions redondantes, les composants iSCSI offrent plusieurs chemins d'accès des données et améliorent ainsi la disponibilité pour les clients. • Connectivité : la technologie iSCSI permet de connecter plus de périphériques que l'interface SCSI. Les périphériques iSCSI étant enfichables à chaud, vous pouvez les installer ou les retirer des nœuds sans arrêter le cluster. Introduction Exigences du cluster Le cluster requiert les composants suivants : • Serveurs (nœuds de cluster) • Logiciels de stockage et de gestion du stockage Nœuds de cluster Le tableau 1-1 répertorie la configuration matérielle requise pour les nœuds du cluster. Tableau 1-1. Configuration requise pour les nœuds Composant Configuration minimale Processeur Au moins un processeur par nœud de cluster. Nœuds de cluster Au moins deux systèmes PowerEdge identiques. RAM Au moins 1 Go de RAM sur chaque nœud de cluster. Initiateur iSCSI Pilote de l'initiateur iSCSI Microsoft et service initiateur iSCSI Microsoft Cartes réseau pour l'accès iSCSI Deux cartes réseau iSCSI ou ports de carte réseau par nœud. Afin d'améliorer la disponibilité et les performances, installez les cartes réseau sur des bus PCI distincts. Les cartes réseau avec moteur TOE (moteur de décentralisation TCP/IP) sont également prises en charge pour le trafic iSCSI. Pour obtenir une liste des systèmes d'exploitation, composants matériels et pilotes ou versions de micrologiciel recommandés pour le cluster de basculement Dell Windows Server, voir le document Dell Cluster Configuration Support Matrices (Tableaux des configurations prises en charge par les clusters Dell) sur le site dell.com/ha. Introduction 7 Tableau 1-1. Configuration requise pour les nœuds (suite) Composant Configuration minimale Cartes réseau (public et privé) Au moins deux cartes réseau, dont une pour le réseau public et une autre pour le réseau privé. REMARQUE : il est recommandé d'utiliser des cartes identiques sur chaque réseau public et sur chaque réseau privé. Contrôleur de disque interne Un contrôleur connecté aux disques internes sur chaque nœud. Utilisez n'importe quel contrôleur RAID (Redundant Array of Independent Disk) ou contrôleur de disque pris en charge. Deux disques physiques sont nécessaires pour la mise en miroir (RAID 1), alors qu'il en faut au moins trois pour la répartition des disques avec parité (RAID 5). REMARQUE : pour les disques internes, il est recommandé d'utiliser une configuration RAID matérielle ou une fonction logicielle de tolérance de pannes. Stockage du cluster Le tableau 1-2 présente la configuration minimale d'un système de stockage partagé. Tableau 1-2. Configuration requise pour le stockage du cluster Composants matériels Configuration minimale Systèmes de stockage Un boîtier RAID Dell PowerVault MD3600i ou MD3620i. pris en charge Toute combinaison de boîtiers d'extension Dell PowerVault MD1200 et/ou MD1220 (sept au maximum). REMARQUE : le nombre de disques durs ne doit pas dépasser 96. Commutateur et câble Une infrastructure à capacité de 10GBase-T constituée de câbles de catégorie 6 ou supérieure, de tableaux de connexion à capacité de 10GBase-T et de commutateurs. Les infrastructures 1GBase-T existantes peuvent être utilisées à l'aide d'un commutateur 10GBase-T ou en configurant manuellement les ports iSCSI sur des vitesses 1GBase-T. 8 Introduction Tableau 1-2. Configuration requise pour le stockage du cluster (suite) Composants matériels Configuration minimale Configuration requise pour l'alimentation et le refroidissement Deux modules de ventilation/blocs d'alimentation intégrés et remplaçables à chaud. Disques physiques Au moins deux disques physiques dans le boîtier RAID PowerVault MD3600i ou MD3620i. Clusters et systèmes Dans une configuration avec liaison par commutateurs, autonomes multiples les clusters et les systèmes autonomes peuvent partager un ou plusieurs systèmes PowerVault MD3600i ou MD3620i. REMARQUE : vous pouvez utiliser des disques RAID 0 et des disques indépendants. Toutefois, ils ne sont pas recommandés pour un système à haute disponibilité, car ils n'assurent pas la redondance des données en cas de panne d'un disque. Logiciels de gestion du stockage du cluster Dell PowerVault Modular Disk Storage Manager Le logiciel s'exécute sur la station de gestion ou sur tout hôte relié à la matrice pour une gestion centralisée des boîtiers RAID PowerVault MD3600i et MD3620i. Vous pouvez utiliser Dell PowerVault Modular Disk Storage Manager (MDSM) pour de nombreuses tâches, telles que la création de groupes de disques, la création et le mappage de disques virtuels, la surveillance de l'état du boîtier et le téléchargement de micrologiciels. MDSM est une interface graphique utilisateur dotée d'assistants et d'une structure basée sur les tâches. MDSM est conçu pour : • Réduire la complexité des tâches d'installation, de configuration, de gestion et de diagnostic sur les matrices de stockage. • Contenir un service de surveillance d'événements qui envoie des alertes lorsqu'un problème important se produit sur la matrice de stockage. • Fournir une interface de ligne de commande pour exécuter les commandes à partir d'une invite du système d'exploitation. Introduction 9 PowerVault Modular Disk Storage Manager Agent Ce logiciel est installé sur chaque nœud du cluster. Il collecte des données sur la topologie des systèmes pouvant être gérées par MDSM. Logiciel Multipath I/O (MPIO) Le logiciel MPIO (également appelé « pilote de basculement ») est installé sur chaque nœud du cluster. Il permet de gérer les chemins de données redondants entre le serveur et le boîtier RAID. Pour une gestion correcte de ces chemins par le logiciel, la configuration doit inclure des cartes réseau et un câblage redondants. Le logiciel MPIO détecte l'existence de plusieurs chemins d'accès à un disque virtuel et définit le chemin favori. En cas de défaillance d'un composant de ce chemin, le logiciel réachemine automatiquement les requêtes d'E/S vers le chemin secondaire, assurant ainsi la continuité du fonctionnement de la matrice de stockage. Fonctions avancées Les systèmes de stockage RAID PowerVault MD3600i et MD3620i présentent les fonctionnalités avancées suivantes : • Cliché de disque virtuel : capture une image à l'instant T d'un disque virtuel pour les sauvegardes, les tests ou le traitement de données, sans que cela n'ait d'incidence sur le contenu du disque virtuel source. • Copie de disque virtuel : copie l'intégralité des données entre un disque virtuel source et un disque virtuel cible d'une matrice de stockage. Vous pouvez l'utiliser pour effectuer différentes opérations : sauvegarde de données, copie de données d'un groupe de disques de faible capacité vers un autre de capacité supérieure, restauration des données d'un cliché de disque virtuel sur le disque virtuel source, etc. • Mise à niveau vers une couche hautes performances : augmente les performances du système au-delà d'une matrice série MD3600i fonctionnant au niveau de performances standard. REMARQUE : pour les instructions relatives au déploiement des options appropriées sur l'environnement du cluster, voir la section « Utilisation des fonctions avancées (Premium) de PowerVault Modular Disk Storage Manager » à la page 65. 10 Introduction Configurations de cluster prises en charge Figure 1-1. Configuration d'un cluster à connexion directe Module de contrôleur RAID MD36xxi 0 Matrice de stockage Module de contrôleur RAID MD36xxi 1 Réseau d'entreprise, public ou privé Introduction 11 Figure 1-2. Configuration d'un cluster redondant à connexion réseau Matrice de stockage Réseau d'enModule de treprise, public contrôleur RAID ou privé MD36xxi 0 Module de contrôleur RAID MD36xxi 1 REMARQUE : la configuration peut comporter jusqu'à 64 nœuds. Les nœuds peuvent être : 12 • un cluster (jusqu'à 16 nœuds) • plusieurs clusters • plusieurs clusters et serveurs autonomes Introduction Autres documents utiles PRÉCAUTION : les consignes de sécurité jointes à votre ordinateur fournissent d'importantes informations sur la sécurité et les réglementations. Les informations sur la garantie se trouvent dans ce document ou dans un document distinct. • Le document Rack Installation Guide (Guide d'installation du rack) fourni avec le rack indique comment installer le système en rack. • Le Guide de mise en route présente l'installation initiale du système. • Le document Dell Failover Clusters with Microsoft Windows Server 2008 Installation and Troubleshooting Guide (Guide d'installation et de dépannage des clusters de basculement Dell dans une installation Microsoft Windows Server 2008) fournit davantage d'informations sur le déploiement de votre cluster. • Le document Dell Cluster Configuration Support Matrices (Tableaux des configurations prises en charge par les clusters Dell) répertorie les systèmes d'exploitation, composants matériels et versions de pilote ou de micrologiciel recommandés pour le cluster de basculement Dell Windows Server. • La documentation du système d'exploitation indique comment installer (au besoin), configurer et utiliser le logiciel du système d'exploitation. • La documentation fournie avec les composants achetés séparément indique comment installer et configurer ceux-ci. • La documentation de la bibliothèque de bandes Dell PowerVault fournit des informations sur l'installation, le dépannage et la mise à niveau de la bibliothèque de bandes. • Des mises à jour sont parfois fournies avec le système pour décrire les modifications apportées au système, au logiciel et/ou à la documentation. • Le Guide d'utilisation du système PowerEdge décrit les fonctionnalités et les spécifications techniques du système, le programme de configuration du système (le cas échéant), le support logiciel et l'utilitaire de configuration système. • Le document Dell PowerVault MD3600i and MD3620i Storage Arrays Getting Started Guide (Guide de mise en route des matrices de stockage Dell PowerVault MD3600i et MD3620i) présente la configuration et le câblage de votre matrice de stockage. Introduction 13 • Le document Dell PowerVault MD3600i and MD3620i Storage Arrays Owner's Manual (Manuel du propriétaire des matrices de stockage Dell PowerVault MD3600i et MD3620i) contient des informations sur les caractéristiques du système, ainsi que des instructions relatives au dépannage et à l'installation ou au remplacement de composants. • Le document Dell PowerVault MD3600i and MD3620i Storage Arrays Deployment Guide (Guide de déploiement des matrices de stockage Dell PowerVault MD3600i et MD3620i) présente l'installation et la configuration des logiciels et du matériel. • Le document Dell PowerVault Modular Disk Storage Arrays CLI Guide (Guide CLI des matrices de stockage du disque modulaire Dell PowerVault) offre des informations d'utilisation de l'interface de ligne de commande (CLI) pour la configuration et la gestion de votre matrice de stockage. • Le DVD Dell PowerVault MD36xxi Resource (Ressource Dell PowerVault MD36xxi) contient la documentation relative aux outils de configuration et de gestion, ainsi que l'intégralité de la documentation mentionnée dans ce guide. • Le document Dell PowerVault MD Systems Support Matrix (Matrice de support des systèmes Dell PowerVault MD) indique les logiciels et le matériel pris en charge par les systèmes PowerVault MD. REMARQUE : lisez toujours les mises à jour en premier, car elles remplacent souvent les informations contenues dans d'autres documents. • 14 Des notes de version ou des fichiers Lisez-moi sont parfois fournis ; ils contiennent des mises à jour de dernière minute de la documentation ou des informations techniques avancées destinées aux utilisateurs expérimentés ou aux techniciens. Introduction Câblage du matériel du cluster Les sections suivantes décrivent les procédures permettant de câbler les composants du cluster. Câblage de la souris, du clavier et du moniteur Si vous installez un cluster dans un rack, vous devez ajouter un commutateur KVM pour connecter la souris, le clavier et le moniteur aux nœuds. Consultez la documentation fournie avec le rack pour savoir comment relier chaque nœud au commutateur KVM. Câblage des blocs d'alimentation Pour vous assurer que les spécifications relatives à l'alimentation sont respectées, consultez la documentation fournie avec chaque composant de la solution cluster. Il est recommandé de respecter les consignes suivantes afin de protéger le cluster des pannes liées à l'alimentation : • Pour les nœuds comprenant plusieurs blocs d'alimentation, branchez chaque bloc sur un circuit CA distinct. • Utilisez des onduleurs. • Dans certains environnements, utilisez des groupes électrogènes de secours et des sources d'alimentation provenant de différentes sous­stations électriques. La figure 2-1 présente le câblage électrique recommandé pour une solution de cluster comprenant deux systèmes Dell PowerEdge et un système de stockage. Pour garantir la redondance de l'alimentation, les blocs d'alimentation principaux de tous les composants sont regroupés sur un ou deux circuits, et les blocs d'alimentation redondants sur un circuit différent. Câblage du matériel du cluster 15 Figure 2-1. Exemple de câblage électrique module de contrôleur RAID MD36xxi 1 blocs d'alimentation principaux sur une barrette d'alimentation en CA (ou une unité de distribution électrique en CA, non représentée) module de contrôleur RAID MD36xxi 0 blocs d'alimentation redondants sur une barrette d'alimentation en CA (ou une unité de distribution électrique en CA, non représentée) REMARQUE : cette illustration est uniquement destinée à montrer la répartition de l'alimentation entre les composants. 16 Câblage du matériel du cluster Câblage des réseaux public et privé Les cartes réseau des nœuds du cluster permettent au moins deux connexions réseau pour chaque nœud. Ces connexions sont décrites dans le tableau 2-1. Tableau 2-1. Connexions réseau Connexion réseau Réseau public Description Toutes les connexions vers le réseau local client. Pour que le basculement vers le réseau privé soit pris en charge, au moins un réseau public doit être configuré en mode mixte (public et privé). Réseau privé Une connexion dédiée permettant le partage des informations sur l'état et l'intégrité du cluster entre les nœuds du cluster. Les cartes réseau connectées au réseau local permettent également une redondance des communications en cas de panne de l'interconnexion du cluster. Pour plus d'informations sur la redondance des réseaux privés, voir la documentation de Microsoft Failover Clustering. La figure 2-2 représente un exemple de câblage de carte réseau : les cartes réseau dédiées de chaque nœud sont connectées au réseau public, alors que les autres cartes sont interconnectées (pour le réseau privé). Câblage du matériel du cluster 17 Figure 2-2. Exemple de câblage réseau réseau public carte du réseau public carte du réseau privé réseau privé nœud de cluster 1 nœud de cluster 2 Câblage du réseau public Toute carte réseau prise en charge par un système exécutant TCP/IP peut être utilisée pour établir la connexion avec les segments du réseau public. Vous pouvez installer des cartes réseau supplémentaires pour ajouter d'autres segments de réseau public ou pour assurer la redondance en cas de défaillance d'une carte réseau principale ou d'un port du commutateur. Câblage du réseau privé La connexion du réseau privé aux nœuds est assurée par une autre carte réseau (ou davantage), installée sur chaque nœud. Ce réseau est utilisé pour les communications internes du cluster. Le tableau 2-2 répertorie les composants matériels requis et indique le mode de connexion de trois types de réseau privé possibles. 18 Câblage du matériel du cluster Tableau 2-2. Composants matériels et connexions pour un réseau privé Méthode Composants matériels Connexion Commutateur réseau Cartes réseau et commutateurs Ethernet Gigabit ou 10 Gigabit Suivant le matériel que vous possédez, connectez les câbles CAT5e ou CAT6, les câbles optiques multimode avec les connecteurs locaux LC (Local Connector), ou les câbles Twinax entre les cartes réseau des nœuds et un commutateur. Point à point (cluster de deux nœuds uniquement) Cartes réseau Ethernet Copper Gigabit ou 10 Gigabit avec connecteurs RJ-45 Utilisez un câble Ethernet CAT5e ou CAT6 standard pour relier les cartes réseau de chacun des nœuds. Cartes réseau Ethernet Copper 10 Gigabit avec connecteurs SFP+ Connectez un câble Twinax pour relier les cartes réseau des deux nœuds. Cartes réseau optiques Ethernet Gigabit ou 10 Gigabit avec connecteurs LC Connectez un câble optique multimode pour relier les cartes réseau de chacun des nœuds. REMARQUE : dans ce document, Ethernet peut désigner Gigabit Ethernet ou 10 Gigabit Ethernet. Utilisation de cartes réseau à deux connecteurs pour le réseau privé Vous pouvez configurer le cluster de sorte que le réseau public serve de réseau de basculement pour les communications du réseau privé. Toutefois, si vous utilisez des cartes à deux connecteurs, n'utilisez pas ceux-ci pour une prise en charge simultanée du réseau public et du réseau privé. Câblage du matériel du cluster 19 Regroupement (« teaming ») des cartes réseau Le regroupement de cartes réseau consiste à associer plusieurs cartes pour assurer l'équilibrage de charge et/ou la tolérance de panne. Le cluster prend en charge cette configuration uniquement sur les réseaux publics. Vous ne pouvez pas l'utiliser sur un réseau privé. Les cartes réseau regroupées et les pilotes utilisés doivent être de la même marque. Câblage des systèmes de stockage Cette section indique comment relier le cluster à un système de stockage. REMARQUE : le système de stockage PowerVault MD36xxi nécessite une infrastructure à capacité de 10GBase-T constituée de câbles de catégorie 6 ou supérieure, de tableaux de connexion à capacité de 10GBase-T et de commutateurs. Les infrastructures 1GBase-T existantes peuvent être utilisées à l'aide d'un commutateur 10GBase-T, qui interconnecte le réseau 10GBase-T, ou en configurant manuellement les ports iSCSI sur des vitesses 1GBase-T. La gestion du stockage peut être effectuée en mode intrabande via l'interface entre système hôte et contrôleur ou bien en mode hors bande (connexion Ethernet). Pour la gestion hors bande, reliez les ports Ethernet de la matrice de stockage au réseau public. REMARQUE : il est recommandé de configurer Dell PowerVault MD3600i et MD3620i pour la gestion hors bande. 20 Câblage du matériel du cluster Câblage du cluster dans une configuration à connexion directe Dans une configuration à connexion directe, chaque nœud du cluster est directement connecté aux modules contrôleurs RAID du PowerVault MD3600i ou MD3620i. Cette connexion est réalisée à l'aide de deux câbles réseau et d'une seule carte réseau à deux connecteurs ou de deux cartes à connecteur unique. En cas de défaillance d'un composant (port, câble ou contrôleur de stockage) du chemin du système de stockage, le logiciel MPIO redirige automatiquement les demandes d'E/S vers le chemin secondaire. Ainsi, la matrice de stockage fonctionne sans interruption. La configuration à deux cartes réseau à port unique améliore la disponibilité : en cas de panne de carte réseau, Microsoft Failover Cluster ne déplace pas les ressources vers l'autre nœud. Pour câbler le cluster : 1 Connectez le nœud 1 au système de stockage : a Reliez la carte réseau iSCSI 1 (ou le port réseau 1) du nœud 1 au port In-0 du module contrôleur RAID 0 à l'aide d'un câble réseau. b Reliez la carte réseau iSCSI 2 (ou le port réseau 2) du nœud 1 au port In-1 du module contrôleur RAID 1 à l'aide d'un câble réseau. 2 Connectez le nœud 2 au système de stockage : a Reliez la carte réseau iSCSI 1 (ou le port réseau 1) du nœud 2 au port In-0 du module contrôleur RAID 1 à l'aide d'un câble réseau. b Reliez la carte réseau iSCSI 2 (ou le port réseau 2) du nœud 2 au port In-1 du module contrôleur RAID 0 à l'aide d'un câble réseau. Câblage du matériel du cluster 21 Figure 2-3. Configuration d'un cluster à connexion directe réseau public réseau privé nœud de cluster 1 nœud de cluster 2 port de gestion Ethernet (2) port SAS « Out » (2) module de contrôleur RAID MD36xxi 0 module de contrôleur RAID MD36xxi 1 REMARQUE : le port SAS « Out » sert de connecteur SAS pour le ou les boîtiers d'extension MD1200 or MD1220. 22 Câblage du matériel du cluster Câblage du cluster dans une configuration avec connexion à un réseau Dans une configuration avec connexion à un réseau, chaque nœud du cluster est connecté au système de stockage. Cette connexion est réalisée au moyen de commutateurs Ethernet 1 Gb standard redondants pour réseaux SAN IP et d'une seule carte réseau iSCSI à deux ports ou de deux cartes à port unique. En cas de défaillance d'un composant (port, câble ou contrôleur de stockage) du chemin du système de stockage, le logiciel MPIO redirige automatiquement les demandes d'E/S vers le chemin secondaire. Ainsi, la matrice de stockage fonctionne sans interruption. La configuration à deux cartes réseau à port unique améliore la disponibilité : en cas de panne de carte réseau, Microsoft Failover Cluster ne déplace pas les ressources vers l'autre nœud. Cette configuration peut prendre en charge jusqu'à 64 hôtes simultanément. Exemples : • Un seul cluster • Deux clusters • Un cluster à huit nœuds, deux clusters à deux nœuds et un système autonome Pour câbler le cluster : 1 Connectez le système de stockage au réseau iSCSI : a Reliez le commutateur 1 au port In-0 du contrôleur 0 à l'aide d'un câble réseau. b Reliez le commutateur 1 au port In-0 du contrôleur 1 à l'aide d'un câble réseau. c Reliez le commutateur 2 au port In-1 du contrôleur 0 à l'aide d'un câble réseau. d Reliez le commutateur 2 au port In-1 du contrôleur 1 à l'aide d'un câble réseau. Câblage du matériel du cluster 23 2 Connectez le cluster au réseau iSCSI : a Reliez la carte réseau iSCSI 1 (ou port réseau 1) du nœud 1 au commutateur réseau 1 à l'aide d'un câble réseau. b Reliez la carte réseau iSCSI 2 (ou port réseau 2) du nœud 1 au commutateur réseau 2 à l'aide d'un câble réseau. c Répétez l'étape a et l'étape b pour chaque nœud supplémentaire du cluster. 3 Répétez l'étape 2 afin de connecter des clusters supplémentaires ou des systèmes autonomes au réseau iSCSI. 24 Câblage du matériel du cluster Figure 2-4. Configuration d'un cluster à connexion réseau réseau public réseau privé 2 à n nœuds de cluster SAN IP (double commutateur Ethernet Gigabit) (2) port SAS « Out » (2) module de contrôleur RAID MD36xxi 0 module de contrôleur RAID MD36xxi 1 port de gestion Ethernet (2) Câblage du matériel du cluster 25 Connexion d'un cluster PowerEdge à plusieurs systèmes de stockage PowerVault MD3600i ou MD3620i Vous pouvez étendre la capacité de stockage du cluster en le reliant à plusieurs systèmes de stockage au moyen de commutateurs réseau redondants. Les systèmes de clusters PowerEdge prennent en charge des configurations incluant plusieurs systèmes de stockage PowerVault MD3600i ou MD3620i reliés à des systèmes en cluster. Dans ce scénario, le logiciel Microsoft Failover Cluster peut faire basculer les disques de n'importe quel système de stockage partagé connecté au cluster entre les nœuds. 26 Câblage du matériel du cluster Figure 2-5. Configuration d'un cluster avec connexion à un réseau incluant plusieurs matrices de stockage réseau public réseau privé 2 à n nœuds de cluster SAN IP (double commutateur Ethernet Gigabit) (2) matrice de stockage 2 matrice de stockage 1 module de contrôleur RAID MD36xxi 0 module de contrôleur RAID MD36xxi 1 Câblage du matériel du cluster 27 Lorsque vous reliez plusieurs systèmes de stockage PowerVault MD3600i et MD3620i au cluster, les règles suivantes s'appliquent : 28 • Il ne faut pas dépasser quatre systèmes de stockage Power Vault MD3600i et MD3620i par cluster. • Les systèmes de stockage partagés et les versions de micrologiciel doivent être identiques. Pour le stockage partagé, les systèmes de stockage et les versions de micrologiciel différents ne sont pas pris en charge. • Windows limite l'accès aux lecteurs utilisant un nombre restreint de lettres de lecteur (22). Les lettres de lecteur A à D étant réservées aux disques locaux, un maximum de 22 lettres de lecteur (E à Z) peut être utilisé pour les disques des systèmes de stockage. • Windows Server 2008 Enterprise Edition prend en charge les points de montage, ce qui permet d'utiliser plus de 22 lecteurs par cluster. Câblage du matériel du cluster Préparation des systèmes pour la mise en cluster PRÉCAUTION : seuls les techniciens de maintenance qualifiés sont habilités à accéder aux composants internes du système et à les retirer. Pour des informations détaillées sur les mesures de sécurité, les interventions dans l'ordinateur et la protection contre les décharges électrostatiques, consultez les consignes de sécurité fournies avec l'ordinateur. Présentation de la configuration du cluster 1 Vérifiez que le site d'installation peut assurer l'alimentation du cluster. Contactez votre représentant commercial pour connaître les caractéristiques techniques de l'alimentation électrique en vigueur dans votre pays. 2 Installez les serveurs, la ou les matrices de stockage partagé et les commutateurs d'interconnexion (exemple : dans un rack) et vérifiez qu'ils sont sous tension. REMARQUE : pour plus d'informations sur l'étape 3 à l'étape 7 et l'étape 10 à l'étape 12, consultez la section « Preparing your systems for clustering » (Préparation des systèmes pour la mise en cluster) du manuel Dell Failover Clusters with Microsoft Windows Server 2008 Installation and Troubleshooting Guide (Guide d'installation et de dépannage des clusters de basculement Dell dans une installation Microsoft Windows Server 2008) sur le site support.dell.com/manuals. Préparation des systèmes pour la mise en cluster 29 3 Déployez le système d'exploitation (ainsi que les service packs et les correctifs appropriés), les pilotes des cartes réseau et des adaptateurs de stockage (y compris le logiciel MPIO) sur chacun des serveurs qui seront configurés comme nœuds du cluster. Suivant le mode de déploiement utilisé, une connexion réseau peut être nécessaire pour l'exécution correcte de cette étape. REMARQUE : vous pouvez enregistrer la configuration du cluster dans le formulaire technique du cluster afin de faciliter sa planification et son déploiement. Pour plus d'informations, voir « Formulaire technique du cluster » à la page 75 et « Fiche de configuration iSCSI » à la page 77. 4 Définissez la topologie du réseau physique et les paramètres TCP/IP des cartes réseau de chaque serveur pour l'accès aux réseaux public et privé du cluster. 5 Configurez chaque nœud de serveur en tant que membre du même domaine Active Directory Windows. REMARQUE : vous pouvez configurer les nœuds du cluster comme contrôleurs de domaine. Pour plus d'informations, consultez la section « Selecting a Domain Model » (Sélection d'un modèle de domaine) du manuel Dell Failover Clusters with Microsoft Windows Server 2008 Installation and Troubleshooting Guide (Guide d'installation et de dépannage des clusters de basculement Dell dans une installation Microsoft Windows Server 2008) sur le site support.dell.com/manuals. 6 Définissez la topologie physique du stockage ainsi que les paramètres requis du réseau de stockage afin de permettre la connectivité entre la matrice de stockage et les serveurs devant être configurés en tant que nœuds de cluster. Configurez le ou les systèmes de stockage à l'aide de la documentation s'y rapportant. 7 Utilisez les outils de gestion de matrices de stockage pour créer au moins un LUN (numéro d'unité logique). Le LUN est utilisé comme disque témoin pour le cluster de basculement Microsoft Windows Server 2008. Vérifiez que le LUN est présenté aux serveurs devant être configurés en tant que nœuds de cluster. REMARQUE : pour des raisons de sécurité, il est recommandé de configurer le LUN sur un seul nœud lors de la configuration du cluster, conformément à l'étape 8. Par la suite, vous pouvez adopter la configuration décrite à l'étape 9 pour permettre aux autres nœuds d'y accéder. 30 Préparation des systèmes pour la mise en cluster 8 Sélectionnez un des systèmes, puis formez un nouveau cluster de basculement en configurant son nom, son adresse IP de gestion et sa ressource quorum. Pour plus d'informations, voir « Préparation des systèmes pour la mise en cluster » à la page 29. REMARQUE : pour les clusters de basculement Windows Server 2008, exécutez Cluster Validation Wizard (Assistant Validation de cluster) pour vérifier que votre système est prêt à former le cluster. 9 Reliez le ou les nœuds restants au cluster de basculement. Pour plus d'informations, voir « Préparation des systèmes pour la mise en cluster » à la page 29. 10 Configurez les rôles des réseaux du cluster. Annulez le contrôle du cluster sur toute carte réseau utilisée pour le stockage iSCSI (ou à toute autre fin externe au cluster). 11 Testez les capacités de basculement de votre nouveau cluster. REMARQUE : vous pouvez également utiliser Cluster Validation Wizard (Assistant Validation de cluster). 12 Configurez les applications et services à haute disponibilité sur le cluster de basculement. Selon le type de configuration adopté, votre cluster peut nécessiter l'ajout de LUN supplémentaires ou la création d'autres groupes de ressources. Testez les capacités de basculement de ces nouvelles ressources. 13 Configurez l'accès des systèmes clients aux applications et services à haute disponibilité hébergés par le cluster de basculement. Préparation des systèmes pour la mise en cluster 31 Présentation de l'installation Chaque nœud d'un cluster de basculement Dell Windows Server doit être doté des mêmes versions, éditions, Service Packs et architectures de processeur que le système exécutant Windows Server. Par exemple, vous pouvez configurer tous les nœuds de votre cluster à l'aide de Windows Server 2008 R2, Enterprise Edition x64. Si le système d'exploitation change d'un nœud à l'autre, vous ne pourrez pas configurer correctement le cluster de basculement. Il est recommandé de définir les rôles système avant de configurer un cluster de basculement, en fonction du système d'exploitation qui y est installé. Pour obtenir une liste des systèmes d'exploitation, composants matériels et pilotes ou versions de micrologiciel recommandés pour le cluster de basculement Dell Windows Server, voir le document Dell Cluster Configuration Support Matrices (Tableaux des configurations prises en charge par les clusters Dell) sur le site dell.com/ha. Pour plus d'informations sur le déploiement d'un cluster sous Windows Server 2008, voir le document Dell Failover Clusters with Microsoft Windows Server 2008 Installation and Troubleshooting Guide (Guide d'installation et de dépannage des clusters de basculement Dell sous Microsoft Windows Server 2008) sur le site support.dell.com/manuals. Les sous-sections suivantes décrivent les étapes à effectuer pour permettre les communications entre les nœuds du cluster et la ou les matrices de stockage partagé MD3600i ou MD3620i, et pour présenter les disques de la matrice de stockage au cluster : 1 Installation des cartes réseau iSCSI 2 Installation de l'initiateur logiciel iSCSI Microsoft 3 Installation du logiciel de gestion de stockage 4 Configuration du système de stockage partagé 5 Configuration d'un cluster de basculement 32 Préparation des systèmes pour la mise en cluster Installation des cartes réseau iSCSI Il est recommandé d'installer la dernière version du pilote prise en charge. Si le pilote de carte réseau requiert l'installation de Service Packs ou de correctifs logiciels parallèlement au système d'exploitation, installez-les à ce stade. Pour obtenir une liste des systèmes d'exploitation, composants matériels et pilotes ou versions de micrologiciel recommandés pour le cluster de basculement Dell Windows Server, voir le document Dell Cluster Configuration Support Matrices (Tableaux des configurations prises en charge par les clusters Dell) sur le site dell.com/ha. Activation de la carte réseau TOE Le moteur TOE décentralise sur la carte réseau le traitement des paquets TCP/IP qui doivent être gérés par le(s) processeur(s) du système. Cette opération permet d'éliminer les goulots d'étranglement créés par les applications générant un trafic réseau important, ce qui allège la charge de travail du processeur et libère de la mémoire. Les cartes réseau dotées de cette fonction optimisent les performances du trafic iSCSI. REMARQUE : pour le trafic iSCSI, tous les nœuds de la solution cluster doivent utiliser des cartes réseau similaires (c'est-à-dire dotées ou dépourvues de la fonction TOE). Les solutions de cluster ne prennent pas en charge les configurations combinant ces deux types de cartes. Configuration des cartes réseau iSCSI Vous devez configurer l'adresse IP et les extrèmes de chaque port iSCSI connecté à la matrice de stockage. Les étapes à effectuer varient selon que vous utilisez un serveur DHCP (Dynamic Host Configuration Protocol) ou un adressage IP statique. REMARQUE : pour les communications réseau, les adresses IP du serveur doivent être configurées pour utiliser le même sous-réseau IP que les ports de gestion et iSCSI de la matrice de stockage. Si vous utilisez un serveur DHCP : 1 Cliquez sur Start→ Network (Démarrer → Réseau). 2 Sélectionnez Network and Sharing Center. (Centre de réseau et partage). Préparation des systèmes pour la mise en cluster 33 3 Sélectionnez Change adapter settings (Modifier les paramètres de l'adaptateur) (pour Windows Server 2008 R2) ou Gérer les connexions réseau (pour Windows Server 2008). 4 Effectuez un clic droit sur la connexion réseau à configurer, puis sélectionnez Properties (Propriétés). 5 Dans l'onglet Général (Général) (pour une connexion locale) ou Networking (Réseau) (pour toutes les autres connexions), sélectionnez Internet Protocol (Protocole Internet) (TCP/IP), puis sur Properties (Propriétés). 6 Sélectionnez Obtain an IP address automatically (Obtenir une adresse IP automatiquement), puis cliquez sur OK. Si vous utilisez l'adressage IP statique : 1 Cliquez sur Start→ Network (Démarrer → Réseau). 2 Sélectionnez Network and Sharing Center (Centre de réseau et partage). 3 Sélectionnez Change adapter settings (Modifier les paramètres de l'adaptateur) (pour Windows Server 2008 R2) ou Manage network connections (Gérer les connexions réseau) (pour Windows Server 2008). 4 Effectuez un clic droit sur la connexion réseau à configurer, puis sélectionnez Properties (Propriétés). 5 Dans l'onglet General (Général) (pour une connexion locale) ou Réseau (pour toutes les autres connexions), sélectionnez Internet Protocol (Protocole Internet) (TCP/IP), puis sur Properties (Propriétés). 6 Sélectionnez Use the following IP address (Utiliser l'adresse IP suivante) et entrez l'adresse IP, le masque de sous-réseau et les adresses de passerelle par défaut. Installation de l'initiateur logiciel iSCSI Microsoft L'initiateur iSCSI Microsoft est installé originairement sur Windows Server 2008. 34 Préparation des systèmes pour la mise en cluster Installation du logiciel de gestion de stockage Le programme d'installation des logiciels de stockage PowerVault MD3600i et MD3620i offre des fonctionnalités telles que les logiciels de base, les fournisseurs, ainsi que des utilitaires en option. Les logiciels de base comprennent l'agent de stockage hôte, le logiciel MPIO et l'application MDSM utilisée pour configurer, gérer et surveiller la solution de matrice de stockage. La fonction fournisseurs comprend un fournisseur pour les structures des services VDS (Microsoft Virtual Disk Service) et VSS (Microsoft Volume Shadow-Copy Service). L'utilitaire de configuration MDCU est un utilitaire optionnel qui permet une approche consolidée de la configuration des ports de gestion et des ports hôtes iSCSI, et de la création de sessions pour les matrices de stockage sur disques modulaires iSCSI. Il est recommandé d'utiliser l'utilitaire MDCU pour configurer l'interface iSCSI sur chaque hôte connecté aux systèmes PowerVault MD3600i ou MD3620i. REMARQUE : pour plus d'informations sur les fournisseurs des services Microsoft VDS et Microsoft VSS, voir le document Dell PowerVault MD3600i and MD3620i Storage Arrays Owner's Manual (Manuel du propriétaire des matrices de stockage Dell PowerVault MD3600i et MD3620i). Procédez comme suit pour installer le logiciel de gestion de stockage : 1 Avant d'installer tout nouvel élément logiciel, fermez tous les autres programmes. 2 Insérez le support PowerVault MD36xxi. En fonction des paramètres de sortie du système d'exploitation, vous verrez apparaître soit la fenêtre Dell PowerVault MD36xxi Resource DVD ou une invite pour l'exécution du fichier md_launcher.exe. Si le programme de lancement PowerVault MD ne s'affiche pas et qu'aucune invite ne vous demande d'exécuter le fichier md_launcher.exe, naviguez jusqu'à la racine du support et exécutez le fichier md_launcher.exe. 3 Sélectionnez Install MD36xxi Storage Software (Installer le logiciel de stockage MD36xxi). Préparation des systèmes pour la mise en cluster 35 4 Sélectionnez l'une des options d'installation suivantes : • Full (Complète - recommandée) : ce paquet permet d'installer le logiciel noyau, les fournisseurs et les utilitaires. II comprend l'agent de stockage hôte requis, le logiciel MPIO, MD Storage Manager, les fournisseurs et des utilitaires facultatifs. • Host Only (Hôte uniquement) : ce paquet comprend l'agent de stockage basé sur l'hôte, le logiciel MPIO et des utilitaires en option nécessaires à la configuration de l'hôte. • Management Station (Station de gestion) : ce paquet comprend MD Storage Manager, les fournisseurs et des utilitaires facultatifs. • Custom (Personnalisée) : cette option vous permet de sélectionner des composants spécifiques. 5 Redémarrez chaque serveur hôte. 36 Préparation des systèmes pour la mise en cluster Configuration du système de stockage partagé Avant d'entamer la configuration iSCSI, vous devez remplir la « Fiche de configuration iSCSI » à la page 77. La collecte ce type d'informations relatives au réseau en amont de la configuration permet de gagner du temps. Terminologie Le tableau suivant présente la terminologie utilisée dans la description des opérations de configuration iSCSI décrites dans la suite de cette section. Tableau 3-1. Terminologie standard utilisée pour la configuration iSCSI Terme Définition CHAP (Challenge Protocole de sécurité facultatif utilisé pour contrôler Handshake l'accès à un système de stockage iSCSI en limitant Authentication Protocol) l'utilisation des ports de données iSCSI, à la fois sur le serveur hôte et sur la matrice de stockage. hôte ou serveur hôte Serveur relié à la matrice de stockage via des ports iSCSI. port de serveur hôte Port iSCSI du serveur hôte utilisé pour la liaison avec la matrice de stockage. initiateur iSCSI Logiciel iSCSI spécifique installé sur le serveur hôte afin de contrôler les communications entre le serveur hôte et la matrice de stockage. port de stockage iSCSI Port iSCSI (deux par contrôleur) de la matrice de stockage. iSNS (Microsoft Internet Outil de détection automatique, de gestion et de Storage Naming Service) configuration utilisé par certains périphériques iSCSI. station de gestion Système à partir duquel vous gérez la configuration du serveur hôte et de la matrice de stockage. matrice de stockage Boîtier contenant les données de stockage auxquelles le serveur hôte accède. cible Port iSCSI de la matrice de stockage qui reçoit et traite les requêtes provenant de l'initiateur iSCSI installé sur le serveur hôte. Préparation des systèmes pour la mise en cluster 37 Fonctionnement de l'authentification CHAP Que signifie CHAP ? CHAP (Challenge Handshake Authentication Protocol) est une méthode d'authentification iSCSI facultative par laquelle la matrice de stockage (cible) authentifie les initiateurs iSCSI du serveur hôte. Deux types d'authentification CHAP sont pris en charge : authentification CHAP unidirectionnelle et authentification CHAP mutuelle. Authentification CHAP unidirectionnelle Lorsque cette méthode est utilisée, la matrice de stockage utilise une clé secrète CHAP pour authentifier toutes les demandes d'accès émises par le ou les initiateurs iSCSI du serveur hôte. Pour configurer ce type d'authentification, vous devez saisir une clé secrète CHAP sur la matrice de stockage, puis configurer chaque initiateur iSCSI du serveur hôte pour qu'il envoie cette clé secrète chaque fois qu'il tente d'accéder à la matrice de stockage. Authentification CHAP mutuelle En plus de l'authentification cible, vous pouvez utiliser le protocole CHAP de telle sorte que la matrice de stockage et l'initiateur iSCSI s'authentifient réciproquement. Pour utiliser ce type d'authentification, vous devez configurer l'initiateur iSCSI en définissant une clé secrète CHAP que la matrice de stockage doit envoyer au serveur hôte pour établir une connexion. Au cours de ce processus d'authentification mutuelle, la connexion n'est autorisée que si les informations renvoyées à la fois par le serveur hôte et par la matrice de stockage sont validées par l'autre partie. L'utilisation de l'authentification CHAP est facultative ; vous ne devez pas obligatoirement faire appel à ce protocole pour utiliser les fonctions iSCSI. Cependant, si l'authentification CHAP n'est pas configurée, tout serveur hôte connecté au même réseau IP que la matrice de stockage peut lire et écrire sur cette dernière. REMARQUE : si vous choisissez d'utiliser l'authentification CHAP, vous devez la configurer à la fois sur la matrice de stockage (à l'aide de MD Storage Manager) et sur le serveur hôte (à l'aide de l'initiateur iSCSI) avant de préparer les disques virtuels à la réception de données. Si vous préparez les disques à la réception de données avant de configurer l'authentification CHAP, vous perdrez toute visibilité sur ces disques une fois l'authentification CHAP configurée. 38 Préparation des systèmes pour la mise en cluster Définition des types d'authentification CHAP Pour résumer les différences entre les authentifications CHAP unidirectionnelle et mutuelle, voir le tableau 3-2. Tableau 3-2. Définition des types d'authentification CHAP Type d'authentification Description CHAP Authentification CHAP unidirectionnelle Définit des comptes que les initiateurs iSCSI utilisent pour se connecter à la matrice de stockage cible. La matrice de stockage cible authentifie les initiateurs iSCSI. Authentification CHAP mutuelle Appliquée en plus de l'authentification CHAP unidirectionnelle. L'authentification CHAP mutuelle permet de définir un compte qu'une matrice de stockage cible utilise pour se connecter à un initiateur iSCSI. L'initiateur iSCSI authentifie ensuite la cible. Utilisation d'iSNS (Internet Storage Naming Service Server) Grâce à iSNS (Internet Storage Naming Service Server), il n'est plus besoin de configurer manuellement chaque matrice de stockage individuelle avec une liste spécifique d'initiateurs et d'adresses IP cibles. En effet, iSNS détecte, gère et configure automatiquement tous les périphériques iSCSI faisant partie de l'environnement. Pour plus d'informations sur iSNS, notamment sur son installation et sa configuration, rendez-vous sur le site microsoft.com. Préparation des systèmes pour la mise en cluster 39 Configuration de l'interface iSCSI sur votre matrice de stockage à l'aide de l'utilitaire MDCU Les sections suivantes contiennent des instructions étape par étape pour la configuration de l'interface iSCSI sur la matrice de stockage à l'aide de l'utilitaire MDCU (Modular Disk Configuration Utility). Il est recommandé d'utiliser l'utilitaire MDCU pour la configuration de l'interface iSCSI. L'Assistant MDCU vous guide à travers les étapes de configuration décrites ci-dessus. Pour une configuration manuelle, voir la documentation des systèmes MD3600i et MD3620i. MDCU offre une approche consolidée pour la configuration du réseau iSCSI de serveurs hôtes et de matrices de stockage sur disques modulaires iSCSI (PowerVault MD36xxi) à l'aide d'une interface dotée d'assistants. Cet utilitaire vous permet également de configurer les sessions iSCSI du serveur hôte en suivant les meilleures pratiques et d'obtenir des chemins à équilibre de charge avec les ports hôtes iSCSI des matrices de stockage. Cet utilitaire est automatiquement lancé après l'installation de MDSM si vous avez sélectionné l'option Launch the MDCU After Reboot (Lancer l'utilitaire MDCU après le redémarrage). Il peut également être lancé manuellement. MDCU effectue les deux tâches suivantes : • Configuration de la matrice de stockage • Configuration de l'hôte Pour configurer la ou les matrices de stockage MD iSCSI à l'aide de l'utilitaire MDCU : 1 Si l'utilitaire ne s'est pas automatiquement lancé, démarrez-le à partir du serveur sur lequel vous avez accès aux ports de gestion de la ou des matrices de stockage à configurer. Cliquez sur Start→ All Programs→ Dell→ MD Storage Software→ Modular Disk Configuration Utility (Démarrer→ Tous les programmes→ Dell→ MD Storage Software→ Modular Disk Configuration Utility). 2 Cliquez sur Next (Suivant) pour continuer. 3 Sélectionnez Configure Modular Disk Storage Array (Configurer la matrice de stockage sur disque modulaire) puis cliquez sur Next (Suivant) pour continuer. 40 Préparation des systèmes pour la mise en cluster 4 Sélectionnez la méthode selon laquelle l'utilitaire doit détecter les matrices de stockage à configurer puis cliquez sur Next (Suivant). • Automatic Discovery (Détection automatique) : cette option permet de repérer sur le sous-réseau local toutes les matrices de stockage sur disques modulaires iSCSI, ce qui peut prendre plusieurs minutes. • Manual Discovery (Détection manuelle) : cette option permet de localiser les matrices de stockage sur disques modulaires iSCSI situées en dehors du sous-réseau local. Pour cela, vous devez indiquer si votre matrice de stockage comporte un contrôleur unique (simplex) ou deux contrôleurs (duplex), et si vous souhaitez utiliser le protocole IPv4 ou IPv6 pour communiquer avec le port de gestion de la matrice de stockage. REMARQUE : si le protocole de configuration dynamique d'hôte (DHCP) n'est pas utilisé, lors de la configuration initiale, configurez au moins une carte réseau sur le même sous-réseau IP que le port de gestion par défaut de la matrice de stockage (192.168.128.101 or 192.168.128.102). Une fois la configuration initiale terminée, les ports de gestion sont configurés à l'aide du logiciel MDSM et l'adresse IP de la station de gestion peut être redéfinie de manière à rétablir les paramètres antérieurs. 5 La fenêtre suivante affiche une liste de matrices de stockage MD iSCSI qui ont été identifiées grâce au processus de détection. Si vous avez sélectionné Automatic Discovery (Détection automatique), la fenêtre affiche la liste des matrices de stockage MD iSCSI détectées dans le sousréseau. Si vous avez sélectionné Manual Discovery, (Détection manuelle), la liste contient uniquement la matrice dont l'adresse IP a été saisie. Pour ajouter des matrices supplémentaires à la liste, cliquez sur Add (Ajouter). 6 Sélectionnez la matrice en cliquant sur le bouton radio de la matrice de stockage correspondante puis cliquez sur Next (Suivant). 7 Entrez le nom de la matrice de stockage et le mot de passe. Cliquez sur la case à cocher Set Password (Définir le mot de passe) si vous souhaitez choisir un nouveau mot de passe pour la matrice. Entrez le nouveau mot de passe dans les champs New Password (Nouveau mot de passe) et Confirm New Password (Confirmer le nouveau mot de passe). Cliquez sur Next (Suivant) pour continuer. Préparation des systèmes pour la mise en cluster 41 8 Sélectionnez le protocole IP (IPv4 ou IPv6) que les ports de gestion doivent utiliser. De plus, pour chaque protocole, choisissez si vous souhaitez que la configuration des adresses IP du port de gestion soit effectuée manuellement ou automatiquement. Reportez-vous à l'aide en ligne pour plus d'informations. Cliquez sur Next (Suivant) pour continuer. Si vous n'avez pas sélectionné Specify Configuration Manually (Spécifier la configuration manuellement) pour les deux protocoles, vous pouvez ignorer l'étape 9. 9 Si vous avez sélectionné Specify Configuration Manually pour l'un des deux protocoles à l'étape précédente, une série de fenêtres affichant une vue arrière des contrôleurs de la matrice de stockage est affichée. Chaque image contient les adresses IP des ports de gestion des contrôleurs. De plus, sur chaque image, un port de gestion apparaît en rouge. • Pour modifier l'adresse IPv4 du port mis en évidence, entrez l'adresse IP, le masque de sous-réseau et l'adresse de passerelle dans les champs situés en dessous de l'image. • Pour modifier l'adresse IPv6 du port mis en évidence, entrez l'adresse IP locale, l'IP routable et l'adresse IP du router dans les champs situés en dessous de l'image. Cliquez sur Next (Suivant) pour continuer à passer en revue ces images et ainsi terminer la configuration de tous les ports de gestion des protocoles sélectionnés. 10 Sélectionnez le protocole IP (IPv4 ou IPv6) que les ports iSCSI doivent utiliser. De plus, pour chaque protocole, choisissez si vous souhaitez que la configuration des adresses IP du port iSCSI soit effectuée manuellement ou automatiquement. Reportez-vous à l'aide en ligne pour plus d'informations. Sélectionnez la vitesse de port iSCSI appropriée dans le menu déroulant situé sous la section Protocole (1 G ou 10 G). Cette sélection doit être effectuée selon les vitesses de port prises en charge des périphériques connectés aux ports iSCSI de la matrice de stockage. Après avoir sélectionné les protocoles, la méthode de configuration et la vitesse de port, cliquez sur Suivant pour poursuivre. 42 Préparation des systèmes pour la mise en cluster Si vous n'avez pas sélectionné Specify Configuration Manually (Spécifier la configuration manuellement) pour les deux protocoles, vous pouvez ignorer l'étape 11. 11 Si vous avez sélectionné Specify Configuration Manually pour l'un des deux protocoles au cours de la dernière étape, une série d'écrans illustrant l'image de la vue arrière des contrôleurs de la matrice de stockage s'affiche. Chaque image contient les adresses IP des ports iSCSI des contrôleurs. De plus, un port iSCSI est en surbrillance rouge sur chaque image. Pour utiliser une adresse IPv4 du port en surbrillance, entrez l'adresse IP, le masque de sous-réseau et l'adresse de passerelle dans les champs affichés sous l'image pour la modifier. Pour utiliser une adresse IPv6 du port en surbrillance, entrez l'adresse IP locale, l'IP routable et l'adresse IP du routeur dans les champs affichés sous l'image pour la modifier. Cliquez sur Next (Suivant) pour continuer à passer en revue ces images et ainsi terminer la configuration de tous les ports iSCSI des protocoles sélectionnés. 12 Dans la fenêtre CHAP Configuration (Configuration de l'authentification CHAP), sélectionnez la méthode d'authentification CHAP puis cliquez sur Next (Suivant). Pour plus d'informations sur l'authentification CHAP, voir « Fonctionnement de l'authentification CHAP » à la page 38. 13 Dans la fenêtre Summary (Récapitulatif), passez en revue les informations que vous avez saisies pour la matrice de stockage. Cliquez sur Apply (Appliquer) pour sauvegarder les modifications apportées à la matrice de stockage. REMARQUE : cliquez sur Cancel Array (Annuler matrice) afin d'annuler la configuration de la matrice de stockage et retourner en arrière pour sélectionner une autre matrice de stockage à configurer. 14 Dans la fenêtre Configure Additional Arrays (Configuration de matrices supplémentaires), choisissez si vous souhaitez configurer une matrice supplémentaire. Cliquez sur Next (Suivant) pour continuer. 15 Si vous avez sélectionné Yes (Oui) à l'étape 14, recommencez la procédure de l'étape 4 à l'étape 13 pour la configuration d'une matrice supplémentaire. Préparation des systèmes pour la mise en cluster 43 16 Si vous avez sélectionné Non à l'étape 14, dans l'écran Configure Host Connectivity (Configurer la connectivité de l'hôte), indiquez si vous souhaitez configurer la connectivité de l'initiateur iSCSI de l'hôte actuel. Cliquez sur Next (Suivant) pour continuer. Si vous avez sélectionné No (Non) ci-dessus, vous avez terminé la tâche de configuration. Cliquez sur Finish (Terminer) pour fermer l'assistant. 17 Si vous avez sélectionné Yes (Oui) au cours de la dernière étape, l'écran Select Storage Array (Sélectionner une matrice de stockage) s'affiche. Sélectionnez la matrice de stockage que vous souhaitez configurer pour la connectivité à l'hôte local. REMARQUE : dans la liste de matrices de stockage, la mention Configuration Complete (Configuration terminée) figure en regard du nom de celles qui viennent d'être configurées par l'utilitaire. Ceci vous permet d'identifier les matrices prêtes à être configurées pour l'accès des systèmes hôtes. 18 Dans la fenêtre Storage Array Login (Connexion à la matrice de stockage), procédez comme suit : a Dans la colonne Controller# (N° de contrôleur), sélectionnez le port hôte iSCSI de la matrice de stockage que vous souhaitez configurer, ainsi que son ou ses adresses IP. b Dans la colonne Host Address (Adresse hôte), à partir du menu déroulant, sélectionnez l'adresse IP hôte qui doit se connecter au port hôte iSCSI de la matrice de stockage. c Cliquez sur Next (Suivant) si vous souhaitez entrer les informations de connexion d'un autre contrôleur, ou cliquez sur Apply (Appliquer) pour valider les informations de connexion. 19 Dans la fenêtre Connect to Additional Arrays (Connexion à des matrices supplémentaires), choisissez si vous souhaitez vous connecter à une autre matrice de stockage. Pour vous connecter à une autre matrice de stockage, répétez les étapes précédentes à partir de l'étape 17. Si vous ne souhaitez pas vous connecter à des matrices supplémentaires, cliquez sur Finish (Terminer) afin de quitter l'utilitaire. 44 Préparation des systèmes pour la mise en cluster Configurer la connectivité de l'hôte à l'aide de l'utilitaire MDCU Après avoir configuré les adresses IP de votre ou vos matrices de stockage iSCSI, exécutez cet utilitaire sur tous les hôtes devant accéder aux matrices de stockage. Pour configurer la connectivité de l'hôte d'une matrice de stockage iSCSI à l'aide de l'utilitaire MDCU, procédez comme suit : 1 Lancez l'utilitaire (s'il ne s'est pas lancé automatiquement) à partir du serveur qui a besoin d'être configuré pour accéder aux matrices de stockage. Ce serveur doit avoir accès à la matrice à l'aide des ports de gestion de celle-ci ou à l'aide des ports d'hôte iSCSI de la matrice. Pour Windows, cliquez sur Start→ All Programs→ Dell→ MD Storage Software→ Modular Disk Configuration Utility (Démarrer→ Tous les programmes→ Dell→ MD Storage Software→ Modular Disk Configuration Utility). Cliquez sur Next (Suivant) pour continuer. 2 Dans l'écran Configuration Task (Tâche de configuration), sélectionnez Configure Host (Configurer l'hôte), puis cliquez sur Next (Suivant). REMARQUE : cette tâche n'est pas prise en charge ou est désactivée si l'agent MDSM n'est pas installé sur l'hôte sur lequel l'utilitaire est exécuté. 3 Dans l'écran Discovery Method (Méthode de détection), sélectionnez une des méthodes de détection. • Si l'hôte a accès aux ports de gestion des matrices de stockage MD, sélectionnez la méthode Discover via Management Port (Détecter via un port de gestion), puis cliquez sur Next (Suivant). • Si l'hôte n'a pas accès aux ports de gestion de la matrice, sélectionnez la méthode Discover via iSCSI Port (Détecter via un port iSCSI) (en supposant que l'hôte a accès aux ports d'hôte iSCSI de la matrice de stockage), puis cliquez sur Next (Suivant). Passez à la section étape 6. 4 Sélectionnez la tâche de configuration Configure Modular Disk Storage Array (Configurer la matrice de stockage sur disques modulaires) puis cliquez sur Next (Suivant) pour continuer. 5 Sélectionnez la méthode que l'utilitaire doit utiliser pour détecter les matrices de stockage pour la configuration, puis cliquez sur Next (Suivant). Préparation des systèmes pour la mise en cluster 45 • Automatic Discovery (Détection automatique) : cette option permet de repérer sur le sous-réseau local toutes les matrices de stockage iSCSI, ce qui peut prendre plusieurs minutes. • Détection manuelle : la détection manuelle permet de localiser les matrices de stockage iSCSI situées hors du sous-réseau local. La détection manuelle exige la sélection du nombre de contrôleurs de la matrice de stockage : un (simplex) ou deux (duplex). Elle permet également de choisir d'utiliser le protocole IPv4 ou IPv6 pour communiquer avec le port de gestion de la matrice de stockage. Passez à la section étape 7. 6 Dans l'écran iSCSI Port IP Address (Adresse IP du port iSCSI), saisissez l'adresse IP IPv4 de n'importe quel port hôte iSCSI de la matrice à laquelle l'hôte peut se connecter ou saisissez l'adresse locale IPv6 de l'un des ports hôtes iSCSI. Cliquez sur Next (Suivant) pour continuer. 7 Dans l'écran Configuration CHAP, saisissez le secret CHAP si vous l'avez configuré pour la matrice de stockage. 8 Dans l'écran Storage Array Login (Connexion à la matrice de stockage), dans la colonne correspondant au numéro du contrôleur, sélectionnez le port hôte iSCSI de la matrice de stockage qui doit être configurée et son/ses adresse(s) IP. Dans la colonne Host Address (Adresse de l'hôte), dans la liste de menu déroulant, sélectionnez l'adresse IP d'hôte qui se connectera au port hôte iSCSI de la matrice de stockage. Voir « Sélection du port source pour les ports d'hôte iSCSI » à la page 47 pour plus d'informations sur la façon dont ces adresses IP d'hôte sont répertoriées dans le menu déroulant et les consignes de sélection des adresses IP d'hôte. Cliquez sur Next (Suivant) pour poursuivre la saisie des informations de connexion d'un autre contrôleur ou cliquez sur Apply (Appliquer) pour enregistrer les informations de connexion de la matrice. 9 Dans l'écran Connect to Additional Arrays (Connecter à des matrices supplémentaires), indiquez si vous souhaitez vous connecter à une autre matrice de stockage. Si vous souhaitez vous connecter à une autre matrice de stockage, répétez les étapes ci-dessus à partir de l'étape 4 ou 5, selon votre dernière sélection. Si vous ne souhaitez pas vous connecter à des matrices supplémentaires, cliquez sur Finish (Terminer) afin de quitter l'utilitaire. 46 Préparation des systèmes pour la mise en cluster Sélection du port source pour les ports d'hôte iSCSI Pour établir la communication des données entre un hôte et une matrice de stockage iSCSI, l'initiateur iSCSI sur l'hôte doit être configuré de façon à établir des sessions iSCSI vers les ports d'hôte iSCSI de la matrice de stockage. L'écran de connexion des ports iSCSI permet de spécifier les adresses IP d'hôte et de la matrice de stockage que l'initiateur iSCSI utilise pour établir ces sessions iSCSI. Sélection de connexion des ports Chaque port iSCSI de chaque contrôleur de la matrice de stockage se présente avec une liste des adresses IP d'hôte via lesquelles l'initiateur iSCSI peut se connecter. Les adresses IP d'hôte sont les adresses IP source et le port iSCSI est la cible. Chaque liste ne contient que les adresses IP d'hôtes qui peuvent communiquer avec le port iSCSI associé. Si aucune des adresses IP d'hôte ne peut communiquer avec un port iSCSI, l'option Not Available (Non disponible) est la seule affichée pour ce port iSCSI. Si aucune des adresses IP d'hôte ne peut communiquer avec un port iSCSI de l'un ou l'autre des ports iSCSI de n'importe lequel des contrôleurs de la matrice de stockage, l'option de configuration de l'hôte est annulée pour cette matrice de stockage. Sélection automatique L'utilitaire tente de trouver automatiquement et de sélectionner la meilleure configuration possible d'adresse(s) IP d'hôte et de ports iSCSI de la matrice de stockage pour des performances et une redondance optimales. L'objectif de cette sélection automatique est de garantir qu'une adresse IP d'hôte (jusqu'à deux adresses IP pour les matrices de stockage MD3000i/MD3020i et MD3600i/MD3620i, et jusqu'à quatre adresses IP pour les matrices de stockage MD3200i/MD3220i) établit une session iSCSI avec chaque contrôleur de matrice de stockage et que l'adresse IP d'hôte est connectée au plus à un port iSCSI par contrôleur. Une telle configuration assure la redondance et l'équilibrage de la charge parmi les multiples adresses IP d'hôte (cartes réseau). L'option Do Not Connect (Ne pas connecter) peut être sélectionnée comme option par défaut si l'utilitaire recommande de ne pas établir de connexion au port iSCSI. Par ailleurs, même si la meilleure configuration recommandée est présentée (lorsque c'est possible), vous pouvez toujours annuler cette configuration en sélectionnant les autres adresses IP d'hôte dans la liste déroulante. Préparation des systèmes pour la mise en cluster 47 Avertissements de configuration non optimale Un message d'avertissement s'affiche dans les cas suivants. Indiquez si vous souhaitez continuer. • Les adresses IP d'hôte sont sélectionnées de façon à ce qu'une adresse IP d'hôte établisse une session iSCSI avec un seul contrôleur de matrice de stockage dans une configuration à deux contrôleurs (duplex). • Les adresses IP d'hôte sont sélectionnées de façon à ce qu'une adresse IP d'hôte établisse deux sessions iSCSI ou plus avec le même contrôleur de matrice de stockage. Détection automatique de la matrice de stockage 1 Lancez MDSM. La fenêtre Enterprise Management (Gestion de l'ordinateur) apparaît. Elle contient les onglets suivants : • Onglet Devices (Périphériques) : fournit des informations concernant les matrices de stockage. • Onglet Setup (Configuration) : présente les tâches de configuration initiale qui vous guideront dans l'ajout de matrices de stockage et la configuration d'alertes. Si la matrice est la première que vous configurez, la fenêtre Add New Storage Array (Ajouter une nouvelle matrice de stockage) s'affiche. 2 Sélectionnez Automatic, puis cliquez sur OK. Le processus de détection peut prendre plusieurs minutes. Vous pouvez gérer la matrice en démarrant la fenêtre Array Management (Gestion de matrice) à partir de la fenêtre Enterprise Management (Gestion de l'ordinateur). La fenêtre Array Management propose plusieurs fonctions pour gérer une matrice de stockage. Pour en gérer plusieurs, vous pouvez ouvrir simultanément plusieurs fenêtres Array Management. Pour afficher la fenêtre Array Management (Gestion de matrice), cliquez sur l'onglet Devices (Périphériques) de la fenêtre Enterprise Management (Gestion de l'ordinateur) et double-cliquez sur la matrice de stockage adéquate. 48 Préparation des systèmes pour la mise en cluster Définition d'un hôte Si l'hôte exécute l'agent de contexte de système hôte, les hôtes et les ports hôtes connectés à la matrice de stockage sont automatiquement détectés par le logiciel MDSM ; ils sont affichés dans l'onglet Mappings (Mappages) de la fenêtre Array Management (Gestion de matrice), sous Default Group (Groupe par défaut). Lorsque le logiciel de stockage est installé, tous les hôtes s'affichent. Si l'un d'eux n'est pas détecté, il peut être ajouté manuellement : 1 Dans la fenêtre Array Management (Gestion des matrices), sélectionnez l'onglet Mappings (Mappages) puis la matrice de stockage appropriée. 2 Effectuez les actions suivantes : • Sélectionnez Mappings (Mappages)→ Define (Définir)→ Host (Hôte). • Sélectionnez l'onglet Setup (Configuration), et cliquez sur Manually Define Hosts (Définir des hôtes manuellement). • Sélectionnez l'onglet Mappings (Mappages). Effectuez un clic droit sur le nœud racine (nom de la matrice de stockage), le nœud Default Group (Groupe par défaut) ou le nœud Host Group (Groupe d'hôtes) dans le volet Topology auquel vous souhaitez ajouter l'hôte, puis sélectionnez Define Host (Définir un hôte) depuis le menu contextuel. La fenêtre Specify Host Name (Spécifier un nom d'hôte) s'affiche. 3 Dans Host Name (Nom d'hôte), entrez un nom alphanumérique de moins de 30 caractères. 4 Sélectionnez l'option adéquate dans le champ Do you plan to use the storage partitions in the this storage array? (Envisagez-vous d'utiliser les partitions de stockage dans cette matrice de stockage ?) puis cliquez sur Next (Suivant). La fenêtre Specify Host Port Identifiers (Indiquer les identificateurs du port hôte) s'affiche. Préparation des systèmes pour la mise en cluster 49 5 Sélectionnez l'option pertinente pour ajouter un identificateur de port hôte à l'hôte. Vous pouvez sélectionner : • Add by selecting a known unsolicited host port identifier (Ajouter en sélectionnant un identificateur de port d'hôte non associé connu) : dans Known unsolicited host port identifiers (Identificateurs de port d'hôte non associés connus), sélectionnez l'identificateur de port d'hôte pertinent. • Add by creating a new host port identifier (Ajouter en créant un nouvel identificateur de port d'hôte) : dans New host port identifier (Nouvel identificateur de port d'hôte), entrez un nom de 16 caractères et un Alias de moins de 30 caractères pour l'identificateur de port d'hôte, puis cliquez sur Add (Ajouter). REMARQUE : le nom de l'identificateur de port d'hôte ne peut contenir que des lettres de A à F. 6 Cliquez sur Next (Suivant). La fenêtre Specify Host Type (Spécifier le type d'hôte) s'affiche. 7 Dans Host Type (Type d'hôte), sélectionnez le système d'exploitation pertinent pour l'hôte. La fenêtre Host Group Question (Question relative au groupe d'hôtes) s'affiche. 8 Vous pouvez sélectionner : • Yes (Oui) : cet hôte partage l'accès aux mêmes disques virtuels avec d'autres hôtes. • No (Non) : cet hôte ne partage PAS l'accès aux mêmes disques virtuels avec d'autres hôtes. 9 Cliquez sur Next (Suivant). Si vous sélectionnez Yes, la fenêtre Specify Host Group (Spécifier le type d'hôte) s'affiche. Si vous sélectionnez No, passez à l'étape 11. 10 Entrez le nom du groupe d'hôtes ou sélectionnez un groupe d'hôtes existant et cliquez sur Next (Suivant). La fenêtre Preview (Aperçu) s'affiche. 11 Cliquez sur Finish (Terminer). 50 Préparation des systèmes pour la mise en cluster Création d'un groupe d'hôtes Un groupe d'hôtes est une entité logique composée de plusieurs hôtes partageant l'accès à des disques virtuels spécifiques de la matrice de stockage. Pour créer un groupe d'hôtes : 1 Dans la fenêtre Array Management (Gestion de matrice), sélectionnez l'onglet Mappings (Mappages). 2 Dans le volet Topology (Topologie), sélectionnez la matrice de stockage ou le groupe par défaut. 3 Effectuez l'une des actions suivantes : – Sélectionnez Mappings (Mappages)→ Define (Définir)→ Host Group (Groupe d'hôtes). – Cliquez avec le bouton droit sur la matrice de stockage ou Default Group (Groupe par défaut) et sélectionnez Define→ Host Group (Définir→ Groupe d'hôtes) dans le menu contextuel. 4 Entrez le nom du nouveau groupe d'hôtes dans le champ Enter New Host Group Name (Entrer un nouveau nom de groupe d'hôtes). 5 Sélectionnez les hôtes appropriés dans le champ Select Hosts to Add Area (Zone de sélection d'hôtes à ajouter), puis cliquez sur Add (Ajouter). 6 Cliquez sur OK. Le groupe d'hôtes est ajouté à la matrice de stockage. Création de groupes de disques et de disques virtuels Dans certains cas, des liaisons de disques virtuels peuvent avoir été prédéfinies en usine. Cependant, il est important d'installer le logiciel de gestion et de vérifier que la configuration des disques virtuels correspond bien à celle dont vous avez besoin. Vous pouvez gérer vos disques virtuels à distance avec PowerVault Modular Disk Storage Manager. Le nombre minimal de disques virtuels requis est de 1 pour une configuration de cluster actif/passif et de 2 pour une configuration de cluster actif/actif. Les groupes de disques sont créés dans l'espace non configuré de la matrice, alors que les disques virtuels sont créés dans l'espace disponible d'un groupe de disques. Les systèmes hôtes connectés à la matrice de stockage lisent et écrivent des données sur les disques virtuels. Préparation des systèmes pour la mise en cluster 51 REMARQUE : avant de créer des disques virtuels, vous devez organiser les disques physiques en groupes et définir les paramètres d'accès des systèmes hôtes. Vous pouvez ensuite créer des disques virtuels à l'intérieur d'un groupe de disques. Pour créer un disque virtuel, vous disposez de deux méthodes : • Configuration automatique • Configuration manuelle Créez des groupes de disques en utilisant la configuration automatique de la façon suivante : 1 Pour démarrer Create Disk Group Wizard (Assistant Création d'un groupe de disques), effectuez l'une des actions suivantes : 52 • Pour créer un groupe de disques à partir de l'espace non configuré de la matrice de stockage : dans l'onglet Logical (Logique), sélectionnez un nœud Unconfigured Capacity (Espace non configuré) et sélectionnez Disk Group→ Create (Groupe de disques→ Créer). Vous pouvez aussi cliquer avec le bouton droit de la souris sur le nœud Unconfigured Capacity (Espace non configuré) et sélectionner Create Disk Group (Créer un groupe de disques) dans le menu contextuel. • Pour créer un groupe de disques à partir de disques physiques non affectés sur la matrice de stockage : dans l'onglet Physical (Physique), sélectionnez un ou plusieurs disques physiques non affectés du même type puis sélectionnez Disk Group→ Create (Groupe de disques→ Créer). Vous pouvez aussi cliquer avec le bouton droit de la souris sur les disques physiques non affectés et sélectionner Create Disk Group (Créer un groupe de disques) dans le menu contextuel. Préparation des systèmes pour la mise en cluster • Pour créer un groupe de disques sécurisés : dans l'onglet Physical (Physique), sélectionnez un ou plusieurs disques physiques sécurisés et non affectés du même type, puis sélectionnez Disk Group→ Create (Groupe de disques→ Créer). Vous pouvez aussi cliquer avec le bouton droit de la souris sur les disques physiques sécurisés et non affectés, puis sélectionner Create Disk Group (Créer un groupe de disques) dans le menu contextuel. La fenêtre Create Disk Group (Création d'un groupe de disques) s'affiche. 2 Cliquez sur Next (Suivant). La fenêtre Disk Group Name and Physical Disk Selection (Nom du groupe de disques et sélection des disques physiques) s'affiche. 3 Entrez un nom (composé de 30 caractères maximum) pour le groupe de disques dans le champ Disk Group Name (Nom du groupe de disques). 4 Sélectionnez la méthode de configuration appropriée parmi les suivantes : – Automatic (Automatique) (voir l'étape 6) – Manual (Manuelle) (voir l'étape 7) 5 Cliquez sur Next (Suivant). 6 Si vous avez sélectionné la configuration automatique, la fenêtre RAID Level and Capacity (Niveau RAID et capacité) s'affiche. a Sélectionnez le niveau RAID approprié dans le champ Select RAID Level (Sélection du niveau RAID). Vous pouvez sélectionner les niveaux RAID 0, 1/10, 6 et 5. En fonction de votre sélection, les disques physiques disponibles sont affichés dans le tableau Select Capacity (Sélection de la capacité). b Dans le tableau Select Capacity (Sélection de la capacité), sélectionnez la capacité du groupe de disques puis cliquez sur Finish (Terminer). 7 Si vous avez sélectionné la configuration manuelle, la fenêtre Manual Physical Disk Selection (Sélection manuelle des disques physiques) s'affiche. a Sélectionnez le niveau RAID approprié dans le champ Select RAID Level (Sélection du niveau RAID). Vous pouvez sélectionner les niveaux RAID 0, 1/10, 6 et 5. En fonction de votre sélection, les disques physiques disponibles sont affichés dans le tableau Unselected Physical Disks (Disques physiques non sélectionnés). Préparation des systèmes pour la mise en cluster 53 b Dans le tableau Unselected Physical Disks (Disques physiques non sélectionnés), sélectionnez les disques physiques appropriés puis cliquez sur Add (Ajouter). REMARQUE : pour sélectionner plusieurs disques physiques simultanément, maintenez les touches <Ctrl> ou <Maj> enfoncées tout en sélectionnant des disques physiques supplémentaires. 8 Cliquez sur Calculate Capacity (Calculer la capacité) pour afficher la capacité du nouveau groupe de disques. 9 Cliquez sur Finish (Terminer). Un message s'affiche pour confirmer que le groupe de disques a été créé et que vous devez créer au moins un disque virtuel avant de pouvoir utiliser la capacité du nouveau groupe de disques. Pour créer des disques virtuels : 1 Choisissez l'une des méthodes suivantes pour démarrer Create Virtual Disk Wizard (Assistant Création de disque virtuel) : 54 • Pour créer un disque virtuel à partir de l'espace non configuré dans la matrice de stockage : dans l'onglet Logical (Logique), sélectionnez un nœud Unconfigured Capacity (Espace non configuré), puis Virtual Disk→ Create (Disque virtuel→ Créer). Vous pouvez aussi cliquer avec le bouton droit de la souris sur le nœud Unconfigured Capacity (Espace non configuré) et sélectionner Create Virtual Disk (Créer un disque virtuel) dans le menu contextuel. • Pour créer un disque virtuel à partir de l'espace disponible sur un groupe de disques : dans l'onglet Logical (Logique), sélectionnez un nœud Free Capacity (Espace disponible), puis Virtual Disk→ Create (Disque virtuel→ Créer). Vous pouvez aussi cliquer avec le bouton droit de la souris sur le nœud Free Capacity (Espace disponible) et sélectionner Create Virtual Disk (Créer un disque virtuel) dans le menu contextuel. • Pour créer un disque virtuel à partir de disques physiques non affectés sur la matrice de stockage : dans l'onglet Physical (Physique), sélectionnez un ou plusieurs disques physiques non affectés du même type puis sélectionnez Virtual Disk→ Create (Disque virtuel→ Créer). Vous pouvez aussi cliquer avec le bouton droit de la souris sur les disques physiques non affectés et sélectionner Create Virtual Disk (Créer un disque virtuel) dans le menu contextuel. Préparation des systèmes pour la mise en cluster • Pour créer un groupe de disques sécurisés : dans l'onglet Physical (Physique), sélectionnez un ou plusieurs disques physiques sécurisés et non affectés du même type, puis sélectionnez Virtual Disk→ Create (Disque virtuel→ Créer). Vous pouvez aussi cliquer avec le bouton droit de la souris sur les disques physiques sécurisés et non affectés, puis sélectionner Create Virtual Disk (Créer un disque virtuel) dans le menu contextuel. Si vous avez choisi un nœud Unconfigured Capacity (Espace non configuré) ou des disques physiques non affectés pour la création du disque virtuel, la fenêtre Disk Group Required (Groupe de disques requis) s'affiche. Cliquez sur Yes (Oui) et créez un groupe de disques en utilisant Create Disk Group Wizard (Assistant Création d'un groupe de disques). Lorsque vous avez créé le groupe de disques, l'assistant de création de disque virtuel s'affiche. Si vous avez choisi un nœud Free Capacity (Espace disponible), la fenêtre Create Virtual Disk (Création de disque virtuel) s'affiche. 2 Cliquez sur Next (Suivant). La fenêtre Specify Capacity /Name (Spécification de la capacité / du nom) s'affiche. 3 Sélectionnez l'unité appropriée de mémoire dans la liste déroulante Units (Unités) puis entrez la capacité du disque virtue dans le champ New Virtual Disk Capacity (Capacité du nouveau disque virtuel). 4 Entrez un nom (composé de 30 caractères maximum) pour le disque virtuel dans le champ Virtual Disk Name (Nom du disque virtuel). 5 Dans le champ Advanced Virtual Disk Parameters (Paramètres avancés du disque virtuel), vous pouvez sélectionner : – Use recommended settings (Utiliser les paramètres recommandés). – Customize settings (Personnaliser les paramètres). 6 Cliquez sur Next (Suivant). 7 Dans la fenêtre Customize Advanced Virtual Disk Parameters (Personnalisation des paramètres avancés du disque virtuel), sélectionnez le type approprié de caractéristiques d'E/S du disque virtuel, parmi les options suivantes : – File system (typical) (Système de fichiers, option standard) – Database (Base de données) – Multimedia – Custom (Personnalisé) Préparation des systèmes pour la mise en cluster 55 REMARQUE : si vous sélectionnez Custom (Personnalisé), vous devez choisir une taille de segment appropriée. 8 Sélectionnez le module de contrôleur RAID préféré adéquat. Pour plus d'informations sur la création de groupes de disques et de disques virtuels, consultez le manual Dell PowerVault Modular Disk Storage Manager User’s Guide (Dell PowerVault Modular Disk Storage Manager - Guide d'utilisation) sur le site support.dell.com/manuals. Il est recommandé de créer au moins un disque virtuel pour chaque application. Si plusieurs volumes NTFS sont créés sur un seul disque virtuel à l'aide de la fonction Windows Disk Management (Gestion des disques de Windows), ils basculeront ensemble et non individuellement d'un nœud à l'autre. REMARQUE : Dell conseille d'utiliser un niveau RAID autre que RAID 0 (aussi appelé « striping » ou « agrégation par bande »). Ce dernier offre en effet des performances optimales, mais ne garantit pas le niveau de disponibilité requis pour la ressource quorum. Voir la documentation du système de stockage pour obtenir des informations supplémentaires sur la configuration des niveaux RAID du système. Création de mappages entre systèmes hôtes et disques virtuels Pour créez des mappages entre systèmes hôtes et disques virtuels et attribuer ainsi des disques virtuels aux groupes de systèmes hôtes contenant des nœuds de cluster, procédez comme suit : 1 Dans la fenêtre Array Management (Gestion de matrice), sélectionnez l'onglet Mappings (Mappages). 2 Dans le volet Topology (Topologie), sélectionnez : – Default Group (Groupe par défaut) – Undefined Mappings Node (Nœud de mappages non définis) – Individual Defined Mapping (Mappage défini individuel) – Host Group (Groupe de systèmes hôtes) – Host (Hôte) 3 Dans la barre d'outils, sélectionnez Mappings→ Define→ Additional Mapping (Mappages→ Définir→ Mappage supplémentaire). La fenêtre Define Additional Mapping (Définir un mappage supplémentaire) s'affiche. 56 Préparation des systèmes pour la mise en cluster 4 Sélectionnez le groupe d'hôtes approprié dans le champ Host Group (Groupe d'hôtes) ou Host (Hôte). 5 Dans le champ Logical Unit Number (Numéro d'unité logique), sélectionnez un LUN. Les LUN de 0 à 255 sont pris en charge. 6 Dans la section Virtual Disk (Disque virtuel), sélectionnez le disque virtuel à mapper. La section Virtual Disk (Disque virtuel) répertorie les noms et la capacité des disques virtuels disponibles pour le mappage, en fonction de l'hôte ou du groupe d'hôtes sélectionné. 7 Cliquez sur Add (Ajouter). REMARQUE : le bouton Add (Ajouter) reste inactif tant qu'un hôte ou groupe d'hôtes, qu'un LUN et qu'un disque virtuel ne sont pas sélectionnés. 8 Pour définir des mappages supplémentaires, répétez la procédure de l'étape 4 à l'étape 7. REMARQUE : lorsqu'un disque virtuel a été mappé une fois, il n'est plus disponible dans la zone Virtual Disk (Disque virtuel). 9 Cliquez sur Close (Fermer). Les mappages sont enregistrés. Les volets Topology (Topologie) et Defined Mappings (Mappages définis) de l'onglet Mappings (Mappages) sont mis à jour afin d'afficher les différents mappages. Outils de dépannage Dell PowerVault MDSM communique avec chaque matrice gérée et détermine son état actuel. Il offre également plusieurs outils de résolution des incidents. Journal d'événements L'Event Log Viewer (Visualiseur de journal d'événements) permet d'afficher une liste détaillée d'événements se produisant dans la matrice de stockage. Le journal d'événements est stocké dans des zones réservées sur les disques de la matrice de stockage. Celui-ci enregistre les événements de configuration et les échecs de composants de la matrice de stockage. PRÉCAUTION : n'utilisez cette option qu'avec l'aide d'un représentant du support technique. Préparation des systèmes pour la mise en cluster 57 Le journal d'événements stocke approximativement 8 000 événements avant d'en remplacer un par un nouveau. Si vous souhaitez garder une trace des événements, vous pouvez les sauvegarder ; sinon, vous pouvez les supprimer du journal. La fenêtre Event Log (Journal d'événements) propose les types de vues suivants : • Vue récapitulative : affiche un récapitulatif des événements sous la forme d'un tableau. • Vue détaillée : affiche les détails d'un événement sélectionné. Pour afficher le journal d'événements : 1 Dans la fenêtre Array Management (Gestion des matrices), sélectionnez Advanced→ Troubleshooting→ View Event Log (Avancé→ Dépannage→ Afficher le journal d'événements). La fenêtre Event Log (Journal d'événements) s'affiche. Par défaut, la vue récapitulative est proposée. 2 Sélectionnez View Details (Afficher les détails) afin d'afficher les détails de chaque entrée de journal sélectionnée. Un volet Detail (Détails), contenant des informations sur l'élément de journal, est ajouté au journal d'événements. Vous pouvez afficher les détails d'une seule entrée de journal à la fois. 3 Pour sauvegarder le journal d'événements : a Cliquez sur Save As (Enregistrer sous). La boîte de dialogue Save Events (Sauvegarde d'événements) s'affiche. b Naviguez jusqu'au dossier approprié puis entrez le nom du fichier à sauvegarder. c Cliquez sur Save (Enregistrer). 4 Cliquez sur Clear All (Tout effacer) pour effacer toutes les entrées du journal d'événements. 5 Cliquez sur Close (Fermer) afin de quitter le journal d'événements. Pour plus d'informations, reportez-vous aux rubriques d'aide en ligne de PowerVault Modular Disk Storage Manager. 58 Préparation des systèmes pour la mise en cluster Recovery Guru Recovery Guru est un composant de MDSM qui diagnostique les événements critiques survenus sur la matrice de stockage et propose des procédures de récupération étape par étape. Pour afficher la fenêtre Recovery Guru à partir de la fenêtre Array Management (Gestion des matrices), effectuez l'une des actions suivantes : • Cliquez sur Recovery Guru. • Dans l'onglet Support, cliquez sur Recover from Failure (Récupération après incident). • Dans le volet Status (État) de l'onglet Summary (Récapitulatif), cliquez sur Storage Array Needs Attention (Intervention requise sur la matrice de stockage). Les incidents sont signalés par les indicateurs suivants : • Icônes d'état autre que « Optimal » • Notifications d'alertes envoyées aux destinataires appropriés • Voyants des composants matériels Les icônes d'état indiquent de nouveau « Optimal » une fois les problèmes résolus. Profil de stockage Le profil de matrice de stockage offre une description de tous les composants et de toutes les propriétés de la matrice de stockage. Il permet aussi d'enregistrer les informations du profil de la matrice de stockage dans un fichier texte. Il peut également être utilisé comme aide lors d'une récupération ou présenter la configuration actuelle de la matrice de stockage. Si cette configuration change, créez une copie du profil de la matrice de stockage. 1 Pour ouvrir le profil de la matrice de stockage dans la fenêtre Array Management (Gestion de matrice), effectuez l'une des opérations suivantes : – Sélectionnez Storage Array→ View→ Profile (Matrice de stockage→ Vue→ Profil). Préparation des systèmes pour la mise en cluster 59 – Sélectionnez l'onglet Summary (Récapitulatif) et cliquez sur Storage Array Profile (Profil de matrice de stockage) dans la zone Status (État). – Sélectionnez l'onglet Support puis cliquez sur View Storage Array Profile (Afficher le profil de la matrice de stockage). La fenêtre Storage Array Profile (Profil de matrice de stockage) s'affiche. Cette fenêtre contient plusieurs onglets, et l'intitulé de chacun d'eux correspond au thème des informations qu'il contient. 2 Dans la fenêtre Storage Array Profile (Profil de matrice de stockage), vous pouvez effectuer l'une des opérations suivantes : – Afficher les informations détaillées (Voir l'étape 3) – Explorer le profil de la matrice de stockage (Voir l'étape 4) – Enregistrer le profil de la matrice de stockage (Voir l'étape 5) – Fermer le profil de la matrice de stockage (Voir l'étape 6) 3 Sélectionnez l'un des onglets et utilisez les barres déroulantes horizontale et verticale pour afficher les informations de profil de la matrice de stockage. Les autres étapes de cette procédure vous permettront d'explorer, d'enregistrer ou de fermer le profil de la matrice de stockage. 4 Pour explorer le profil de la matrice de stockage, procédez comme suit : a Cliquez sur Find (Rechercher). b Dans la zone de texte Find, entrez le terme que vous recherchez. Si le terme est situé dans l'onglet ouvert, il est mis en évidence dans les informations du profil de la matrice de stockage. REMARQUE : la recherche se limite à l'onglet ouvert. Si vous souhaitez rechercher le terme dans un autre onglet, sélectionnez-le et cliquez de nouveau sur le bouton Find (Rechercher). c Cliquez de nouveau sur le bouton Find (Rechercher) pour rechercher de nouvelles occurrences du terme. 5 Pour enregistrer le profil de la matrice de stockage, procédez comme suit : 60 a Cliquez sur Save As (Enregistrer sous). b Pour enregistrer toutes les sections du profil de la matrice de stockage, sélectionnez All Sections (Toutes les sections). Préparation des systèmes pour la mise en cluster c Pour enregistrer des informations de certaines sections seulement du profil de la matrice de stockage, sélectionnez l'option Select Sections (Sélection de sections) puis cochez les cases correspondant aux sections à enregistrer. d Sélectionnez un répertoire. e Dans le champ File Name (Nom du fichier), entrez le nom de fichier que vous souhaitez. Pour associer ce fichier avec une application logicielle spécifique, indiquez une extension de fichier, par exemple .text. REMARQUE : le fichier est enregistré en tant que texte ASCII. f Cliquez sur Save (Enregistrer). 6 Pour quitter le profil de la matrice de stockage, cliquez sur Close (Fermer). Icônes d'état Les icônes d'état indiquent les six conditions d'état possibles de la matrice de stockage. Lorsqu'une icône affiche un état autre qu'optimal, utilisez Recovery Guru pour détecter et résoudre l'incident. Les six conditions d'état possibles sont les suivantes : • Optimal : chaque composant de la matrice gérée se trouve dans un état de fonctionnement correct. • Needs Attention (Intervention requise) : un incident s'est produit et nécessite une intervention. • Fixing (Résolution en cours) : une condition Needs Attention (Intervention requise) a été corrigée et la matrice revient actuellement à l'état Optimal. • Unresponsive (Ne répond pas) : la station de gestion ne peut pas communiquer avec la matrice ou avec un de ses contrôleurs, voire les deux. Après une récupération, attendez au moins 5 minutes avant que la matrice de stockage ne revienne à l'état Optimal. • Unsupported (Non pris en charge) : le nœud n'est pas pris en charge par cette version de MDSM. • Software Unsupported (Logiciel non pris en charge) : la matrice de stockage exécute une version de logiciel qui n'est plus prise en charge par MDSM. Préparation des systèmes pour la mise en cluster 61 Configuration du niveau RAID du sous-système de stockage partagé Les disques virtuels du sous-système de stockage partagé doivent être configurés en groupes de disques ou en disques virtuels à l'aide du logiciel Dell PowerVault MDSM. Tous les disques virtuels, surtout s'ils sont utilisés pour la ressource quorum, doivent être liés et intégrer le niveau RAID voulu pour garantir une haute disponibilité. REMARQUE : Dell conseille d'utiliser un niveau RAID autre que RAID 0 (aussi appelé « striping » ou « agrégation par bande »). Ce dernier offre en effet des performances optimales, mais ne garantit pas le niveau de disponibilité requis pour la ressource quorum. Voir la documentation du système de stockage pour savoir comment configurer les niveaux RAID du système. Système d'exploitation Windows et volumes dynamiques Le système d'exploitation Windows ne prend pas en charge les volumes ou les disques dynamiques (disques mis à niveau) définis comme clusters de stockage partagés. Si une ressource partagée est configurée en tant que disque dynamique, l'Assistant de configuration de cluster ne peut pas détecter les disques, ce qui empêche le cluster et les clients du réseau d'y accéder. Attribution de lettres de lecteurs et de points de montage Un point de montage est un lecteur associé à un dossier vide se trouvant sur un volume NTFS. Un point de montage fonctionne de la même façon qu'un lecteur normal, mais il est désigné par un nom (appelé « label ») au lieu d'une lettre. Son utilisation dans un cluster permet de gérer plus de disques partagés qu'il n'existe de lettres de lecteurs disponibles. L'ajout du point de montage aux disques gérés par le cluster ne s'effectue pas automatiquement lors de l'installation de ce dernier. Pour chaque point de montage à ajouter au cluster, vous devez créer une ressource de disque physique dans le groupe de ressources du cluster. Vérifiez que la nouvelle ressource de disque physique se trouve dans le même groupe de ressources du cluster et qu'elle dépend du disque racine (c'est-à-dire le disque auquel le point de montage est rattaché). REMARQUE : lorsque vous montez un lecteur dans un volume NTFS, ne créez pas de point de montage à partir de la ressource quorum, ni entre les disques du cluster et les disques locaux. Les points de montage doivent faire partie du même groupe de ressources du cluster et être dépendants du disque racine. 62 Préparation des systèmes pour la mise en cluster Attribution de noms et formatage des lecteurs du système de stockage partagé Chaque disque virtuel créé sous PowerVault Modular Disk Storage Manager devient un disque physique dans l'interface Gestion des disques de Windows. Pour chaque disque physique, vous devez effectuer les opérations suivantes : • Entrer la signature du disque • Créer la partition • Affecter la lettre de lecteur • Formater la partition avec NTFS PRÉCAUTION : si les lettres d'unité sont attribuées manuellement à partir du second nœud, les disques partagés sont accessibles simultanément à partir des deux nœuds. Pour garantir l'intégrité du système de fichiers et éviter tout risque de perte de données avant d'installer le logiciel Microsoft Failover Clustering, empêchez toute activité d'E/S vers les lecteurs partagés. Pour ce faire, exécutez la procédure ci-après sur un seul nœud à la fois, en vérifiant que l'autre nœud est arrêté. Le nombre de lettres de lecteurs requis par chaque serveur d'un cluster est variable. Il est recommandé d'attribuer les lettres des lecteurs partagés par ordre alphabétique inversé (commencer par z). Pour attribuer des lettres de lecteurs et formater les disques du système de stockage partagé, procédez comme suit : 1 Arrêtez le nœud 2 et ouvrez Disk Management (Gestion des disques) sur le nœud 1. 2 Laissez Windows entrer une signature sur tous les nouveaux disques logiques ou physiques. REMARQUE : abstenez-vous de mettre à niveau ou de convertir vos disques en disques dynamiques. 3 Recherchez l'icône correspondant au premier lecteur non nommé et non formaté du système de stockage partagé. 4 Cliquez avec le bouton droit sur cette icône et sélectionnez Create (Créer) dans le sous-menu. Si les disques non formatés ne sont pas visibles, vérifiez : • que les connexions cibles de l'initiateur iSCSI Initiator sont actives. • que les LUN ont été affectés aux systèmes hôtes. • que le système de stockage est correctement relié aux serveurs. Préparation des systèmes pour la mise en cluster 63 5 Dans la boîte de dialogue, créez une partition d'une taille égale à celle du disque (choix par défaut) et cliquez sur OK. REMARQUE : dans Windows, les disques virtuels adressés ou affectés à un ou plusieurs nœuds à partir du système de stockage sont représentés sous forme de disques physiques dans chaque nœud. Microsoft Cluster autorise un seul nœud à la fois à accéder à une ressource de disque physique spécifique. Par conséquent, si un disque est partitionné et contient plusieurs volumes NTFS, l'accès simultané à plusieurs volumes n'est possible qu'à partir du nœud qui contrôle la ressource de disque physique. Si deux volumes NTFS doivent être contrôlés par des nœuds différents, ces volumes doivent résider sur des disques distincts. 6 Cliquez sur Yes (Oui) pour confirmer la partition. 7 Pointez avec la souris sur la même icône, faites un clic droit et sélectionnez Change Drive Letter and Path (Modifier la lettre de lecteur et le chemin d'accès) dans le sous-menu. 8 Attribuez une lettre à un volume NTFS ou créez un point de montage. Pour attribuer une lettre de lecteur à un volume NTFS : a Cliquez sur Edit (Modifier) et sélectionnez la lettre que vous souhaitez attribuer au lecteur (z, par exemple). b Cliquez sur OK. c Passez à l'étape 9. Pour créer un point de montage : a Cliquez sur Add. (Ajouter). b Cliquez sur Mount (Monter) dans le dossier NTFS vide suivant. c Tapez le chemin d'accès d'un dossier vide sur un volume NTFS ou cliquez sur Browse (Parcourir) pour le sélectionner dans l'arborescence. d Cliquez sur OK. e Passez à l'étape 9. 9 Cliquez sur Oui pour confirmer la partition. 10 Faites de nouveau un clic droit sur l'icône du lecteur et sélectionnez Format (Formater) dans le sous-menu. 11 Sous Volume Label (Nom de volume), entrez un nom décrivant le nouveau volume, par exemple Disque_Z ou Mails. 64 Préparation des systèmes pour la mise en cluster 12 Dans la boîte de dialogue, remplacez le système de fichiers par NTFS, sélectionnez Quick Format (Formatage rapide), puis cliquez sur Start (Démarrer). REMARQUE : le format du système de fichiers NTFS est requis pour les ressources de disque partagé sous Microsoft Cluster. 13 Cliquez sur OK lorsque l'avertissement s'affiche. 14 Cliquez sur OK pour confirmer la fin du formatage. 15 Cliquez sur Fermer pour fermer la boîte de dialogue. 16 Recommencez la procédure décrite de l'étape 3 à l'étape 15 pour chaque lecteur restant. 17 Fermez Disk Management (Gestion des disques). 18 Arrêtez le nœud 1. 19 Activez le nœud 2. 20 Sur le nœud 2, ouvrez Disk Management (Gestion des disques). 21 Vérifiez que les lettres de lecteurs définies pour le nœud 2 sont correctes et modifiez les affectations, si nécessaire. Pour réattribuer une lettre de lecteur, répétez la procédure décrite de l'étape 7 à l'étape 9. Utilisation des fonctions avancées (Premium) de PowerVault Modular Disk Storage Manager PowerVault Modular Disk Storage Manager propose les fonctions avancées suivantes : • Cliché de disque virtuel • Copie de disque virtuel Pour installer et activer ces fonctions Premium, vous devez acheter un fichier de clé pour chaque fonction, puis définir la matrice de stockage qui doit les héberger. Pour plus d'informations, reportez-vous à la carte Premium Feature Activation (Activation des fonctions Premium) fournie avec le système de stockage Dell PowerVault MD3600i or MD3620i. Ces fonctions Premium étendent la haute disponibilité de la solution de cluster. En outre, pour garantir le bon fonctionnement du cluster, vous devez impérativement suivre les instructions ci-dessous. Préparation des systèmes pour la mise en cluster 65 Cliché de disque virtuel La fonction de cliché de disque virtuel permet de capturer une image à l'instant T d'un disque virtuel pour les sauvegardes, les tests ou le traitement de données, sans que cela n'ait d'incidence sur le contenu du disque virtuel source. Pour créer un tel cliché, vous pouvez utiliser l'option de chemin simple ou avancé. Le cliché de disque virtuel peut être mappé sur le nœud principal (propriétaire du disque source) ou sur le nœud secondaire (non propriétaire du disque source) pour les sauvegardes, les tests ou le traitement de données. PRÉCAUTION : évitez de mapper le cliché de disque virtuel sur plus d'un nœud à la fois dans le cluster. Ce cliché n'est pas géré par le gestionnaire de cluster de basculement. Par conséquent, si vous le mappez sur le groupe de systèmes hôtes ou sur les deux nœuds du cluster, plusieurs systèmes pourront accéder aux données simultanément, et ces dernières risquent d'être endommagées. Vous pouvez utiliser le service VSS de Microsoft (Volume Shadow-copy Service) pour créer et mapper des clichés. Si vous utilisez plutôt MDSM, vous devez suivre les procédures décrites ci-dessous. Pour mapper le cliché sur le nœud principal, procédez comme suit : 1 Sous Modular Disk Storage Manager, créez le mappage entre le système hôte et le disque virtuel. Vous vous assurez ainsi qu'une signature distincte sera correctement attribuée au cliché de disque virtuel. 2 Utilisez la fonction de gestion des disques de Windows pour détecter le cliché de disque virtuel, lui attribuer une lettre et accéder au lecteur correspondant. REMARQUE : les disques peuvent être analysés plusieurs fois avant que le cliché de disque virtuel ne soit détecté. S'il ne l'est pas, attendez quelques minutes et relancez l'analyse. Recommencez la procédure jusqu'à ce que le cliché soit détecté. Ne redémarrez pas le serveur. Si vous devez mapper le cliché de disque virtuel sur le nœud secondaire (non propriétaire du disque source), vous devez d'abord le mapper sur le nœud principal pour faire en sorte qu'une nouvelle signature de disque lui soit affectée. Ensuite, utilisez Modular Disk Storage Manager pour supprimer le mappage entre le cliché et le nœud principal, créer le mappage sur le nœud secondaire et accéder au lecteur correspondant. 66 Préparation des systèmes pour la mise en cluster PRÉCAUTION : si vous essayez de mapper le cliché de disque virtuel sur le nœud secondaire avant d'obtenir la signature à partir du nœud principal, il est possible que le système d'exploitation identifie à tort ce cliché comme étant un volume de disque existant. Dans ce cas, vous risquez de perdre des données et de ne plus pouvoir accéder au cliché. REMARQUE : pour une configuration de cluster avec plusieurs clichés de disques virtuels, chaque disque doit d'abord être mappé sur le nœud propriétaire du disque source associé. Le nœud principal correspondant à un cliché de disque virtuel n'est pas forcément le même que celui d'un autre cliché. Copie de disque virtuel Cette fonction copie l'intégralité des données entre un disque virtuel source et un disque virtuel cible d'une matrice de stockage. Vous pouvez l'utiliser pour effectuer différentes opérations : sauvegarde des données, copie des données à partir de groupes de disques de faible capacité vers d'autres de capacité supérieure, restauration des données d'un cliché sur le disque virtuel source. Pour créer une copie de disque virtuel d'un disque partagé sur un cluster Microsoft Cluster, procédez comme suit : 1 Créez un cliché de disque virtuel en utilisant le disque partagé du cluster comme disque source. 2 Ne mappez pas ce cliché au nœud du cluster. Utilisez ensuite ce nouveau cliché comme disque source pour la copie. REMARQUE : lorsque vous essayez de créer directement une copie de disque virtuel d'un disque partagé du cluster Microsoft, l'opération échoue et affiche l'erreur suivante : The operation cannot complete because the selected virtual disk is not a source virtual disk candidate. (L'opération n'a pas pu être effectuée car le disque virtuel sélectionné n'est pas un disque virtuel source valide.) Si vous souhaitez effectuer une restauration à partir du disque virtuel cible suite à une panne du disque partagé du cluster, utilisez Failover Cluster Manager pour modifier l'état du groupe de cluster contenant le disque en panne et le mettre hors ligne. Procédez de l'une des manières suivantes : 1 Utilisez la fonction de copie de disque virtuel pour transférer les données du disque virtuel cible sur le disque partagé du cluster. 2 Supprimez l'affectation du disque partagé au groupe de systèmes hôtes, puis mappez le disque virtuel cible à ce groupe. Préparation des systèmes pour la mise en cluster 67 Configuration d'un cluster de basculement Vous pouvez configurer les services du système d'exploitation du cluster de basculement Windows Server après avoir créé les réseaux privé et public et affecté les disques partagés aux nœuds du cluster à partir de la matrice de stockage. La procédure de configuration varie en fonction de la version de Windows Server utilisée. Pour plus d'informations sur le déploiement de votre cluster, consultez le manuel Dell Failover Clusters with Microsoft Windows Server 2008 Installation and Troubleshooting Guide (Guide d'installation et de dépannage des clusters de basculement Dell dans une installation Microsoft Windows Server 2008) sur le site support.dell.com/manuals. 68 Préparation des systèmes pour la mise en cluster Dépannage Cette annexe contient des informations de dépannage des configurations en cluster. Le tableau A-1 décrit les incidents courants liés aux clusters, leurs causes probables et les solutions proposées. Tableau A-1. Dépannage courant pour les clusters Problème Cause probable Mesure corrective Les nœuds ne peuvent pas accéder au système de stockage, ou bien les logiciels du cluster ne fonctionnent pas avec le système de stockage. Le câblage reliant le système de stockage aux nœuds ou le câblage des composants de stockage est incorrect. Vérifiez que la connexion des câbles entre le nœud et le système de stockage est correcte. Pour plus d'informations, voir « Câblage du matériel du cluster » à la page 15. L'un des câbles est défectueux. Remplacez le câble défectueux. Le groupe de systèmes Vérifiez les points suivants : hôtes ou les mappages • Le groupe de systèmes hôtes a entre systèmes hôtes et été créé et les nœuds du cluster disques virtuels n'ont pas y ont été ajoutés. été correctement créés. • Le mappage entre systèmes hôtes et disques virtuels a été créé ; les disques virtuels ont été affectés au groupe de systèmes hôtes contenant les nœuds du cluster. Le mot de passe CHAP saisi est incorrect. Si le protocole CHAP est utilisé, entrez un nom d'utilisateur et un mot de passe corrects. Outils de Dépannage 69 Tableau A-1. Dépannage courant pour les clusters (suite) Problème Cause probable Mesure corrective Un des nœuds met beaucoup de temps à rejoindre le cluster. Le réseau nœud à nœud a échoué à la suite d'un incident de câblage ou d'une panne matérielle. Vérifiez le câblage du réseau. Vérifiez que l'interconnexion nœud à nœud et le réseau public sont connectés aux cartes réseau adéquates. Des délais importants dans les communications de nœud à nœud peuvent être normaux. Vérifiez que les nœuds peuvent communiquer entre eux. Pour ce faire, lancez la commande ping sur chaque nœud pour vérifier que vous obtenez une réponse de l'autre nœud. Lancez la commande ping avec le nom d'hôte, puis avec l'adresse IP. Le pare-feu de connexion Internet est peut-être activé sur un ou plusieurs nœuds et bloque les communications RPC (Remote Procedure Call) entre les nœuds. Configurez le pare-feu de connexion Internet de manière à autoriser les communications requises par Microsoft Failover Clustering et les applications ou services exécutés sur le cluster. Pour plus d'informations, voir l'article KB883398 de la base de connaissances Microsoft à l'adresse support.microsoft.com. OU Un des nœuds ne parvient pas à rejoindre le cluster. 70 Outils de Dépannage Tableau A-1. Dépannage courant pour les clusters (suite) Problème Cause probable Les tentatives de connexion à un cluster via Failover Cluster Manager échouent. Cluster Service n'a pas été Vérifiez que Cluster Service est démarré. Aucun cluster actif et qu'un cluster a été créé. n'a été formé sur le système. Le système vient d'être initialisé et les services sont encore en cours de démarrage. Le nom de réseau du cluster ne répond pas car le pare-feu de connexion Internet est activé sur un ou plusieurs nœuds. Mesure corrective Configurez le pare-feu de connexion Internet de manière à autoriser les communications requises par Microsoft Cluster et les applications ou services exécutés sur le cluster. Pour plus d'informations, voir l'article KB883398 de la base de connaissances Microsoft à l'adresse support.microsoft.com. Outils de Dépannage 71 Tableau A-1. Problème Dépannage courant pour les clusters (suite) Cause probable Vous êtes invité à La configuration de configurer un seul TCP/IP est incorrecte. réseau au lieu de deux lors de l'installation de Microsoft Failover Cluster. Le réseau privé (point à point) est déconnecté. 72 Outils de Dépannage Mesure corrective Le réseau nœud à nœud et le réseau public doivent disposer d'adresses IP statiques sur des sous-réseaux différents. Pour plus d'informations sur l'attribution d'adresses IP, voir la section « Assigning Static IP Addresses to Your Cluster Resources and Components » du manuel Dell Failover Clusters with Microsoft Windows Server 2003 Installation and Troubleshooting Guide (Guide d'installation et de dépannage des clusters de basculement Dell dans une installation Microsoft Windows Server 2008). Vérifiez que tous les systèmes sont sous tension pour que les cartes réseau du réseau privé soient disponibles. Tableau A-1. Dépannage courant pour les clusters (suite) Problème Cause probable Mesure corrective Impossible d'ajouter un nœud au cluster. Le nouveau nœud ne peut Vérifiez que le nouveau nœud du pas accéder aux disques cluster peut énumérer les disques partagés. du cluster à l'aide de l'outil Windows Disk Administration (Gestion des disques de Windows). Si les disques n'apparaissent pas dans l'outil Windows Disk Administration (Gestion des disques de Windows) : • Vérifiez toutes les connexions des câbles. • Vérifiez les paramètres d'Access Control sur les systèmes de stockage connectés. Les clients du réseau public ne peuvent pas accéder aux applications ou services fournis par le cluster. Le pare-feu de connexion Internet peut être activé sur un ou plusieurs nœuds et bloquer les communications RPC (Remote Procedure Call) entre les nœuds. Configurez le pare-feu de connexion Internet de manière à autoriser les communications requises par Microsoft Cluster et les applications ou services exécutés sur le cluster. Pour plus d'informations, voir l'article KB883398 de la base de connaissances Microsoft à l'adresse support.microsoft.com. Le pare-feu de connexion Internet peut être activé sur un ou plusieurs nœuds et bloquer les communications RPC (Remote Procedure Call) entre les nœuds. Configurez le pare-feu de connexion Internet de manière à autoriser les communications requises par Microsoft Cluster et les applications ou services exécutés sur le cluster. Pour plus d'informations, voir l'article KB883398 de la base de connaissances Microsoft à l'adresse support.microsoft.com. Outils de Dépannage 73 Tableau A-1. Dépannage courant pour les clusters (suite) Problème Cause probable La copie de disque virtuel échoue. Cette opération utilise le Pour créer une copie de disque disque du cluster comme virtuel à partir d'un disque disque source. partagé du cluster, créez un cliché de ce disque, puis faites une copie de disque virtuel de ce cliché. Impossible d'attribuer une lettre de lecteur au cliché de disque virtuel. Le cliché de disque virtuel a été mappé par erreur avec le nœud qui n'est pas propriétaire du disque source. Impossible d'accéder au cliché de disque virtuel. Le journal d'erreurs du système contient un avertissement de partmgr (événement 59) indiquant que le cliché de disque virtuel est un chemin redondant d'un disque du cluster. 74 Outils de Dépannage Mesure corrective Supprimez le mappage entre le cliché de disque virtuel et le nœud non propriétaire du disque source, puis créez le mappage avec le nœud propriétaire. Consultez la section Utilisation des fonctions avancées (Premium) de PowerVault Modular Disk Storage Manager pour plus d'informations. Formulaire technique du cluster Vous pouvez placer le formulaire ci-dessous à côté de chaque rack ou nœud du cluster afin d'y noter des informations relatives au cluster. Consultez-le lorsque vous faites appel au support technique. Tableau B-1. Informations de configuration du cluster Informations sur le cluster Solution de cluster Nom et adresse IP du cluster Type de serveur Installé par Date d'installation Applications Emplacement Remarques Tableau B-2. Nom du nœud Informations de configuration des nœuds Numéro de service Adresse IP publique Adresse IP privée Formulaire technique du cluster 75 Tableau B-2. Nom du nœud Tableau B-3. Informations de configuration des nœuds Numéro de service Adresse IP publique Adresse IP privée Autres informations sur le réseau Réseaux supplémentaires Tableau B-4. Matrice Informations de configuration de la matrice de stockage Numéro de service Adresse IP de la matrice 1 2 3 4 76 Formulaire technique du cluster Nombre de matrices de Disques virtuels disques connectées Fiche de configuration iSCSI Paramètres IPv4 A 192.168.131.101 (entrée 1 par défaut) 192.168.128.101 (port du réseau de gestion) Clé secrète CHAP cible PowerVault MD36xxi 192.168.130.101 (entrée 0 par défaut) B Clé secrète CHAP mutuelle serveur hôte 192.168.130.102 (entrée 0 par défaut) 192.168.131.102 (entrée 1 par défaut) 192.168.128.102 (port réseau de gestion) Au besoin, utilisez une feuille supplémentaire (si vous disposez de plusieurs serveurs hôtes, par exemple). Masque de sous-réseau Passerelle par défaut A Adresse IP statique (serveur hôte) Port iSCSI 1 ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ Port iSCSI 2 ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ Port de gestion ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ B Adresse IP statique (matrice de stockage) Contrôleur iSCSI 0, Entrée 0 ___ ___ ___ ___ Masque de sous-réseau ___ ___ ___ ___ Passerelle par défaut ___ ___ ___ ___ Contrôleur iSCSI 0, Entrée 1 ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ Port de gestion cntrl 0 ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ Contrôleur iSCSI 1, Entrée 0 ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ Contrôleur iSCSI 1, Entrée 1 ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ Port de gestion cntrl 1 ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ ___ Fiche de configuration iSCSI 77 Paramètres IPv6 serveur hôte A Clé secrète CHAP mutuelle Clé secrète CHAP cible B PowerVault MD36xxi Au besoin, utilisez une feuille supplémentaire (si vous disposez de plusieurs serveurs hôtes, par exemple). A B Port hôte iSCSI 1 Port hôte iSCSI 2 Adresse IP de liaison locale ___ ___ ___ ___ Adresse IP de liaison locale ___ ___ ___ ___ Adresse IP routable ___ ___ ___ ___ Adresse IP routable ___ ___ ___ ___ Préfixe du sous-réseau ___ ___ ___ ___ Préfixe du sous-réseau ___ ___ ___ ___ Passerelle ___ ___ ___ ___ Passerelle ___ ___ ___ ___ Contrôleur iSCSI 0, Entrée 0 Adresse IP FE80 Adresse IP routable 1 Adresse IP routable 2 Adresse IP du routeur ____ Adresse IP routable 2 ____ ____ ____ ____ Fiche de configuration iSCSI ____ ____ ____ : ____ : ____ : ____ : : : ____ : ____ ____ ____ ____ : : : : ____ : ____ ____ 0000 ____ : : : : ____ : ____ ____ 0000 ____ : : : : : ____ ____ 0000 : ____ : : : Adresse IP du routeur 78 ____ ____ FE80 0000 : : : Adresse IP routable 1 0000 : : Contrôleur iSCSI 0, Entrée 1 Adresse IP 0000 : ____ : ____ : ____ : Contrôleur iSCSI 1, Entrée 0 Adresse IP FE80 Adresse IP routable 1 Adresse IP routable 2 Adresse IP du routeur 0000 : ____ 0000 : ____ : ____ ____ : ____ : 0000 : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : Contrôleur iSCSI 1, Entrée 1 Adresse IP FE80 Adresse IP routable 1 Adresse IP routable 2 Adresse IP du routeur 0000 : ____ 0000 : ____ : ____ ____ : ____ : 0000 : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : ____ : Fiche de configuration iSCSI 79 80 Fiche de configuration iSCSI Index A attribution lettres de lecteurs et points de montage, 62 configuration requise pour le stockage du cluster, 8 configurations de cluster prises en charge, 11 copie de disque virtuel, 67 C câblage blocs d'alimentation, 15 câblage cluster dans une configuration à connexion directe, 21 cluster dans une configuration avec connexion à un réseau, 23 souris, clavier et moniteur, 15 systèmes de stockage, 20 CHAP, 38 cible, 38 mutuel, 38 D dépannage courant sur les clusters, 69 F fonctions avancées cliché de disque virtuel, 10 copie de disque virtuel, 10 formulaire technique du cluster, 75 configuration cluster de basculement, 68 système de stockage partagé, 37 I configuration initiale de la matrice de stockage, 40 installation cartes réseau iSCSI, 33 Microsoft iSCSI Software Initiator, 34 configuration iSCSI sur la matrice de stockage, 40 icônes d'état, 61 installation et configuration logiciels de gestion du stockage, 35 Index 81 instantané de disque virtuel, 66 R iSCSI, 37 terminologie, 37 recovery guru, 59 regroupement de cartes réseau, 20 J journal d'événements, 57 S système d'exploitation installation, 32 L logiciel multiacheminement, 10 P profil de stockage, 59 système de stockage PowerVault 22xS mise en cluster, 63 W Windows Server 2003 Enterprise Edition installation, 32 82 Index