- Ordinateurs et électronique
- Logiciel
- Logiciels de réseaux
- Logiciel de gestion de réseau
- Bull
- Escala - EPC and HA Solutions
- Guide d'installation
Guide d'installation | Bull Escala - EPC and HA Solutions Manuel utilisateur
Ajouter à Mes manuels206 Des pages
▼
Scroll to page 2
of
206
Bull Escala série EPC EPC et solutions HA Guide d’installation AIX 86 F2 79HX 05 Bull Escala série EPC EPC et solutions HA Guide d’installation AIX Logiciel Septembre 1999 BULL ELECTRONICS ANGERS CEDOC 34 rue du Nid de Pie – BP 428 49004 ANGERS CEDEX 01 FRANCE 86 F2 79HX 05 The following copyright notice protects this book under the Copyright laws of the United States of America and other countries which prohibit such actions as, but not limited to, copying, distributing, modifying, and making derivative works. Copyright Bull S.A. 1992, 1999 Imprimé en France Vos suggestions sur le fond et la forme de ce document seront les bienvenues. Une feuille destinée à recevoir vos remarques se trouve à la fin de ce document. Pour commander d’autres exemplaires de ce manuel ou d’autres publications techniques Bull, veuillez utiliser le bon de commande également fourni en fin de manuel. Marques déposées Toutes les marques déposées sont la propriété de leurs titulaires respectifs. AIXR est une marque déposée d’IBM Corp. et est utilisée sous licence. UNIX est une marque déposée licenciée exclusivement par Open Group. A 2000 Le produit présenté dans ce manuel est prêt pour l’an 2000. La loi du 11 mars 1957, complétée par la loi du 3 juillet 1985, interdit les copies ou reproductions destinées à une utilisation collective. Toute représentation ou reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans consentement de l’auteur ou de ses ayants cause, est illicite et constitue une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. Ce document est fourni à titre d’information seulement. Il n’engage pas la responsabilité de Bull S.A. en cas de dommage résultant de son application. Des corrections ou modifications du contenu de ce document peuvent intervenir sans préavis ; des mises à jour ultérieures les signaleront éventuellement aux destinataires. A propos de ce manuel Ce manuel s’adresse aux administrateurs système et aux ingénieurs client, chargés de mettre en oeuvre un Powercluster ou une solution Escala HA Bull. Les produits sont abordés tant d’un point de vue matériel que logiciel. Ce manuel décrit en outre les caractéristiques du logiciel BullCluster livré avec Powercluster et les solutions Escala HA. Utilisez ce guide comme point de départ à la mise en oeuvre de Powercluster ou d’une solution HA avant de vous référer à d’autres documents. Terminologie Dans cet ouvrage : • Le terme générique de grappe couvre les grappes de type Powercluster et solution HA. • Ethernet fait référence à Ethernet standard (10 Mbps) et à Fast Ethernet (10/100 Mbps). • Reprise après sinistre signifie capacité de récupération de site à site dans un rayon limité, suite à une défaillance ayant entraîné une perte d’accès aux noeuds et aux dispositifs de stockage (sur un campus, par exemple). Télécontrôle Une fonction de télésurveillance est proposée en option, à utiliser avec ISM (Integrated System Management). ISM n’est pas fourni dans ce module logiciel. Contenu Ce manuel est composé des chapitres suivants : • Chapitre 1. Concepts et composants présente les composants matériels et logiciels de Powercluster et des solutions HA. • Chapitre 2. Planification et installation est le point de départ de la procédure générale de planification/installation/configuration. • Chapitre 3. Informations de planifications complémentaires offre un complément au guide HACMP Planning Guide. Il contient des informations sur le câblage et les unités de disque partagées. • Chapitres 4 à 8 : décrivent en détail les procédures de configuration du matériel et du logiciel. • Chapitre 9. Gestion des ressources de grappe et des modules LVM partagés décrit les modifications des ressources de grappe (modules LVM, serveurs d’application, groupes de ressources...) via les menus de BullCluster intégrés aux menus standard de HACMP. Ces menus sont intégrés aux menus HACMP standard. • Chapitre 10. Outils et techniques de gestion du système présente les outils de gestion BullCluster (outil de diagnostic, gestionnaire de personnalisation d’événement, etc.) et décrit certains outils (timed, dsmit, iFOR/LS, ArrayGUIde, Performance Toolbox...) particulièrement utiles pour la gestion de système en environnement de grappe. • Chapitre 11. Télécontrôle de grappe avec ISM explique comment contrôler à distance une grappe à partir d’une station de gestion ISM. ISM est un produit Bull dédié au contrôle et à la gestion des systèmes et réseaux distribués, qui offre un environnement convivial avec une interface graphique que vous pouvez personnaliser. A propos de ce manuel iii • Chapitre 12. Intégration d’un tiroir PCI décrit, à partir d’une configuration classique, le processus d’intégration d’un tiroir PCI dans un rack Escala EPC. • Annexe A. Mise en oeuvre des solutions console traite des différentes solutions de base possibles pour gérer les consoles des noeuds de grappe. Présente la console PowerConsole, la console système, l’affichage graphique, la console de grappe et les unités associées au concentrateur de console et donne le mode d’emploi de l’utilitaire BullCluster pwcons. • Annexe B. Implantation de la solution console de grappe : installation du terminal X. Bibliographie Powercluster et solutions HA Les documents suivants concernent à la fois Powercluster et les solutions HA : • Escala série EPC – Powercluster & solutions HA – Guide d’installation, CEDOC 86 F2 79HX, le présent document. • Powercluster & solutions HA - Utilisation des scripts d’exemple HA, CEDOC 86 F7 82HX, est destiné principalement au personnel technique Bull. Il donne des conseils sur l’utilisation des scripts de début et de fin proposés en exemple avec le module logiciel BullCluster (pour en savoir plus, reportez-vous à ”Planification d’applications spécifiques”, page 3-1). • Powercluster Outils de gestion de grappe - ClusterWatch, CEDOC 86 F2 80HX, traite des techniques et de l’outil de gestion Powercluster-spécifique ”ClusterWatch”, fourni avec le module logiciel BullCluster. • Escala série EPC - Préparation site pour les systèmes rack, CEDOC 86 F1 30PX, décrit la préparation des sites pour les systèmes Escala Racks et la gamme de produits Escala Powercluster (EPC). • Escala série EPC – EPC Guide de câblage, CEDOC 86 F1 65JX, fournit des informations relatives au câblage et à la configuration des produits Escala EPC. Reportez-vous à Autres publications, page vi. Le document suivant concerne exclusivement Powercluster : • Escala série EPC – PowerConsole & ClusterAssistant – Guide d’installation, CEDOC 86 F2 81HX, livré avec le PowerConsole, matériel en option, et proposé uniquement avec le produit (et non avec les solutions HA). Le PowerConsole est une station de travail qui offre un point de contrôle unique pour gérer les grappes. ClusterAssistant est un ensemble d’applications exécutées sur le PowerConsole pour configurer, gérer et surveiller les grappes. ClusterAssistant est intégré à CDE (Common Desktop Environment), qui propose un environnement basé sur la trilogie fenêtres/icônes/souris. Bulletin de logiciel Veuillez consulter les bulletins de logiciel (SRB) livrés avec le logiciel : Solutions HA, CEDOC 86 F2 81WF et Powercluster, CEDOC 86 F2 79WF. Ils contiennent de précieuses informations sur les conditions préalables et les contraintes de l’environnement, la procédure d’installation du logiciel, ainsi que les nouveautés de dernière minute. Documentation HACMP pour AIX La documentation HACMP (High Availability Cluster MultiProcessing) pour AIX regroupe un ensemble d’ouvrages, répertoriés ci-dessous. Notes de version Les notes de version (Release Notes) pour HACMP sont stockées dans le répertoire /usr/lpp/cluster/doc (accessible dès que HACMP est installé). iv EPC et solutions HA – Guide d’installation Documentation HACMP destinée aux administrateurs Les ouvrages suivants s’adressent aux administrateurs et à toute personne travaillant en environnement de grappe : HACMP 4.2 • HACMP Concepts and Facilities, CEDOC 86 A2 54KX • HACMP Planning Guide, CEDOC 86 A2 55KX • HACMP Installation Guide, CEDOC 86 A2 56KX • HACMP Administration Guide, CEDOC 86 A2 57KX • HACMP Troubleshooting Guide, CEDOC 86 A2 58KX • HANFS Installation and Administration, CEDOC 86 A2 61KX • Enhanced Scalabilty Installation and Administration Guide, CEDOC 86 A2 62KX • Event Management Programming Guide and Reference, CEDOC 86 A2 63KX • Group Services Programming Guide and Reference, CEDOC 86 A2 64KX • HACMP Master Index and Glossary, CEDOC 86 A2 51HX • AIX - Guide d’administration : système d’exploitation et unités, CEDOC 86 F2 53AP. HACMP 4.3 • HACMP Concepts and Facilities, CEDOC 86 A2 54KX • HACMP Planning Guide, CEDOC 86 A2 55KX • HACMP Installation Guide, CEDOC 86 A2 56KX • HACMP Administration Guide, CEDOC 86 A2 57KX • HACMP Troubleshooting Guide, CEDOC 86 A2 58KX • HANFS Installation and Administration, CEDOC 86 A2 61KX • Enhanced Scalabilty Installation and Administration Guide, CEDOC 86 A2 62KX • Event Management Programming Guide and Reference, CEDOC 86 A2 63KX • Group Services Programming Guide and Reference, CEDOC 86 A2 64KX • HACMP Master Index and Glossary, CEDOC 86 A2 65KX • Bull System Management Guide Operating System and Devices for AIX, CEDOC 86 A2 53AP. Documentation HACMP destinée aux programmeurs Deux ouvrages supplémentaires sont dédiés à la programmation d’application HA en environnement de grappe HACMP : HACMP 4.2 • HACMP Programming Client Applications, CEDOC 86 A2 46HX Ce manuel décrit les interfaces de programmation d’application client (API), qui fournissent notamment les interfaces au Cluster Information Program (clinfo). Il répertorie le contenu de la base MIB HACMP (que vous pouvez consulter directement, celle-ci étant livrée avec le logiciel). • HACMP Locking Applications, CEDOC 86 A2 50HX Ce manuel décrit l’interface de programmation (API) Cluster Lock Manager (CLM). A propos de ce manuel v HACMP 4.3 • HACMP Programming Client Applications, CEDOC 86 A2 46HX Ce manuel décrit les interfaces de programmation d’application client (API), qui fournissent notamment les interfaces au Cluster Information Program (clinfo). Il répertorie le contenu de la base MIB HACMP (que vous pouvez consulter directement, celle-ci étant livrée avec le logiciel). • HACMP Locking Applications, CEDOC 86 A2 59KX Ce manuel décrit l’API Cluster Lock Manager (CLM). Systèmes de stockage sur disque Les manuels ci–après fournissent les informations nécessaires à l’installation, la gestion et la configuration des systèmes de stockage sur disque. Escala JBOD Storage Subsystem - Setup & Operator Guide, CEDOC 86 A1 79GX. DAS 5700 Series Disk array Storage System, Installation & Service for Rackmount Models, CEDOC 86 A1 43KX. DAS 5700 Series Disk array Storage System, Installation & Service for Deskside Models, CEDOC 86 A1 44KX. DAS 5300 Disk array Storage System, Installation & Service for Rackmount Models, CEDOC 86 A1 24KX. DAS 5300 Disk array Storage System, Installation & Service for Deskside Models, CEDOC 86 A1 25KX. DAS 5000 Disk array Storage System, Installation & Service for Rackmount Models, CEDOC 86 A1 45KX. DAS 5000 Disk array Storage System, Installation & Service for Deskside Models, CEDOC 86 A1 46KX. DAS 3500 Disk array Storage System, Installation & Service for Rackmount Models, CEDOC 86 A1 47JX. DAS 3500 Disk array Storage System, Installation & Service for Deskside Models, CEDOC 86 A1 48JX. 7133 SSA Disk Subsystems Service Guide, CEDOC 86 A1 94GX. Adaptateurs PCI Fibre Channel - Guide d’installation & de configuration, CEDOC 86 F1 95HX. Escala Disk Expansion Unit Service Guide, CEDOC 86 A1 13PX. Planning a DAS Installation (Fibre Channel Environment), CEDOC 86 A1 94JX. Navisphere Setup and Operation, CEDOC 86 A2 47KX. Configuring and Managing a DAS in an AIX Environment, CEDOC 86 A2 20PN. Autres publications La documentation AIX et les manuels livrés avec le matériel sont très utiles : conservez-les à portée de main. Cabling Guide, CEDOC 86 A1 87AQ. Commandes d’ouvrages Pour commander d’autres exemplaires de ce manuel, précisez la référence CEDOC 86 F2 79HX. vi EPC et solutions HA – Guide d’installation Table des matières A propos de ce manuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii Chapitre 1. Concepts et composants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Concepts de grappe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Haute disponibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reprise après sinistre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Hautes performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Composants de Powercluster et solution HA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vue synoptique des composants d’une grappe . . . . . . . . . . . . . . . . . . . . . . . . . . . . Serveurs (noeuds de grappe) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . HACMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Module BullCluster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Outils généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Unités de disque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Stockage partagé sur configuration ”HA native” . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sous-systèmes RAID DAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sous-systèmes disque SSA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Systèmes de stockage Symmetrix CDA d’EMC . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bibliothèques de bandes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1-1 1-1 1-1 1-1 1-2 1-3 1-3 1-4 1-4 1-4 1-5 1-7 1-7 1-8 1-10 1-11 1-11 Chapitre 2. Planification et installation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Repères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Étape suivante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2-1 2-1 2-2 Chapitre 3. Informations de planifications complémentaires . . . . . . . . . . . . . . . Planification d’applications spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Planification des ports série . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Port série S2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ports série pour consoles système et connexion SP DAS (A) . . . . . . . . . . . . . . . . Ports série pour connexions de réseau série (B) . . . . . . . . . . . . . . . . . . . . . . . . . . . Ports série pour UPS (C) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Planification des réseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réseaux public, privé et série . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Planification de la topologie de réseau FDDI privé . . . . . . . . . . . . . . . . . . . . . . . . . Planification du stockage partagé “HA native” pour les solutions Escala HA . . . . . Configuration ”HA native” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bus SCSI partagés et fonction miroir . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Disques internes à utiliser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cartes SCSI et câblage des bus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Planification des sous-systèmes DAS partagés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configurations DAS possibles (à deux bus distincts, deux initiateurs/deux cartes) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Planification des unités de disque physiques (niveaux RAID, LUN) . . . . . . . . . . . Planification du câblage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configurations DAS possibles avec Fibre Channel . . . . . . . . . . . . . . . . . . . . . . . . . . . Insertion d’emplacements de disques en grappe (DAE) . . . . . . . . . . . . . . . . . . . . . . . Planification du stockage partagé HA étendue pour solutions Escala HA . . . . . . . . Câblage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Remarque spécifique des boucles FC–AL partagées . . . . . . . . . . . . . . . . . . . . . . . Planification de la configuration des unités de disque physiques . . . . . . . . . . . . . 3-1 3-1 3-2 3-2 3-2 3-2 3-2 3-3 3-3 3-4 3-6 3-6 3-6 3-7 3-8 3-10 A propos de ce manuel 3-10 3-13 3-13 3-17 3-19 3-20 3-20 3-21 3-21 vii viii Planification des sous-systèmes SSA partagés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cartes SSA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Topologie SSA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exemple de topologie SSA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Planification de sous–systèmes EMC Symmetrix partagés . . . . . . . . . . . . . . . . . . . . Configuration de base avec HACMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sous–systèmes de disque EMC en mode concurrent . . . . . . . . . . . . . . . . . . . . . . 3-22 3-22 3-23 3-23 3-25 3-26 3-26 Chapitre 4. Installation du matériel de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préalables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation physique des serveurs (noeuds) et des unités de disque . . . . . . . . . . . . Installation du matériel pour la gestion de la console système . . . . . . . . . . . . . . . . . Raccordement des connexions réseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Amorçage des noeuds et vérification du fonctionnement . . . . . . . . . . . . . . . . . . . . . . Configuration TCP/IP des interfaces d’amorçage/de service . . . . . . . . . . . . . . . . . . . Prérequis : IPAT/adresses d’amorçage, de secours et de service . . . . . . . . . . . . Conventions d’appellation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Procédure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des ID SCSI de carte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préalables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des ID SCSI de carte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Réamorçage des noeuds . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Étape suivante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4-1 4-1 4-1 4-2 4-2 4-4 4-4 4-4 4-5 4-6 4-7 4-7 4-8 4-9 4-9 Chapitre 5. Vérification de l’installation logicielle . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de l’installation logicielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bulletin de logiciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . HACMP et BullCluster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5-1 5-1 5-1 5-1 Chapitre 6. Finalisation de l’installation matérielle . . . . . . . . . . . . . . . . . . . . . . . . Arrêt et mise hors tension des noeuds . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Interconnexion des noeuds via des réseaux série (RS-232) . . . . . . . . . . . . . . . . . . . Préalables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation physique des lignes série RS-232 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préparation des cartes SCSI au câblage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Préparation des cartes SCSI Differential type 4-6, 4-B, 4-L ou WSA-1 . . . . . . . . Préparation des cartes SCSI Differential type B4-6 . . . . . . . . . . . . . . . . . . . . . . . . . Préparation des cartes SCSI SE type B4-5 à terminaison simple . . . . . . . . . . . . . Préparation des cartes Fibre Channel type B4-7 . . . . . . . . . . . . . . . . . . . . . . . . . . . Préparation des cartes Fibre Channel type B4-8 . . . . . . . . . . . . . . . . . . . . . . . . . . . Préparation des cartes Fibre Channel type B4-A et B4–B . . . . . . . . . . . . . . . . . . . Préparation du concentrateur Fibre Channel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation des unités de disque partagées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Câblage des unités de disque et définition de leur ID . . . . . . . . . . . . . . . . . . . . . . . Configuration des sous-systèmes DAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration complémentaire du stockage EMC . . . . . . . . . . . . . . . . . . . . . . . . . . Étape suivante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6-1 6-1 6-1 6-1 6-2 6-2 6-2 6-3 6-3 6-4 6-4 6-5 6-5 6-6 6-6 6-7 6-8 6-8 Chapitre 7. Configuration de la topologie de la grappe . . . . . . . . . . . . . . . . . . . . Choix de la méthode de configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Les deux méthodes possibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Critères de choix de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Étape suivante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7-1 7-1 7-1 7-2 7-2 EPC et solutions HA – Guide d’installation Préalables à l’utilisation de l’outil ”BullCluster Quick Initial Configuration” . . . . . . . . Préalables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Récapitulatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Étape préliminaire : mise à jour des fichiers /etc/hosts et /.rhosts . . . . . . . . . . . . . . . Édition du fichier /etc/hosts sur le noeud local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Édition du fichier /.rhosts sur chaque noeud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Définition d’un fichier de configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Accès à l’outil ”Bullcluster Quick Initial Configuration” . . . . . . . . . . . . . . . . . . . . . . Procédure de configuration rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Définition d’un fichier de configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Application du fichier de configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Processus de configuration initiale rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Opérations de configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Opérations de vérification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Annulation de la configuration initiale rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification d’un fichier de configuration modifié manuellement . . . . . . . . . . . . . . . . Utilisation de l’outil d’instantané BullCluster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Étape suivante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7-3 7-3 7-3 7-4 7-4 7-4 7-5 7-5 7-6 7-6 7-11 7-12 7-12 7-13 7-14 7-15 7-15 7-15 Chapitre 8. Finalisation de l’installation de la grappe . . . . . . . . . . . . . . . . . . . . . . Remarque à l’attention des utilisateurs de PowerConsole . . . . . . . . . . . . . . . . . . . . . Configuration des serveurs d’application et ressources HACMP . . . . . . . . . . . . . . . . Configuration des modules LVM partagés (groupes de volumes...) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Méthode rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Méthode manuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Synchronisation des horloges de la grappe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Implémentation d’alias d’adresses IP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Activation de la notification des événements de grappe via la messagerie électronique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Groupes de volumes partagés sur sous-systèmes DAS . . . . . . . . . . . . . . . . . . . . . . . Configuration deux initiateurs - deux serveurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration ”à bus distincts” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Étape suivante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8-1 8-1 8-1 8-3 8-5 8-5 8-6 8-8 Chapitre 9. Gestion des ressources de grappe et des modules LVM partagés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Présentation du menu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Accès au menu Cluster Resources Modification . . . . . . . . . . . . . . . . . . . . . . . . . . . Remarque à l’attention des utilisateurs de PowerConsole . . . . . . . . . . . . . . . . . . . Options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout, suppression et affichage d’un groupe de ressources . . . . . . . . . . . . . . . . . . . . Ajout d’un groupe de ressources . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Suppression d’un groupe de ressources . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Affichage des ressources d’un groupe de ressources . . . . . . . . . . . . . . . . . . . . . . Ajout et suppression d’un groupe de volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout d’un groupe de volumes à un groupe de ressources . . . . . . . . . . . . . . . . . . Suppression d’un groupe de volumes d’un groupe de ressources . . . . . . . . . . . . Ajout et suppression d’un volume logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout d’un groupe logique à un groupe de ressources . . . . . . . . . . . . . . . . . . . . . . Suppression d’un groupe logique d’un groupe de ressources . . . . . . . . . . . . . . . . Ajout et suppression d’un système de fichiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout d’un système de fichiers à un groupe de ressources . . . . . . . . . . . . . . . . . . Suppression d’un système de fichiers d’un groupe de ressources . . . . . . . . . . . . 9-1 9-1 9-1 9-1 9-2 9-4 9-4 9-6 9-7 9-8 9-8 9-10 9-11 9-11 9-13 9-14 9-14 9-16 A propos de ce manuel 8-2 8-2 8-2 8-3 8-3 ix x Ajout et suppression d’un label IP de service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ajout d’un label IP de service à un groupe de ressources . . . . . . . . . . . . . . . . . . . Suppression d’un label IP de service d’un groupe de ressources . . . . . . . . . . . . . Ajout et suppression d’un serveur d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Création et ajout d’un serveur d’application à un groupe de ressources . . . . . . . Suppression d’un serveur d’application d’un groupe de ressources . . . . . . . . . . . Diffusion générale de la définition d’un groupe de volumes . . . . . . . . . . . . . . . . . . . . 9-17 9-17 9-18 9-19 9-19 9-19 9-20 Chapitre 10. Outils et techniques de gestion du système . . . . . . . . . . . . . . . . . . Outil de diagnostic BullCluster (bclerrdiag) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Syntaxe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fichiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Utilitaire clusterview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Syntaxe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Description . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exemple de sortie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fichiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Voir aussi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Implémentation d’alias d’adresses IP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Procédure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Implémentation du transfert d’applications (Rolling Applications) . . . . . . . . . . . . . . . Objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Procédure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Présentation du menu Rolling Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Définition d’un serveur de transfert d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . Modification/Affichage des caractéristiques d’un serveur de transfert d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Retrait d’un serveur de transfert d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mise en ligne d’un serveur de transfert d’applications . . . . . . . . . . . . . . . . . . . . . . Mise hors ligne d’un serveur de transfert d’applications . . . . . . . . . . . . . . . . . . . . . Déplacement d’un serveur de transfert d’applications . . . . . . . . . . . . . . . . . . . . . . Restauration de l’emplacement par défaut d’un serveur de transfert d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Afficher l’état du serveur de transfert d’applications . . . . . . . . . . . . . . . . . . . . . . . . Implémentation de HA native (avec ou sans armoire d’extension disque) . . . . . . . . Objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Procédure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reprise sur incident matériel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Implémentation du stockage partagé HA étendue . . . . . . . . . . . . . . . . . . . . . . . . . . . . Précautions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Procédure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reprise sur défaillance matérielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Reprise sur défaillance de disques DAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Personnalisation du traitement des événements de grappe . . . . . . . . . . . . . . . . . . . . Objet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10-1 10-1 10-1 10-2 10-2 10-3 10-3 10-3 10-3 10-3 10-4 10-4 10-4 10-5 10-5 10-5 10-7 10-7 10-9 10-9 10-10 EPC et solutions HA – Guide d’installation 10-10 10-11 10-12 10-13 10-14 10-15 10-16 10-17 10-17 10-17 10-18 10-19 10-24 10-24 10-24 10-24 10-25 10-27 10-27 10-27 Synchronisation des horloges avec timed . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . timed en bref . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conseils pour implémenter timed dans votre grappe . . . . . . . . . . . . . . . . . . . . . . . Clés de licence iFOR/LS Nodelocked . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conseils relatifs à DSMIT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gestion des sous-systèmes DAS avec ArrayGUIde . . . . . . . . . . . . . . . . . . . . . . . . . . Gestion des sous–systèmes DAS avec Navisphere . . . . . . . . . . . . . . . . . . . . . . . . . . 10-27 10-27 10-28 10-28 10-28 10-29 10-29 Chapitre 11. Télécontrôle de grappe avec ISM . . . . . . . . . . . . . . . . . . . . . . . . . . . . Concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Qu’est-ce que ISM ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ISM et le contrôle de grappe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Applications ISM requises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Récapitulatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration de l’environnement SNMP sur les noeuds de grappe . . . . . . . . . . . . . Définition des fichiers de configuration snmpd . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mise à jour des fichiers /etc/hosts et /etc/inittab . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de l’installation des fichiers de définition MIB . . . . . . . . . . . . . . . . . . . Vérification des opérations SNMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation des fichiers requis sur la station ISM Manager . . . . . . . . . . . . . . . . . . . . . Installation de l’ensemble de fichiers dédiés à ISM . . . . . . . . . . . . . . . . . . . . . . . . . Installation de la base MIB HACMP au sein d’ISM . . . . . . . . . . . . . . . . . . . . . . . . . Tracé d’une image ISM de base pour représenter une grappe . . . . . . . . . . . . . . . . . Recherche des réseaux et des unités associés à la grappe . . . . . . . . . . . . . . . . . Tracé d’une image comportant les unités découvertes . . . . . . . . . . . . . . . . . . . . . . Animation des icônes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Étape suivante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Interprétation des informations de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Couleur des icônes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Recherche du noeud contenant une adresse de service donnée . . . . . . . . . . . . . Exemple de scénario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Examen de la base MIB HACMP et ajout d’objets à l’image . . . . . . . . . . . . . . . . . . . Prérequis : vérification des opérations clsmuxpd . . . . . . . . . . . . . . . . . . . . . . . . . . . Examen de la base MIB HACMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tracé des objets de la base MIB HACMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Choix des attributs pour l’animation d’icône . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Remarques sur les objets MIB HACMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Remarque sur le répertoire hacmp.ext . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Objet cluster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Objet Node . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Autres objets MIB HACMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Traitement des interruptions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prérequis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Remarques sur les interruptions HACMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Affichage des interruptions reçues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Animation des images ISM en fonction des interruptions reçues . . . . . . . . . . . . . Contrôle des erreurs liées au disque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11-1 11-1 11-1 11-1 11-2 11-3 11-3 11-3 11-4 11-4 11-4 11-5 11-5 11-5 11-6 11-6 11-7 11-9 11-9 11-9 11-9 11-10 11-11 11-12 11-12 11-12 11-12 11-13 11-14 11-14 11-14 11-15 11-16 11-17 11-17 11-17 11-18 11-19 11-19 Chapitre 12. Intégration d’un tiroir PCI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Intégration d’un tiroir PCI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exemple de configuration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Procédure d’intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12-1 12-1 12-1 12-1 A propos de ce manuel xi xii Annexe A. Mise en oeuvre des solutions console . . . . . . . . . . . . . . . . . . . . . . . . . Présentation des solutions console . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions console pour solutions HA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solution console traditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions basées sur une carte multiport série . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solutions console pour Escala Powerclusters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Composants des solutions console pour Escala Powerclusters . . . . . . . . . . . . . . Rôle des composants des solutions console . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exemples de configuration console pour PowerClusters . . . . . . . . . . . . . . . . . . . . Guides pour le câblage du concentrateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration et utilisation du concentrateur de console . . . . . . . . . . . . . . . . . . . . . . . Remarques préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Connexions réseau du PowerConsole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Amorçage du concentrateur de console . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des paramètres de base du concentrateur . . . . . . . . . . . . . . . . . . . . Configuration des ports du concentrateur de console . . . . . . . . . . . . . . . . . . . . . . . Vérification des paramètres du concentrateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vérification de la connexion réseau du concentrateur . . . . . . . . . . . . . . . . . . . . . . Vérification de l’état LISTEN sur les ports du concentrateur de console . . . . . . . Mise à jour du fichier /etc/hosts sur le PowerConsole . . . . . . . . . . . . . . . . . . . . . . . Accès aux ports console des noeuds via le concentrateur . . . . . . . . . . . . . . . . . . . Utilisation de Telnet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration et exploitation de l’utilitaire pwcons . . . . . . . . . . . . . . . . . . . . . . . . . . . . Présentation de pwcons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Définition des fichiers de configuration pwcons . . . . . . . . . . . . . . . . . . . . . . . . . . . . Syntaxe de la commande pwcons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A-1 A-1 A-2 A-2 A-3 A-5 A-5 A-5 A-8 A-11 A-13 A-13 A-13 A-14 A-15 A-17 A-17 A-17 A-18 A-18 A-18 A-18 A-19 A-19 A-20 A-21 Annexe B. Implémentation de la solution console de grappe . . . . . . . . . . . . . . . Procédure d’installation du terminal X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B-1 B-1 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . X-1 EPC et solutions HA – Guide d’installation Chapitre 1. Concepts et composants Ce chapitre traite des points suivants : • Concepts de grappe • Composants de Powercluster et solution HA, page 1-3. • Serveurs (noeuds de grappe), page 1-4. • HACMP, page 1-4. • Module BullCluster, page 1-4. • Unités de disque, page 1-7. Concepts de grappe Remarque : Pour en savoir plus sur les concepts de grappe, reportez-vous au manuel HACMP Concepts and Facilities. La technologie des grappes se révèle particulièrement adaptée lorsqu’il s’agit de concevoir des plates-formes dédiées à des missions stratégiques. Elle permet d’atteindre deux objectifs principaux : haute disponibilité et hautes performances. Haute disponibilité La structure en grappe couple plusieurs serveurs en réseau. Avec cette technique de couplage, chaque serveur fait office de serveur de secours auprès des autres serveurs. Ceci confère aux serveurs et aux applications une haute disponibilité. Ainsi, une application en cours sur un système défaillant ou en maintenance peut être transférée vers un autre serveur et rester disponible pour les utilisateurs, qui ne subissent alors qu’une interruption minimale. Sur la plupart des configurations de grappe (telles que le ”basculement mutuel”), il est inutile de maintenir inactifs les serveurs de secours : ils sont disponibles en exploitation normale. Applications concernées La fonction haute disponibilité (HA) est essentielle pour les applications stratégiques de l’entreprise. Toute application peut en bénéficier et être exploitée dans ce mode. Terminologie Les grappes HA (haute disponibilité) sont parfois qualifiées de grappes ”quasi-tolérantes aux pannes”. ”HA” est l’abréviation de ”high availability” (haute disponibilité) ou de ”highly available” (hautement disponible). Reprise après sinistre Il existe deux niveaux de reprise après sinistre : • Haute disponibilité étendue (solution Bull). Dans ce cas, la grappe est partagée entre deux sites avec stockage commun de données. Ce partage du stockage limite la longueur du câblage requis entre les deux sites. La fonction HA locale est prise en charge si certaines précautions sont prises. Pour plus de détails, reportez-vous page 10-24. • Reprise géographique après sinistre. Dans ce cas, les sites fonctionnent indépendamment et ne partagent pas le stockage. Des mécanismes assurent la réplication des données sur le site de secours et la haute disponibilité est limitée à la surveillance mutuelle et à la reprise du site. Concepts et composants 1-1 Hautes performances Outre la haute disponibilité, les structures en grappes peuvent bénéficier des hautes performances et d’une grande évolutivité. Mode accès concurrent Une grappe peut être configurée pour une exploitation en mode d’accès concurrent, dans lequel les différents serveurs ont accès simultanément aux mêmes données sur disques partagés. Ce type de configuration présente les avantages suivants : • Performances et évolutivité exceptionnelles : – La charge d’une application peut être répartie sur plusieurs noeuds. – Pour adapter les performances d’une grappe à des besoins toujours croissants, il suffit d’ajouter des serveurs ou d’autres ressources à la configuration. • Disponibilité accrue : – Les temps mort sont réduits du fait que le basculement de disque n’est pas requis quand un noeud de grappe vient à faillir. – Quand un noeud est en panne, les autres noeuds ont accès aux données. Les applications peuvent basculer instantanément sur un autre noeud. Seules les applications compatibles avec l’accès concurrent peuvent bénéficier de la fonction haute performance, à savoir : • Application OPS (Oracle Parallel Server), extension du SGBDR Oracle. • Autres applications SGBDR et OLTP exécutables en accès concurrent. Renseignez-vous auprès de votre représentant Bull pour connaître les applications SGBDR et OLTP exécutables en accès concurrent. Remarque : Les expressions ”accès concurrent”, ”multitraitement concurrent”, ”multitraitement en grappe” et ”traitement CMP” font référence au même concept. Notez que, dans la documentation HACMP, le mode d’accès concurrent est parfois appelé ”mode 3”. 1-2 EPC et solutions HA – Guide d’installation Composants de Powercluster et solution HA Powerclusters et les solutions HA sont des grappes résultant de la combinaison de composants matériels et logiciels. Ces deux produits, très puissants, offrent une grande disponibilité. Vue synoptique des composants d’une grappe La figure ci-après illustre les principaux composants matériels d’une grappe de 2 noeuds. Réseau public FDDI, Ethernet ou ATM réseau série (RS-232) Serveur (noeud de grappe) logiciel : – HACMP – BullCluster – Applications Deux bus SCSI(*) disques partagés(*) (RAID ou non RAID) Serveur (noeud de grappe) logiciel : – HACMP – BullCluster – Applications FDDI ou Ethernet Réseau privé (requis uniquement si l’accès concurrent est implémenté) (*) Remarques : • La plupart des configurations utilisent deux bus SCSI. Toutefois, des configurations économiques sont possibles avec un seul bus. • Dans la configuration dite ”Native HA”, disponible sur les séries Escala E et T, des disques internes peuvent remplacer les disques externes pour le stockage partagé. • Il est également possible d’utiliser, au lieu de bus et de disques partagés SCSI, des sous-systèmes disque SSA (Serial Storage Architecture) et des boucles de connexion. • De même, à la place de bus et de disques partagés, il est possible d’utiliser des sous-systèmes disque Fibre Channel (DAS 3500), des boucles FC-AL et des cartes Fibre Channel. Logiciels Une grappe comporte les logiciels suivants : • HACMP pour AIX, coeur de la structure en grappe, • BullCluster, module Bull intégrant divers utilitaires et outils de productivité, • applications exécutées sur les serveurs, à doter de la haute disponibilité. Matériel Une grappe est constituée du matériel de base suivant : • serveurs (noeuds de la grappe), • unités de disque partagé (RAID ou non – les unités prises en charge sont décrites plus loin dans ce chapitre), • connexions matérielles : cartes SCSI (ou SSA), cartes Fibre Channel, cartes réseau (public et privé), connexions série RS-232 entre noeuds. Remarque : Pour en savoir plus sur les réseaux (public, privé et série), reportez-vous à la page 3-3. Concepts et composants 1-3 Solutions console Le produit Powercluster propose différentes solutions matérielles pour gérer la console. Le PowerConsole, notamment, est une station de travail qui offre un point de contrôle unique pour gérer les grappes. Il sert à la fois de point d’accès (via un concentrateur) aux consoles système des différents noeuds, et de puissante station de travail susceptible d’exécuter n’importe quel utilitaire d’administration. Duplications Un certain nombre de duplications matérielles sont nécessaires en contexte HA pour limiter les défaillances sur point unique (SPOF). Par exemple, les configurations illustrées précédemment intègrent deux noeuds, deux cartes réseau par noeud, ainsi que deux bus SCSI distincts pour l’accès aux disques partagés externes. Les données stockées sur disque doivent être redondantes, soit via la fonction miroir d’AIX (sur les disques non RAID), soit via l’utilisation de disques RAID (qui assurent eux-mêmes la duplication de leurs données). Serveurs (noeuds de grappe) Les solutions HA sont des grappes intégrées aux séries Escala D, T, M et E. Le produit Powercluster est constitué de serveurs Escala montés en armoires (racks). Trois modèles de serveur d’un seul noeud sont disponibles : • EPC400, EPC430 et EPC440 avec un bus PCI, • EPC800, avec un bus MCA, • EPC1200, EPC1200A et EPC2400 avec un bus PCI, constitué de deux armoires (une armoire d’ordinateur avec un tiroir CPU et une armoire d’extension avec un tiroir d’E/S). En outre, des configurations multi-noeud peuvent être configurées sur la base de ces modèles en ajoutant des noeuds. HACMP HACMP (High Availability Cluster Multi-Processing) for AIX, coeur de la structure en grappes, fournit les mécanismes de contrôle de la grappe. Le module HACMP principal, appelé ”sous-système HA”, est chargé de : • détecter les modifications intervenues sur la grappe (notamment les défaillances matérielles et les arrêts du serveur pour maintenance); • lancer et coordonner les interventions consécutives à une défaillance, pour reconfigurer l’environnement et basculer les activités sur d’autres ressources. En outre, HACMP peut être complété du module Concurrent Resource Manager (CRM) qui gère les accès partagés concurrents sur disque. Ce module, requis pour la mise en oeuvre de l’accès concurrent, est proposé en option. Remarque : Pour en savoir plus sur les fonctions HACMP, reportez-vous au manuel HACMP Concepts and Facilities. Module BullCluster BullCluster est un module logiciel développé par Bull. Il regroupe divers utilitaires et outils de productivité, utiles dans un environnement de grappe. Les caractéristiques de BullCluster sont répertoriées aux sections ”Outils généraux” et ”Outils spécifiques de Powercluster”, ci-après. 1-4 EPC et solutions HA – Guide d’installation Outils généraux Outil de configuration rapide BullCluster intègre un outil convivial simplifiant la configuration initiale d’une grappe, implémenté comme extension des menus SMIT de HACMP (SMIT, System Management Interface Tool, est l’outil standard AIX de gestion du système, piloté par menus). L’outil de configuration rapide permet de configurer la topologie de la grappe via une jeu réduit de menus. Il offre en outre des options permettant de personnaliser le traitement d’événements HACMP. Menus simples pour la gestion des ressources de grappe Un menu est ajouté aux menus HACMP d’origine pour faciliter : • la création et la modification des ressources de grappe à l’usage de HACMP ; • la configuration et la gestion des modules LVM partagés (groupes de volumes, volumes logiques, systèmes de fichiers). Exemple de scripts de basculement BullCluster comporte des scripts de début et de fin, utiles pour installer les services Informix, Oracle, OPS, Tuxedo, HVX, X25 et Internet. Ces scripts, seulement fournis à titre de référence, doivent être adaptés aux besoins des utilisateurs (pour en savoir plus, reportez-vous à ”Planification d’applications spécifiques”, page 3-1). Utilitaires dédiés aux différentes configurations de stockage partagé BullCluster fournit des scripts complémentaires à ceux de HACMP, pour prendre en charge les sous-systèmes DAS (Disk Array Storage) RAID, les sous-systèmes disque SSA (Serial Storage Architecture), les sous systèmes de disque miroir partagé permettant une reconstitution en cas de sinistre (Disaster Recovery) et la configuration dite ”HA native” (qui comprend deux serveurs Escala partageant leurs disques internes, comme décrit page 3-6). Outil de diagnostic BullCluster BullCluster propose un outil de diagnostic qui permet de générer des informations de diagnostic. Cet outil analyse l’état et la cohérence des ressources de grappe, et balaye les fichiers journaux HACMP et système à la recherche des événements majeurs survenue sur la grappe et des erreurs matérielles. Cet outil est fourni sous forme de commandes Unix. Utilitaires de télécontrôle de grappe (et OPS) via ISM BullCluster fournit des utilitaires facilitant l’exploitation des stations de gestion ISM (Integrated System Management) pour : • le télécontrôle de l’état de la grappe, • le télécontrôle et l’optimisation d’OPS (Oracle Parallel Server). BullCluster comprend également des utilitaires générant des interruptions SNMP lorsque des erreurs relatives aux disques partagés sont détectées. ISM peut contrôler ces interruptions. Remarque : ISM est un produit Bull qui permet de contrôler et de gérer les systèmes et réseaux distribués. Il offre aux administrateurs une interface graphique conviviale et personnalisable qui leur donne la possibilité de visualiser et de contrôler les systèmes en réseau. ClusterWatch ClusterWatch est un utilitaire basé sur le Web, qui contrôle les opérations de grappe. Il permet aux administrateurs système d’avoir instantanément accès aux données stratégiques dont ils ont besoin pour gérer les grappes et optimiser l’exploitation. Remarque : Une version SMIT de ClusterWatch est également fournie. Concepts et composants 1-5 Autres utilitaires BullCluster intègre également les utilitaires pwcons et clusterview, fournis sous forme de commandes Unix : • pwcons est un utilitaire qui donne à l’opérateur le contrôle des consoles système des noeuds dépourvus de terminal. • clusterview est un utilitaire qui rend compte de l’état des grappes. Il est comparable au programme clstat livré avec HACMP. 1-6 EPC et solutions HA – Guide d’installation Unités de disque Cette section traite des disques partagés, c’est-à-dire des disques accessibles par les différents noeuds de la grappe. Remarques sur les disques internes Les serveurs sont équipés d’unités de disque interne. Ces disques sont exclusivement dédiés au stockage des fichiers et des applications système (et du groupe de volume système rootvg). Aucune donnée destinée aux applications HA ne doit y être stockée. Autrement dit, les unités de disque interne ne peuvent pas être partagées sur une grappe (seule exception : la configuration ”Native HA”, décrite page 1-7). Notez que les disques système internes (et notamment le groupe de volume système rootvg) peuvent être mis en miroir pour accroître la disponibilité des noeuds. La fonction miroir est une fonction standard du système AIX. Stockage partagé sur configuration ”HA native” Pour les solutions HA basées sur serveur Escala E ou T, il est possible d’implémenter la configuration dite ”HA native” (haute disponibilité native). Une configuration HA native est constituée de deux serveurs Escala E ou T qui partagent leurs disques internes. Ces configurations offrent une alternative économique quoique puissante aux configurations qui utilisent des sous-système externes pour le stockage partagé. Pour en savoir plus sur les configurations HA native, reportez-vous à la page 3-6. Serveur Escala Zone 1 : réservée aux unités de support. Zone 2 Zone 3 Zone 4 Zone 5 Disques internes utilisés comme disques partagés dans les configurations HA native. Disques internes réservés au système (inutilisables comme disques partagés). Concepts et composants 1-7 Sous-systèmes RAID DAS Les sous-systèmes de stockage DAS (Disk Array Storage) intègrent la fonction RAID permettant de récupérer des données de façon transparente en cas de défaillance de disque. Ils sont particulièrement adaptés à la haute disponibilité et aux grappes qui requièrent une capacité disque importante. Ils sont disponibles sur les Powerclusters et sur toutes les solutions HA basées sur serveurs Escala. Versions verticales DAS 1300 (jusqu’à 10 modules disque) DAS 2900 (jusqu’à 20 modules disque) DAS 3x00 (jusqu’à 30 modules disque) DAS 5700 (jusqu’à 120 modules disque) DAS 5720, DAS5300 (jusqu’à 30 modules disque) 1-8 EPC et solutions HA – Guide d’installation Versions montées en armoire Principaux atouts des sous-systèmes DAS 1300/2900/3200 Ces sous-systèmes sont prémunis contre les défaillances sur point unique (SPOF) du fait des configurations double bus SCSI et des processeurs de stockage et blocs d’alimentation redondants. Ils utilisent des connexions SCSI-2 DE Fast/Wide. Pour optimiser la haute disponibilité des données, les principaux composants (unités de disque, processeurs de stockage et blocs d’alimentation) sont remplaçables sans mise hors tension du système. La structure modulaire des sous-systèmes DAS leur confère une très grande souplesse et un rapport performance/fiabilité optimal (disques ultra-rapides et écriture en mémoire cache). Les DAS 2900 et 3200 étant équipés de processeurs de stockage nouveaux et améliorés, offrent les performances optimales. Remarque : Les processeurs de stockage (SP) sont des unités intégrées qui contrôlent les modules disque via un bus SCSI. Atouts des sous-systèmes DAS 3500 (Fibre Channel) Ces sous-systèmes sont prémunis contre les défaillances sur point unique (SPOF) du fait des configurations double bus Fibre Channel et des processeurs de stockage et des blocs d’alimentation redondants. Pour optimiser la haute disponibilité des données, les principaux composants (unités de disque, processeurs de stockage et blocs d’alimentation) sont remplaçables sans mise hors tension du système. Un câble Fibre Channel raccorde le système de stockage à une carte HBA (Host Bus Adapter) Fibre Channel au niveau du serveur. La circulation des données et des commandes entre le système de stockage et les serveurs se fait via un système FC-AL (Fibre Channel Arbitrated Loop). Atouts des sous–systèmes DAS 5700/5720/5300 (Full Fibre Channel) Les systèmes de stockage sur disques en grappe Fibre Channel offrent une capacité de plusieurs téraoctets, des taux de transfert de données élevés, des configurations plus flexibles et des données hautement disponibles. Les sous–systèmes Full Fibre Channel font appel aux unités de disque à fibre optique (contrairement aux systèmes DAS 3500 qui utilisent des disques SCSI). Optimisation de la disponibilité des données : tous les composants sont conçus pour être retirés et remplacés à chaud, sans interruption de fonctionnement. Niveaux RAID Les sous-systèmes DAS prennent en charge les niveaux RAID 0, 0/1, 1, 3 et 5. Remarque : Pour en savoir plus sur les configurations DAS, reportez-vous à la page 3-10. Concepts et composants 1-9 Sous-systèmes disque SSA Les sous-systèmes disque SSA (Serial Storage Architecture) sont disponibles sur les Powerclusters et sur toutes les solutions HA basées sur serveurs Escala. Présentation de l’architecture SSA L’architecture SSA (Serial Storage Architecture) est une architecture point-à-pour les unités de stockage. SSA, devenu un standard de l’industrie, peut être une aux configurations de stockage basées sur SCSI. Hautes performances : • SSA assure les communications en duplex intégral et offre une bande passante totale de 80 Mo/s (deux canaux de lecture et deux canaux d’écriture sont utilisés simultanément, chacun à 20 Mo/s). Haute disponibilité inhérente au mécanisme SSA : • Dans une grappe, les liaisons SSA sont implantées en boucle, de sorte que les voies d’accès aux données ne constituent pas des points uniques pour les défaillances (SPOF). Avec cette topologie en boucle, les noeuds ont accès aux sous-systèmes disque via deux voies distinctes d’accès aux données. Si l’une est indisponible, l’autre est automatiquement accessible. La haute disponibilité est ainsi optimisée et les connexions ”à chaud” (sans mise hors tension) possibles. Sous-systèmes disque SSA compatibles Les sous-systèmes disque SSA en version verticale et armoire. La version armoire est conçue pour s’intégrer aux serveurs Escala montés en armoire. Sous-systèmes SSA version montée en armoire version verticale Voici les principales fonctions des sous-systèmes disque SSA : • Un sous-système peut abriter de 4 à 16 unités de disque. Pour augmenter la capacité de stockage, il suffit d’interconnecter plusieurs systèmes : dans une boucle, vous pouvez connecter jusqu’à 48 disques et sur une carte SSA, jusqu’à 96. • La plupart des composants des sous-systèmes disque SSA (unités de disque, alimentations, câbles SSA...) peuvent être ajoutés, retirés ou remplacés sans interrompre l’exploitation du sous-système ni des noeuds utilisés. Alimentation et ventilation redondantes sont disponibles en option. Remarque sur la disponibilité des données Les sous-systèmes disque SSA pris en charge ne proposent pas les fonctions de disponibilité des données inhérentes à RAID. Aussi, pour implanter la redondance des données, l’administrateur peut implémenter la mise en miroir (avec les utilitaires standard d’AIX). Remarque : Pour en savoir plus sur les configurations SSA, reportez-vous à la page 3-22. 1-10 EPC et solutions HA – Guide d’installation Systèmes de stockage Symmetrix CDA d’EMC Les Powerclusters sont généralement équipés de sous-systèmes RAID DAS, ou de sous-systèmes disque SSA comme unités de disque partagées. Il peuvent également être, en option, équipés de systèmes de stockage Symmetrix CDA. Les systèmes Symmetrix CDA (proposés par EMC) assure la protection des données via RAID, dont RAID-1, RAID-S (stratégie RAID développée par EMC) et la répartition dynamique des volumes disque. N’étant pas traitée dans ce document, l’installation de ces systèmes incombe à des spécialistes. Pour plus de détails, contactez votre représentant Bull. Bibliothèques de bandes Les unités de bandes hautes performances multichargeur de type Overland DLT4000/DLT7000 assurent les fonctionnalités de sauvegarde des données. Les unités de bandes, logées dans des unités montées en armoire, constituent les bibliothèques LibraryXpress LXB4000/LXB7000. Une bibliothèque LXB peut être rattachée à un seul noeud. La bibliothèque ne peut être partagée pour la haute disponibilité que par deux noeuds de type similaire avec l’application HA NetBackup. Le serveur maître ou le serveur esclave peut être redondant en implémentant le mode de secours à chaud ou de reprise mutuelle. Concepts et composants 1-11 1-12 EPC et solutions HA – Guide d’installation Chapitre 2. Planification et installation Ce chapitre est une introduction à la procédure de planification, d’installation et de configuration d’une grappe. La section Repères résume les différentes étapes de la procédure. Une fois toutes les étapes de la planification menées à terme, passez au chapitre suivant pour procéder à l’installation. Exécutez les étapes dans l’ordre indiqué. Des renvois aux chapitres ou documents associés vous sont indiqués chaque fois que nécessaire. Repères Cette section récapitule les étapes de la procédure de planification, d’installation et de configuration. La procédure consiste à : 1. Planifier l’installation de la grappe. 2. Installer la console et les composants matériels de base. – Raccorder les consoles systèmes et installer les connexions réseau. C’est à un stade ultérieur que vous connectez les unités de disque partagées externes. 3. Amorcer chaque noeud en vérifiant qu’il est opérationnel. 4. Configurer sur chaque noeud l’adresse d’amorçage TCP/IP pour la carte réseau de service et l’adaptateur de secours. – Pour ce faire, lancez la commande smit mktcpip. 5. Configurer les ID SCSI de la carte (non applicable si vous exploitez des sous-systèmes disque SSA ou fibre). – Pour appliquer les modifications, cette étape est suivie du réamorçage des noeuds. 6. Vérifier l’installation du logiciel. 7. Le cas échéant, installer le logiciel (le logiciel est généralement préchargé en usine). 8. Arrêter les noeuds et les mettre hors tension. 9. Interconnecter les noeuds via les réseaux série RS-232. 10.Préparer les cartes SCSI en vue du câblage (non applicable si vous utilisez un sous-système de stockage disque SSA). Si vous utilisez un sous-système de stockage disque SCSI, cette étape n’est requise que si vous ajoutez un serveur à une grappe préexistante ; elle est inutile si vous procédez à l’installation complète d’un nouvelle grappe déjà configurée en usine. 11. Préparer les boucles Fibre Channel. Si vous utilisez des cartes Fibre Channel avec des sous-systèmes DAS (concentrateur FC-AL en option), établissez les différentes boucles FC-AL entre les sous-systèmes DAS et les cartes Fibre Channel, directement ou non, et au besoin avec des concentrateurs FC-AL. 12.Installer les unités de disque partagées (disques RAID ou non). – Câbler les unités de disque et, au besoin, définir leur ID SCSI. Planification et installation 2-1 13.Démarrer les disques/noeuds et configurer le sous-système RAID DAS. – Créer les unités logiques et définir les LUN (Logical Unit Number = numéro d’unité logique) sur les sous-systèmes RAID DAS. – C’est à un stade ultérieur que vous créez les groupes de volumes partagés. – Si vous utilisez des concentrateurs FC-AL, mettez–les, ainsi que les sous-systèmes, sous tension. Le témoin (jaune) s’éteint quand le sous-système est prêt. Mettez ensuite les noeuds sous tension et configurez le sous-système. 14.Déterminer la méthode de configuration de la grappe. – Vous avez le choix entre la méthode de configuration standard HACMP et la méthode de configuration initiale rapide (spécifique de BullCluster). 15.Configurer la topologie de la grappe pour HACMP – soit avec l’outil de configuration rapide, – soit via la méthode de configuration standard HACMP. 16.Finaliser la configuration tel que décrit au chapitre ”Finalisation de l’installation de la grappe”, page 8-1. Étape suivante Une fois la première étape de planification menée à son terme, passez au chapitre ”Installation du matériel de base”, page 4-1, et suivez les instructions pour procéder à l’installation et à la configuration de la grappe. 2-2 EPC et solutions HA – Guide d’installation Chapitre 3. Informations de planifications complémentaires Ce chapitre complète le manuel HACMP Planning Guide. Il apporte des précisions sur le câblage, les unités de disque partagées, les consoles et les applications spécifiques. • Planification des applications • Planification des ports série, page 3-2. • Planification des réseaux, page 3-3. • Planification du stockage partagé ”HA native” pour les solutions Escala HA, page 3-6. • Planification des sous-systèmes DAS partagés, page 3-10. • Insertion d’emplacements de disques en grappe (DAE), page 3-19. • Planification du stockage partagé HA étendue pour solutions Escala HA, page 3-20. • Planification des sous-systèmes SSA partagés, page 3-22. • Planification des sous–systèmes EMC Symmetrix partagés, page 3-25. Pour en savoir plus sur les câbles, reportez-vous au document Cabling Guide livré avec le matériel. Planification d’applications spécifiques Le module logiciel BullCluster comporte des scripts de début et de fin, utiles pour implémenter diverses applications sur la grappe comme des applications HA. Insistons sur le fait que ces scripts ne sont que des exemples (donc non pris en charge), qui doivent être modifiés selon vos besoins. • En fonction de votre environnement et de ses contraintes, vous pouvez utiliser ces scripts comme base pour écrire des scripts adaptés. Vous pouvez également décider d’écrire vos propres scripts ex nihilo, sans tenir compte des scripts proposés. • Dans l’un ou l’autre cas, n’oubliez pas qu’écrire des scripts de début et de fin fiables suppose une connaissance technique approfondie de HACMP et de l’application à implémenter. Nous vous conseillons de demander l’aide des services techniques Bull. Exemple de scripts pour les principales applications Les exemples de scripts pour les applications ci-après se trouvent dans le répertoire /usr/sbin/bullcluster/install/ha_conf : • Oracle, • OPS (Oracle Parallel Server), • Informix, • Tuxedo, • Services Internet (Netscape Enterprise Server, Netscape Proxy Server, NetWall), • HVX, • X25. Notez, en outre, que le sous-menu Create and Add an Application Server to a Resource Group du menu SMIT BullCluster Cluster Resources Modification permet de définir facilement pour HACMP un serveur d’application pour une quelconque des applications ci-dessus. Informations de planifications complémentaires 3-1 Exemple de scripts pour diverses applications Le module BullCluster est fourni avec d’autres exemples de scripts pour d’autres applications. Ces exemples et les fichiers README associés se trouvent dans le répertoire /usr/sbin/bullcluster/install/samples. Pour en savoir plus, consultez ces fichiers. Documentation pour l’utilisation des scripts exemple Le document Powercluster & solutions HA - Utilisation des scripts d’exemple HA, principalement destiné au personnel technique Bull, donne des conseils sur l’utilisation des scripts de début et de fin proposés en exemple avec le module logiciel BullCluster. Planification des ports série Pour prendre le matériel d’une grappe en charge, chaque noeud requiert plusieurs ports série RS-232. Il s’agit de déterminer le nombre total de ports série nécessaires. Port série S2 Tenez compte de ce qui suit au sujet du port série S2 des serveurs Escala. Serveur EPC 1200/1200A/2400 Le port série S2 du système Escala EPC 1200/1200A et EPC2400 est exclusivement dédié à la télémaintenance. Des cartes 8 ports (ou 16) doivent être utilisées pour toute connexion série nécessaire à la configuration HACMP. Autres serveurs ESCALA EPC400/430/440 et ESCALA E ou T utilisent les ports COM2 (modem externe) ou COM3 (UPS) plutôt que le port 8-pour les connexions heartbeat et DAS. Ports série pour consoles système et connexion SP DAS (A) Chaque noeud de grappe requiert : • 1 port série (le port S1) pour la connexion à la console système, que le noeud soit ou non raccordé directement à une console. • 1 port série supplémentaire (généralement le port série S3 ou COM3) par sous-système DAS, le cas échéant, pour la connexion du noeud avec un processeur de stockage (SP) DAS. Soit au total pour chaque noeud : • 1 port série pour une grappe dépourvue de sous-système DAS ; • 2 ports série pour une grappe dotée d’un sous-système DAS ; • 3 ports série pour une grappe dotée de deux sous-systèmes DAS en série. Ports série pour connexions de réseau série (B) Par ailleurs, chaque noeud requiert des ports série supplémentaires pour la connexion aux réseaux en série : • 1 port série pour une grappe de deux noeuds, • 2 ports série pour une grappe de plus de deux noeuds. Ports série pour UPS (C) Si vous utilisez des blocs d’alimentation UPS (Uninterruptible Power Supply) en option, chaque noeud requiert un port série supplémentaire. 3-2 EPC et solutions HA – Guide d’installation Planification des réseaux Cette section complète les informations sur les réseaux fournies dans le manuel HACMP Planning Guide. Elle traite de quelques spécificités et fournit des conseils concernant les offres Powercluster et solutions HA. Réseaux public, privé et série Dans le contexte HACMP : • Un réseau public est un réseau qui relie plusieurs noeuds et donne aux clients accès aux noeuds de la grappe. • Un réseau privé est un réseau de communication point à point entre les noeuds de la grappe. Un réseau privé est essentiellement utilisé pour le trafic verrouillé entre noeuds. Il est requis pour implémenter l’accès concurrent. Il est également requis pour l’architecture 3-tier. • Un réseau série consiste en liaisons RS-232 qui relient les noeuds entre eux pour le transport du flux de détection de survie (”keep-alive”) généré par HACMP. Réseau public Le réseau public peut être implémenté via Ethernet, FDDI, Token–Ring ou ATM. Ethernet Pour la connexion au réseau public, les configurations de réseau Ethernet courantes requièrent généralement deux cartes Ethernet 10/100 Mpbs ou de 1 Go par noeud (une carte de service et une de secours). Sur certaines configurations de grappe plus complexes, qui implémentent deux réseaux publics Ethernet à des fins de redondance, quatre cartes par noeud sont nécessaires. FDDI Sur les réseaux public faisant appel à FDDI, il est recommandé d’utiliser une configuration à deux anneaux plutôt qu’un seul pour augmenter la disponibilité. Pour la connexion au réseau public, les configurations de réseau FDDI courantes requièrent généralement deux cartes à deux anneaux par noeud (une carte de service et une de secours). Sur certaines configurations de grappe plus complexes, qui implémentent deux réseaux publics FDDI à des fins de redondance, quatre cartes double anneau par noeud sont nécessaires. ATM L’implémentation du réseau public peut également passer par le mode ATM (Asynchronous Transmission Mode), qui fournit un débit de 155 mégabits par seconde. Une configuration classique comporte un commutateur ATM et chaque noeud est équipé de deux cartes ATM (une carte de service et une de secours). Informations de planifications complémentaires 3-3 Réseau privé Les réseaux privés ne concernent que les grappes sur lesquelles est implémenté l’accès concurrent ou des noeuds avec architecture 3-tier, les uns jouant le rôle de serveurs d’applications et les autres faisant office de serveurs de bases de données. Le réseau privé est implémenté via Ethernet ou FDDI double-anneau. • Informations sur Ethernet : – interconnexion simple ou double avec un concentrateur standard (> 2 noeuds) ; – interconnexion simple ou double avec un commutateur haute performance (> 2 noeuds). Pour prévoir un commutateur Fast Ethernet, adressez-vous à votre représentant. • Pour en savoir plus sur FDDI, reportez-vous à ”Planification de la topologie de réseau FDDI privé”, ci-après. Concentrateurs FDDI et Ethernet : pour le montage de ces concentrateurs dans des armoires, vous pouvez commander des kits spécifiques (un pour le concentrateur FDDI et un pour le concentrateur Ethernet). Planification de la topologie de réseau FDDI privé Remarque : Cette section ne concerne que les grappes qui doivent être équipées de réseaux privés. Pour l’interconnexion de noeuds de grappe, une installation type ne fait appel qu’à un seul réseau. Toutefois, pour une optimisation maximale de la disponibilité, deux réseaux privés peuvent intervenir. Ce type de configuration complexe n’est pas décrit ici. Quand vous planifiez un réseau FDDI privé, rappelez-vous que du degré de disponibilité dépend de la topologie choisie. Quelques conseils sont donnés plus loin. Grappes de 2 ou 3 noeuds Pour une grappe de 2 ou 3 noeuds, vous pouvez implémenter le réseau FDDI privé simplement via un anneau double, sans faire appel à d’autres unités FDDI. En cas de bouclage d’anneau (si un anneau est rompu en raison d’un noeud hors tension ou d’une section FDDI défectueuse), aucune fragmentation n’a lieu : l’intercommunication des noeuds reste possible. Remarques : 1. Du point de point évolutivité, un réseau privé FDDI est construit avec un concentrateur (ou un commutateur, pour de meilleures performances). 2. Pour assurer une grande disponibilité, un réseau FDDI privé basé sur un seul anneau n’est pas approprié. Le FDDI à double anneau est formé de deux boucles indépendantes (un anneau principal et un secondaire faisant office d’anneau de secours) et offrant ainsi une plus grande disponibilité. 3. Comme expliqué plus haut, techniquement, une grappe de 3 noeuds ne requiert pas l’emploi d’unités FDDI particulières (un double anneau ordinaire étant suffisant). Toutefois, sachez que les modèles Powercluster 3 noeuds peuvent être livrés avec 2 concentrateurs FDDI ; vous pouvez ainsi mettre en oeuvre une configuration FDDI jumelée, comme expliqué à la section Grappes de 3 noeuds ou plus ci-après. Adopter ce type de configuration pour une grappe de 3 noeuds facilite les mises à niveau ultérieures (ajout de noeuds à la grappe). 3-4 EPC et solutions HA – Guide d’installation Grappes de 3 noeuds ou plus Pour une grappe de 3 noeuds ou plus, implémenter le réseau privé simplement via un double anneau FDDI peut paraître inapproprié en matière de disponibilité. Sachez toutefois que : • En cas de bouclage d’anneau (si un anneau est rompu en raison d’un noeud hors tension ou d’une section FDDI défectueuse), l’anneau continue à fonctionner normalement. L’intercommunication des noeuds reste possible. • C’est l’éventualité d’un second bouclage d’anneau qui pose problème. Dans ce cas, le réseau FDDI se fragmente en deux anneaux indépendants. L’intercommunication des noeuds d’un fragment à l’autre n’est alors plus possible. Configuration FDDI jumelée Pour empêcher la fragmentation du réseau FDDI privé, les noeuds doivent être connectés à un concentrateur FDDI. Par ce biais, la mise hors tension d’un noeud ou la défaillance d’une carte FDDI ne provoque pas de fragmentation du réseau. Ceci peut s’avérer insuffisant si vous souhaitez une disponibilité optimale du réseau privé. Sachant que le concentrateur constitue un point de défaillance unique (SPOF), s’il vient à faillir, il en résulte une panne du réseau FDDI. Pour éliminer ce SPOF, la solution est de mettre en oeuvre une configuration jumelée. Ce type de configuration repose sur deux concentrateurs FDDI indépendants auxquels chaque noeud est connecté : ainsi, un accès alternatif est en place si l’accès principal vient à faillir. Pour l’offre Powercluster, dans ce type de configuration, chaque noeud est équipé d’une carte FDDI double anneau reliée aux deux concentrateurs FDDI (modèle Linkbuilder de 3COM). En voici illustré un exemple (grappe de 4 noeuds) : noeud A une carte double anneau noeud B une carte double anneau concentrateur FDDI 1 noeud C une carte double anneau concentrateur FDDI 2 noeud D une carte double anneau RESEAU PRIVE : Implémentation FDDI jumelée Informations de planifications complémentaires 3-5 Planification du stockage partagé “HA native” pour les solutions Escala HA Préalables • Consultez le chapitre ”Planning Shared Disk Devices” dans le document HACMP Planning Guide. Configuration ”HA native” Pour les solutions HA basées sur les serveurs Escala E ou T, il est possible d’implémenter la configuration dite ”HA native”. Bus SCSI partagés et fonction miroir Deux types de configuration sont possibles, dans lesquelles sont utilisés : • uniquement les disques internes ou • les disques internes plus une armoire d’extension disque. Dans une configuration HA native, deux disques SCSI partagés sont implémentés avec des disques non RAID. Pour la haute disponibilité, vous devez implanter la fonction disque miroir, via les utilitaires standard d’AIX. Elle est mise en oeuvre par la fonction miroir standard du système AIX. Reportez-vous à ”LVM Mirroring” dans le document HACMP Planning Guide. Scénario de fonction miroir avec une configuration HA native simple La mise en miroir doit être implémentée sur les deux noeuds. Ce qui signifie que les disques internes d’un noeud (accessibles via un bus SCSI partagé) doivent être dupliqués sur les disques internes de l’autre noeud (accessibles via l’autre bus SCSI partagé). La figure suivante illustre une configuration permettant le basculement mutuel en cours d’exploitation normale : Noeud A Noeud B Appli A miroirs des disques A disques A Exploitation normale : • Noeud A travaille avec l’application Appli A qui stocke ses données sur les disques A. Ces disques sont dupliqués sur les disques de noeud B. Les deux noeuds ont accès aux disques A et à leurs miroirs, ceux-ci étant sur des bus SCSI distincts. • Sur noeud B a été défini un miroirs des disques B disques B environnement similaire et symétrique. Une autre application, Appli B, utilise les disques B et ceux-ci sont dupliqués sur l’autre noeud. Appli B Supposons une défaillance du noeud A. HACMP lance alors le processus de basculement : l’application appli A est démarrée sur le noeud B et peut ainsi travailler en utilisant les miroirs des disques A (voir illustration suivante). 3-6 EPC et solutions HA – Guide d’installation Noeud A Exploitation après basculement : Noeud B • Noeud A est en panne. Appli A Appli A • Noeud B active les deux Appli B disques A miroirs des disques A mirroirs des disques B disques B applications, Appli A et Appli B. Appli A utilise à présent les miroirs des disques A. Scénario de fonction miroir avec une armoire d’extension disque Si vous utilisez une armoire d’extension disque, les disques internes de noeud A sont dupliqués sur les disques de l’armoire d’extension. De même, les disques internes de noeud B sont dupliqués sur les disques de l’armoire d’extension. Pour en savoir plus, reportez-vous à Unité d’extension disque - Guide de maintenance et Tiroir d’extension PCI - Installation rapide. Disques internes à utiliser Dans les configurations HA native, les disques utilisés pour le stockage partagé sont les disques internes résidant dans la zone unité 3, et éventuellement dans la zone unité 2, de l’unité de base du serveur. serveur Escala Zone 1 : réservée aux unités de support. Zone 2 Zone 3 Zone 4 Zone 5 disques internes utilisés comme disques partagés dans les configurations HA native. disques internes utilisés comme disques système (inutilisables comme disques partagés). Notez que : • Les zones unités 3 et 2 utilisent le même bus SCSI. Chaque zone peut loger jusqu’à deux disques de 1,6 pouces ou trois disques de 1 pouce de haut. • Pour la mise en miroir, la configuration doit être aussi symétrique que possible. Les zones unités partagées (zone 3 et éventuellement 2) d’un noeud doivent être occupées de la même façon que les zones correspondantes sur l’autre noeud : mêmes disques, même capacité, même nombre et même emplacement. Informations de planifications complémentaires 3-7 Cartes SCSI et câblage des bus Notez que : • Pour implémenter les deux bus SCSI, chaque noeud doit être équipé de deux cartes SCSI Ultra SE. Ces cartes sont libellées ”B4-5”. (Pour les configurations HA native avec armoire d’extension disque, quatre cartes sont nécessaires). • L’utilisation de câbles en ”Y” accroît la disponibilité. Les opérations de maintenance se révèlent plus aisées si vous adoptez cette méthode : elle permet de débrancher le câble en Y sans rompre la continuité du bus SCSI. Deux bus SCSI partagés doivent être installés. Le schéma ci-après illustre le câblage du premier bus SCSI partagé (arrière des serveurs Escala). ATTENTION : Tous les serveurs livrés sont dotés de câbles internes et de connecteurs standard, qui doivent être adaptés aux configurations illustrées. Configuration HA native simple La configuration HA native simple est une solution d’extension disque HA économique, permettant de dupliquer et de partager les disques internes via deux chaînes SCSI. Node B Noeud A Zone unité 2 Zone unité 2 Zone unité 3 Zone unité 3 1b’ z T z Remarque : les pointillés représentent le câblage SCSI interne. 1a’ z z T 1a 1b La longueur totale de câble ne doit pas excéder 1,5 m. Référence des composants : Câble SCSI interne, réf. : CBLG178 (P/N: 78172894-001) Adaptateurs SCSI (type B4–5) Câble SCSI + 2 fiches de bouclage (90982001–001) + 1 terminaison de type pass–thru (91076001–001) Ces références sont susceptibles de changer. 3-8 EPC et solutions HA – Guide d’installation Légende des exemples 1a, 1a’, 1b, 1b’ Chaque noeud est équipé de deux cartes SCSI Ultra SE (type B4-5), installées aux emplacements PCI. A l’intérieur de noeud A, un accès SCSI interne (ligne pointillée sur la figure) relie la carte 1a aux disques de la zone 3 (et éventuellement de la zone 2), via la cloison interne (non illustrée). De même, à l’intérieur de noeud B, un accès SCSI interne relie la carte 1b’ aux disques de la zone 3 (et éventuellement de la zone 2), via la cloison interne. T Les terminaisons de type Pass-thru se trouvent sur une extrémité des câbles externes et sont connectées aux cartes SCSI 1a’ et 1b’ (auxquelles aucun disque interne n’est relié). z Remarques sur les fiches de bouclage (représentées par le symbole z) : • Les deux accès SCSI internes mentionnés ci-dessus doivent être équipés d’une fiche de bouclage pour neutraliser la terminaison SCSI au niveau de la carte. Cette fiche doit être branchée sur le connecteur intermédiaire du câble SCSI interne, qui relie les cartes SCSI (1a et 1b) à la cloison interne. • Les deux cartes SCSI 1a’ et 1b doivent également être équipées d’une fiche de bouclage pour neutraliser la terminaison SCSI au niveau de la carte. Cette fiche doit être branchée sur le connecteur d’extrémité de la carte SCSI. • Sur les nouveaux systèmes, les fiches de bouclage sont installées en usine, vous n’avez donc pas à vous en soucier. Si vous mettez des serveurs Escala à niveau, installez les fiches de bouclage livrées avec les cartes (dans le kit de mise à niveau). Configuration HA native avec armoire d’extension disque partagée Une configuration HA native avec armoire d’extension disque partagée constitue une solution économique pour partager des disque HA entre deux hôtes et dupliquer des disques internes et externes via deux chaînes SCSI. Noeud A Noeud B Armoire d’extension Zone unité 2 Zone unité 2 Zone unité 2 Zone unité 3 Zone unité 3 Zone unité 3 z T z T z T z T z z T Zone unité 2 z z z T Zone unité 3 Informations de planifications complémentaires 3-9 Planification des sous-systèmes DAS partagés Préalables • Consultez le chapitre ”Planning Shared Disk Devices” dans le document HACMP Planning Guide. • Pour une vue d’ensemble des unités de disque prise en charge, reportez–vous également à ”Unités de disque”, page 1-7 de ce manuel. Configurations DAS possibles (à deux bus distincts, deux initiateurs/deux cartes) Présentation Dans un environnement de grappe, plusieurs configurations sont possibles pour les sous-systèmes DAS. Elles diffèrent par le mode d’implémentation des bus SCSI. Deux configurations (SCSI ou Fibre Channel) sont particulièrement intéressantes : • configuration à deux bus distincts, comportant deux bus, mais un seul par noeud ; • configuration à deux initiateurs/deux cartes, comprenant deux bus, partagés l’un et l’autre par les deux noeuds. En réalité, la configuration ”deux initiateurs/deux cartes” est préférable car elle offre une plus grande disponibilité. Ceci parce qu’elle implémente deux bus partagés distincts. Les configurations proposées ne sont données qu’à titre d’exemple pour vous guider dans votre tâche. Voici quelques conseils pour vous aider à planifier l’installation. Pour en savoir plus, reportez-vous à la documentation livrée avec le sous-système DAS, et tout particulièrement au chapitre ”Understanding configurations” du manuel Configuring and Managing a DAS and Using ATF et au chapitre ”About the disk-array storage system” du guide Installing and Maintaining a DAS. Remarque : Les exemples illustrés mettent l’accent sur les configurations à deux bus distincts et à deux initiateurs/deux cartes les plus courantes. D’autres types de configuration peuvent être envisagés : reportez-vous à la documentation des sous-systèmes DAS. 3-10 EPC et solutions HA – Guide d’installation Configuration à deux bus distincts La figure ci-dessous illustre une configuration à deux bus distincts. un bus SCSI autre bus SCSI, distinct 1 1 4 2 SP A 2 4 SP B 3 3 sous-système DAS noeud X noeud Y SP A, SP B Le sous-système DAS est équipé de deux processeurs de stockage (SP). 1, 2 Chaque noeud est équipé d’une carte SCSI-2 DE Fast/Wide (1) raccordée à la carte SCSI-2 (2) d’un processeur de stockage. Les deux bus SCSI distincts ne sont pas partagés par les noeuds (chaque bus commence à un noeud et se termine à un processeur de stockage). 3, 4 Chaque noeud est connecté à un processeur de stockage DAS via des ports série RS-232 (numéros 3 et 4 sur la figure). Cette ligne série permet l’accès aux fonctions de configuration et de gestion DAS depuis le noeud. Points forts Chaque noeud est équipé d’une carte SCSI connectée par un bus SCSI à un processeur de stockage dans le sous-système DAS. Les deux noeuds ont accès à n’importe quelle unité de disque physique DAS, mais pas simultanément à la même unité. Avec une configuration à deux bus distincts, si une carte SCSI ou un processeur de stockage est défaillant, le noeud concerné ne peut poursuivre, mais l’autre noeud reste opérationnel. Ainsi, un noeud peut prendre en charge les noeuds de l’autre, si celui-ci est défaillant : le noeud opérationnel, via le processeur de stockage accessible, peut prendre le contrôle de toutes les unités physiques de disques partagées. Ce type de configuration est avantageux pour certains sites. Mais le plus souvent, c’est la configuration deux initiateurs/deux cartes qui est adoptée car elle offre une disponibilité maximale. Voir ci-après. Informations de planifications complémentaires 3-11 Configuration deux initiateurs/deux cartes (SCSI) La figure ci-dessous illustre une configuration deux initiateurs/deux cartes bus SCSI autre bus SCSI 1 1 1 1 4 3 2 SP A 2 4 SP B 3 sous-système DAS noeud X noeud Y SP A, SP B Le sous-système DAS est équipé de deux processeurs de stockage (SP). 1, 2 Chaque noeud est équipé de deux cartes SCSI Corvette DE (1), chacune raccordée à la carte SCSI2 (2) d’un processeur de stockage. Les deux bus SCSI sont partagés par chaque noeud. Chaque bus commence à un noeud, passe par un processeur de stockage et se termine à un autre noeud. 3, 4 Chaque noeud est connecté à un processeur de stockage DAS via des ports série RS-232 (numéros 3 et 4 sur la figure). Cette ligne série permet l’accès aux fonctions de configuration et de gestion DAS depuis le noeud. Remarque : Deux sous-systèmes DAS maximum peuvent être connectés en série pour fournir une capacité de stockage supérieure. Points forts Chaque noeud est équipé de deux cartes SCSI, chacune connectée par un bus SCSI distinct du sous-système DAS. Comme dans la configuration à deux bus distincts, les deux noeuds ont accès à n’importe quelle unité de disque physique DAS, mais pas simultanément à la même unité. Cette configuration confère une très grande disponibilité, dans la mesure où elle fournit deux routes indépendantes vers le sous-système DAS. Elle protège contre toute défaillance pouvant survenir sur le bus SCSI. Si un noeud, une carte SCSI ou un processeur de stockage est défaillant, l’autre noeud peut prendre la relève au niveau de l’unité de disque du noeud défaillant. Le noeud opérationnel peut transférer le contrôle de toutes les unités physiques de disque partagées vers le SP accessible. Cette configuration est recommandée pour la disponibilité maximale qu’elle confère au système. Pour sa mise en oeuvre, le logiciel ATF (Application-Transparent Failover) est nécessaire (voir ci-après). Logiciel ATF Le logiciel ATF (Application-Transparent Failover) doit être commandé avec les sous-systèmes DAS. Il doit être installé sur les deux noeuds. Si un accès SCSI vient à faillir (carte, câble, connexion ou processeur de stockage), ATF en bascule le trafic sur le second accès SCSI. ATF opère automatiquement, de façon transparente et sans impact sur les applications et opérations en cours. Remarque : ATF est un logiciel entièrement indépendant, qui n’est pas lié aux mécanismes de basculement HACMP. (Le logiciel ATF est un produit de CLARiiON Business Unit of Data General Corporation.) 3-12 EPC et solutions HA – Guide d’installation Planification des unités de disque physiques (niveaux RAID, LUN) Les sous-systèmes DAS acceptent les niveaux RAID 0, 0/1, 1, 3 et 5. Il est possible de panacher des groupes de différents niveaux RAID dans un même sous-système DAS. • Les niveaux 3 et 5 sont généralement les plus adaptés à la haute disponibilité. • Il est du ressort de l’administrateur système de déterminer le niveau RAID adapté. Par ailleurs, vous devez planifier la configuration des unités logiques (LUN). Une unité logique est une entité unique constituée d’un ou plusieurs modules disque (en environnement DAS, ”LUN” et ”unité de disque physique” sont synonymes). Vous pouvez créer jusqu’à 8 unités logiques. Reportez-vous à la documentation des sous-systèmes DAS pour des informations détaillées sur la planification et pour les fiches de configuration. Planification du câblage Vous devez prévoir les câbles requis pour l’installation des sous-systèmes DAS. Tous les éléments de câblage doivent être compatibles avec la norme SCSI-2 Differential Fast/Wide. Sur un bus SCSI, la longueur totale de câble ne doit pas dépasser 18 mètres (25 mètres étant le maximum théorique). Les câbles en ”Y” assurent une disponibilité accrue. Les opérations de maintenance se révèlent plus aisées si vous adoptez cette méthode : elle permet de débrancher le câble en Y sans rupture de continuité sur le bus SCSI. Les figures ci-après représentent quatre configurations avec des commentaires axés sur le câblage (les câbles entre noeuds RS-232 et processeurs de stockage ne sont pas représentés) : • câbles pour configuration à deux bus distincts, • câbles pour configuration à deux initiateurs/deux cartes, • câbles pour connexion en série de deux sous-systèmes DAS, • autres câbles pour grappes de plus de deux noeuds. Ces informations sont données à titre indicatif. Pour des informations de référence (notamment sur la longueur maximale des câbles), reportez-vous à la documentation des sous-systèmes DAS. Informations de planifications complémentaires 3-13 Câbles pour configuration à deux bus distincts 2 3 3 4 1 4 SP A noeud X 2 1 SP B noeud Y sous-système DAS 1 Une carte SCSI-2 DE Fast/Wide par noeud. Leur terminaison interne doit être retirée. 2 Câbles en Y (différentiels). 3 Terminaisons (différentielles). Raccordées à la branche courte des câbles en Y. 4 Câbles entre câble en Y et contrôleur DAS (différentiels). * Deux câbles RS-232 (non représentés sur la figure) sont nécessaires pour connecter chaque noeud à un processeur de stockage. Pour les ports série, reportez-vous à la page 3-2. Câbles pour configuration à deux initiateurs/deux cartes 2 3 3 4 1 2 2 4 1 3 3 2 1 1 4 4 SP A noeud X 3-14 SP B sous-système DAS noeud Y 1 Deux cartes SCSI-2 DE Fast/Wide par noeud pour fournir deux bus SCSI distincts partagés. Leur terminaison interne doit être retirée. 2 Câbles en Y (différentiels). 3 Terminaisons (différentielles). Raccordées à la branche courte des câbles en Y. 4 Câbles entre câble en Y et contrôleur DAS (différentiels). * Deux câbles RS-232 (non représentés sur la figure) sont nécessaires pour connecter chaque noeud à un processeur de stockage. Pour les ports série, reportez-vous à la page 3-2. EPC et solutions HA – Guide d’installation Câbles pour connexion en série de deux sous-systèmes DAS Deux sous-systèmes DAS maximum peuvent être connectés en série pour fournir une capacité de stockage supérieure. La figure ci-après illustre une configuration à deux initiateurs/deux cartes intégrant deux sous-systèmes DAS en série (pour en savoir plus, reportez-vous à la documentation des sous-systèmes DAS). 3 2 3 4 4 1 2 2 1 3 3 2 1 1 5 4 SP A noeud X SP B sous-système DAS 5 SP A 4 SP B sous-système DAS noeud Y 1 Deux cartes SCSI-2 DE Fast/Wide par noeud pour fournir deux bus SCSI distincts partagés. Leur terminaison interne doit être retirée. 2 Câbles en Y (différentiels). 3 Terminaisons (différentielles). Raccordées à la branche courte des câbles en Y. 4 Câbles entre câble en Y et contrôleur DAS (différentiels). 5 Câbles entre DAS (différentiels), représentés en gras sur la figure. Ils servent à relier en série deux sous-systèmes DAS. * Quatre câbles RS-232 (non représentés sur la figure) sont nécessaires. Chaque noeud est connecté à deux SP, une sur chaque sous-système DAS. Pour les ports série, reportez-vous à la page 3-2. Grappes de plus de deux noeuds Si la grappe comporte plus de deux noeuds, les mêmes câbles sont utilisés. Toutefois, des câbles supplémentaires entre câbles en Y sont en outre requis pour relier les chemins SCSI entre deux noeuds mitoyens. Reportez-vous à la figure de la page 3-16, qui représente une grappe de 4 noeuds et met l’accent sur la nécessité de câbles entre câbles en Y et sur la position adéquate des terminaisons. Informations de planifications complémentaires 3-15 (bus SCSI) (autre bus SCSI) câbles reliant les câbles en Y noeud A noeud C terminaisons noeud B noeud D La figure ci-dessus illustre le câblage SCSI sur une grappe de 4 noeuds. Elle met l’accent sur la nécessité de câbles entre câbles en Y et sur la position adéquate des terminaisons. (Sur ces points, le schéma s’applique que les disques partagés soient des sous-systèmes DAS ou des disques SCSI simples, bien que les unités de disque ne soient pas représentées). 3-16 EPC et solutions HA – Guide d’installation Configurations DAS possibles avec Fibre Channel Double boucle Avec deux initiateurs (2 noeuds) utilisant 1 système DAS avec 2 (SP). Informations de planifications complémentaires 3-17 Plus de deux noeuds Avec doubles boucles, 2 concentrateurs, N noeuds, utilisant D DAS avec 2 SP. 2 < N + D 10 3-18 EPC et solutions HA – Guide d’installation Insertion d’emplacements de disques en grappe (DAE) Le système de stockage sur disques en grappe ultra–performant, haute capacité, utilisant la technique des boucles FC AL (Fibre Channel Arbitrated Loop) peut être exploité pour fournir des caractéristiques de haute disponibilité des données entre deux noeuds Escala Power Cluster. La figure suivante illustre la configuration dans laquelle interviennent deux noeuds EPC : EPC EPC Carte FC– Carte FC– Carte FC– Carte FC– Hub Hub Miroir AIX DAS DAE Cette configuration permet d’assurer une grande disponibilité des données mises en miroir entre les deux systèmes DAE. Informations de planifications complémentaires 3-19 Planification du stockage partagé HA étendue pour solutions Escala HA La haute disponibilité étendue est la solution de reprise après incident proposée par Bull. Elle repose sur une technologie de sous-système à fibre permettant la connectivité de disques partagés pour une distance supérieure à 500 mètres. La fonction de duplication des données est assurée par la fonction miroir AIX. Les fonctionnalités HA sont les mêmes que pour les clusters locaux, à condition de prendre un certain nombre de précautions (voir page 10-24). Câblage Configurez les boucles FC–AL ainsi que la liaison série étendue (HACMP heartbeat de survie) comme indiqué dans la figure. Aucune interconnexion n’est disponible pour cette configuration. 3-20 EPC et solutions HA – Guide d’installation Fibre Channel Adapt. 1 500 m max. Fibre Channel Adapt. 2 2 4 1 1 Fibre Channel Adapt. 1 4 6 3 6 1 HUB 5 HUB 1 Fibre Channel Adapt. 2 1 HUB 3 6 6 1 1 HUB 1 Miroir AIX Miroir AIX 1 Câble en cuivre 2 Câble RS232 étendu (keep–alive heartbeat) 3 Câble en fibre optique 4 Micro-modem pour RS232 5 Concentrateur FC-AL 6 Adaptateur d’interface MIA (Media Interface Adapter) (cuivre à fibre optique) Remarque spécifique des boucles FC–AL partagées Définissez un ID de boucle différent sur chaque SP dans les deux systèmes DAS à fibre. Mettez sous tension les concentrateurs et les deux systèmes DAS, puis attendez que le voyant de service sur chaque DAS s’allume puis s’éteigne avant de mettre sous tension les serveurs Escala. Planification de la configuration des unités de disque physiques Configurez les deux systèmes DAS comme décrit dans la documentation DAS : liez les LUN et rendez les disques accessibles aux systèmes. Remarque : Les systèmes DAS à fibre permettent de créer jusqu’à 32 LUN et de les rendre accessibles à chaque SP. Informations de planifications complémentaires 3-21 Planification des sous-systèmes SSA partagés Remarque : Pour une présentation de SSA (Serial Storage Architecture), reportez-vous à la page 1-10 de ce manuel. Reportez-vous aux documents de référence suivants : • le chapitre ”Planning Shared Disk Devices” du manuel HACMP Planning Guide, • la documentation des cartes SSA et des sous-systèmes de disque SSA. En complément, les informations et conseils suivants vous seront utiles. Cartes SSA Bus MCA Il existe deux modèles de carte SSA : Carte SSA 4 ports (type 4-D) (MI = MSCG021) Avec ce modèle (libellé ”4-D”), il est impossible de connecter plus deux cartes SSA dans une boucle SSA. Carte SSA étendue 4-ports (type 4-G) (MI = MSCU-101) Avec ce modèle (libellé ”4-G”), jusqu’à 8 cartes SSA peuvent être connectées dans une boucle SSA. De ce fait : • Si la grappe est formée de plus de deux noeuds ou si les noeuds sont équipés de 2 cartes SSA, ce modèle est indispensable. • En outre, envisagez toujours d’utiliser des cartes étendues (même si la grappe ne comporte que 2 noeuds). Vous aurez ainsi plus de latitude pour des évolutions ultérieures de la grappe (ajout de noeud ou de carte SSA). Carte SSA étendue multi-initiateur / boucle RAID (4-M) (MI = MSCU-038) Deux cartes SSA au plus peuvent être connectées dans une boucle SSA. Dans les configurations RAID, cette carte fonctionne uniquement en mode mono-initiateur. Bus PCI Un modèle de carte SSA est disponible : Carte SSA étendue multi-initiateur / boucle RAID (4-N) (MI = MSCG-039) Deux cartes SSA au plus peuvent être connectées dans une boucle SSA. Dans les configurations RAID, cette carte fonctionne uniquement en mode mono-initiateur. Remarque : Le panachage PCI/MCA sur une seule boucle SSA est possible entre cartes SSA PCI multi-initiateur (4-N) et SSA MCA 4 ports (type 4-M) exclusivement. 3-22 EPC et solutions HA – Guide d’installation Topologie SSA Pour la planification du câblage, pensez aux points suivants : • La topologie en boucle est la plus adaptée à l’environnement de grappe. La topologie en chaîne point-à-point est inadaptée. • Étant dotée de 4 ports, chaque carte SSA peut être connectée à une boucle ou à deux boucles distinctes. • Pour la haute disponibilité, vous devez implanter la fonction disque miroir. Cette fonction doit être implantée via les utilitaires standard d’AIX. Cette fonction, si vous décidez de câbler deux boucles SSA (ce qui augmente la disponibilité), doit être implantée sur les deux boucles, c’est-à-dire que les disques d’une boucle doivent être dupliqués par la fonction miroir sur les disques de l’autre boucle. En outre, si vous pouvez accéder à la copie miroir par le biais de deux cartes, la disponibilité est encore accrue. A1 A2 B1 B2 A1 A2 B1 B2 Carte SSA A1 A2 B1 B2 Carte SSA Carte SSA • Pour les performances, évitez de connecter des cartes adjacentes dans un noeud. La figure ci-après illustre cette recommandation : dans la première topologie illustrée, deux cartes adjacentes figurent dans la boucle ; ceci n’est pas le cas de la topologie suivante qui est celle recommandée. Les performances sont légèrement supérieures, puisque le chemin d’accès entre les cartes et les disques est moindre. Carte SSA La topologie ci-dessus est opérationnelle, mais réduit le débit. Celle ci-dessous offre des performances légèrement supérieures. A1 A2 B1 B2 Exemple de topologie SSA Comme indiqué plus haut, pour les configurations avec deux boucles SSA, la mise en miroir doivent être (autant que possible) implémentée sur les deux boucles. En pratique, toutefois, concevoir une topologie adaptée demande une planification précise et une sérieuse réflexion sur le sujet. A titre d’exemple, voici un cas pas très simple à résoudre. Exemple de topologie avec une carte SSA par noeud Supposons que vous souhaitiez implémenter une mise en miroir inter-boucle et que vous disposiez de l’équipement suivant : • la grappe, constituée de deux noeuds, • une seule carte SSA par noeud, • les sous-systèmes SSA peuvent recevoir jusqu’à 16 disques, mais ils peuvent être équipés de 32 disques au total à connecter dans une configuration à deux boucles (16 disques sur une boucle dupliqués sur 16 disques de l’autre boucle), • 8 câbles de sous-système SSA. Informations de planifications complémentaires 3-23 Un exemple classique est illustré ci-après. 1 A1 4 1 A2 5 16 B1 carte SSA carte SSA B2 8 13 A1 9 12 A2 B1 B2 2 4 1 5 16 carte SSA carte SSA 8 13 9 12 noeud X noeud Y noeuds avec deux boucles 3-24 EPC et solutions HA – Guide d’installation noeud X noeud Y carte SSA carte SSA A1 A2 B1 B2 A1 A2 B1 B2 A B A B Variante de topologie avec deux cartes SSA par noeud Si les noeuds sont chacun équipés de deux cartes SSA, la disponibilité obtenue est encore accrue et la mise en miroir peut être non seulement inter-boucle, mais aussi inter-carte (une boucle étant implémentée via une carte sur chaque noeud, l’autre boucle utilisant les deux autres cartes). Planification de sous–systèmes EMC Symmetrix partagés EMC Symmetrix est un sous–système de disques offrant toutes les fonctions de stockage dans une seule armoire. Il est constitué des éléments suivants : • un double bus interne, • sélecteurs de canaux prenant en charge la gestion des liens hôtes et les fonctions de contrôle du stockage, • cartes de mémoire cache, • sélecteurs de disque prenant en charge les fonctions de stockage des données, • bloc d’alimentation, sous–systèmes de batterie et modules de refroidissement, • processeur de services intégré (ordinateur portable) permettant de télécharger la configuration Symmetrix vers les sélecteurs et d’exécuter des outils de diagnostic et de maintenance pour Symmetrix. Les sélecteurs de canaux sont disponibles dans deux versions qui peuvent cohabiter sur un sous–système Symmetrix : • sélecteurs SCSI Ultra Wide SCSI avec quatre ports hôtes • sélecteurs Fibre Channel avec deux ports hôtes Le sélecteur de disque fournit une interface entre les unités de cache et de disque, et il gère quatre bus SCSI Fast Wide dans les disques internes. Selon le modèle, quatre ou six disques sont connectés à chaque bus SCSI interne. Informations de planifications complémentaires 3-25 La connexion d’un port SCSI differentiel Fast Wide Symmetrix à un serveur AIX s’effectue via des cartes MCA ou PCI. La connexion d’un port Fibre Channel ou d’un sélecteur Fibre Channel à un serveur AIX/PCI s’effectue via une carte Bull Fibre Channel. Le pilote Bull Fibre Channel AIX supporte le sous–système Symmetrix FC-AL. Le port Symmetrix Fibre Channel utilisant un connecteur à fibre optique, les connexions à Symmetrix doivent être assurées par un câble à fibre optique équipé d’un adaptateur MIA à l’autre extrémité de celui–ci. La partie cuivrée de l’adaptateur est connectée à un adaptateur Emulex. Les fonctions de disque suivantes sont fournies par Symmetrix : • RAID-1 • RAID-S, protection RAID de niveau 5 ultra performante • Changement dynamique de disque Configuration de base avec HACMP La configuration HA classique pour des sous–systèmes Symmetrix est une connexion point à point (appelée configuration en bus distincts dans le présent document) sur chaque serveur, accompagnée d’une configuration du sous–système Symmetrix de sorte que le volume de données soit disponible pour les deux serveurs à l’aide des deux ports hôtes distincts. Pour le modèle de serveur parallèle Oracle, les volumes stockés doivent être partagés par tous les noeuds de la grappe. La configuration CMP classique pour les sous–systèmes Symmetrix est une connexion point à point entre tous les serveurs et le sous–système Symmetrix, ainsi qu’une configuration de ce dernier permettant de faire en sorte que les volumes de données soient disponibles pour les deux serveurs via tous les ports hôtes distincts. Sous–systèmes de disque EMC en mode concurrent Avec les sous–systèmes EMC Symmetrix, les disques peuvent être utilisés en mode concurrent si les commandes suivantes sont exécutées sur chaque disque concerné : chdev –l hdisk<x> –a ’reserve_lock=no’ 3-26 EPC et solutions HA – Guide d’installation Chapitre 4. Installation du matériel de base Ce chapitre traite des points suivants : • Installation physique des serveurs (noeuds) et des unités de disques • Installation du matériel pour la gestion de la console système, page 4-2. • Raccordement des connexions réseau, page 4-2. • Amorçage des noeuds et vérification du fonctionnement, page 4-4. • Configuration TCP/IP des interfaces d’amorçage/de service, page 4-4. • Configuration des ID SCSI de carte (et réamorçage des noeuds concernés), page 4-7. Suivez les instructions pas à pas avant de passer au chapitre suivant. Préalables • Ce chapitre donne des conseils généraux. Pour les instructions autres que celles spécifiques aux configurations en grappe, reportez-vous à la documentation fournie avec le matériel. • Avant de procéder à l’installation du matériel, nous vous conseillons de parcourir le manuel HACMP Planning Guide ainsi que le chapitre ”Informations de planifications complémentaires”, page 3-1 de ce manuel. Installation physique des serveurs (noeuds) et des unités de disque Généralités • Déballez les serveurs et les unités de disque externes (le cas échéant). • Déterminez leur emplacement respectif sur le site en tenant compte des diverses contraintes : espace adapté à l’exploitation et la maintenance, longueur et cheminement des câbles, etc. • Mettez les unités en place. ATTENTION : Ne connectez pas maintenant l’unité de disque partagée externe aux noeuds ! (Les ID SCSI et la configuration matérielle des cartes SCSI externes ne sont peut-être pas correctes.) • Pour l’instant, ne mettez aucun noeud ni aucune unité sous tension. Instructions spécifiques des modèles Powercluster Si vous installez un Powercluster (c’est-à-dire une grappe basée sur les modèles en armoire Escala), installez dès à présent physiquement les unités dans l’armoire. Cependant, comme il est conseillé plus haut, ne connectez pas maintenant les sous-systèmes RAID DAS partagés aux noeuds. Selon le modèle de Powercluster, vous devez installer une ou deux armoires. Si vous mettez en service une configuration qui inclut plusieurs armoires, gardez à l’esprit qu’elles sont totalement indépendantes du point de vue de l’alimentation : vous devez donc disposer d’une prise secteur distincte par armoire. Installation du matériel de base 4-1 Installation du matériel pour la gestion de la console système Pour gérer les des différents noeuds de la grappe, il existe plusieurs solutions, sur la base des différents composants matériels. • Le plus simple consiste à raccorder un terminal à chaque noeud. C’est ce que nous préconisons pour les solutions HA. Si vous optez pour cette solution, passez à la ”Procédure avec consoles standard”, ci-après. • Si vous optez pour une autre solution (un seul terminal pour tous les noeud, ou une solution basée sur les terminaux X ou le PowerConsole), reportez-vous à l’annexe ”Mise en oeuvre des solutions console”, page A-1. Procédure avec consoles standard Cette procédure s’applique aux configurations classiques qui utilisent une console système (une unité terminale) par noeud de grappe. Connectez une console système à chaque noeud. Utilisez à cet effet le premier port série (généralement libellé ”S1” ou ”async L1”). Remarques : • Les modèles Escala mini-tour sont équipés d’un double port série. Dans ce cas, un seul connecteur, généralement libellé ”S1/S2”, fournie deux ports via un câble série en Y à double accès. Utilisez ce câble comme illustré ci-après. console système câble série en Y à double accès câble unité série connecteur série S1/S2 S1 S2 Raccordement des connexions réseau Raccordement des connexions au réseau public Chaque noeud est équipé de deux cartes réseau par réseau connecté : une carte de service et une carte de secours. Chaque paire de cartes doit être connectée à chaque réseau, comme illustré plus loin. Voir illustration ci-dessous. Connectez les carte au(x) réseau(x). Au besoin, reportez-vous à la documentation matérielle pour des précisions sur les connexions réseau (Ethernet, FDDI, ou ATM). Raccordement des connexions au réseau privé Les réseaux série ne concernent que les grappes qui implémentent l’accès concurrent ou les architecture client/serveur. Si vous installez un réseau privé (Ethernet ou FDDI), effectuez les connexions appropriées. 4-2 EPC et solutions HA – Guide d’installation Remarques : • Reportez-vous à Planification des réseaux, page 3-3, pour les informations relatives aux réseaux publics et privés. Notez que : – En ce qui concerne le réseau public, les configurations de base de grappe n’utilisent qu’un seul réseau Ethernet : ce type de configuration est courant. Cependant, pour accroître la disponibilité, les noeuds d’une grappe peuvent être interconnectés par plusieurs réseaux (généralement, deux). – Si vous utilisez un réseau privé FDDI, vous pouvez décider d’implémenter une configuration jumelée. • Pour en savoir plus sur la câblage des réseaux Ethernet et FDDI, reportez-vous également à la documentation matérielle. • Pour implémenter un réseau privé basé sur Fibre Channel, prenez contact avec votre représentant. Votre configuration matérielle de base est désormais semblable à ceci : Deux cas sont représentés ci-dessous. La première figure illustre une configuration classique : un réseau Ethernet avec deux cartes réseau sur chaque noeud. La seconde représente une configuration-HA (haute disponibilité) comprenant deux réseaux Ethernet distincts avec quatre cartes réseau sur chaque noeud. Remarque : Ethernet a été choisi comme exemple pour illustrer les instructions (si vous exploitez FDDI ou ATM pour implémenter vos réseaux, adaptez les exemples en conséquence). deux cartes Ethernet (une de service et une de secours) connectées au réseau unique Réseau Ethernet simple (ou FDDI ou ATM) disques externes : à ne connecter qu’ultérieurement noeud B noeud A deux cartes (de service et de secours) connectées à chaque réseau. Au total : quatre cartes par noeud. deux réseaux Ethernet (ou FDDI double-anneau ou ATM) disques externes : à ne connecter qu’ultérieurement noeud A noeud B Installation du matériel de base 4-3 Amorçage des noeuds et vérification du fonctionnement Mettez chaque noeud sous tension et vérifiez que l’amorçage s’effectue normalement. Remarques : • La configuration actuelle n’est pas encore organisée en grappe. L’opération d’amorçage à ce stade ne vise qu’à vérifier l’état du matériel avant de poursuivre l’installation. • Si la grappe est équipée d’un nombre limité de consoles système, il est plus pratique d’amorcer en premier les noeuds auxquels une console est connectée. Vous pouvez ensuite lancer les commandes spéciales pour vous connecter aux ports sérieS1 (dédiés à la gestion des console système) des noeuds qui ne sont pas directement connectés à une console. Ces commandes spéciales sont décrites dans l’annexe ”Mise en oeuvre des solutions console”, page A-1. Configuration TCP/IP des interfaces d’amorçage/de service Remarque : Les instructions ci-après concernent les cartes connectées au réseau public. Cette étape consiste à exécuter la commande mktcpip sur chacun des noeuds pour définir le label IP, l’adresse IP et le masque de réseau de la carte réseau qui doit servir d’interface d’amorçage ou de service. Pour le moment, il est inutile d’intervenir sur la carte de secours, elle sera configurée ultérieurement avec l’outil de configuration rapide. Cette étape suppose que vous êtes familiarisé avec HACMP et la mise en réseau. Et, plus particulièrement, que les concepts de cartes d’amorçage/de service/de secours, labels IP, adresses IP, masques de réseau, etc. ne vous sont pas étrangers. Pour mémoire, reportez-vous à ”Prérequis” ci-après, sinon passez directement à ”Conventions d’appellation”. Prérequis : IPAT/adresses d’amorçage, de secours et de service Pour plus de détails sur les sujets suivants, reportez-vous à la documentation HACMP. Basculement d’adresse IP Généralement, vous souhaitez configurer la grappe pour le basculement d’adresse IP (parfois appelé IPAT). Le basculement d’adresse IP consiste à déplacer l’adresse de service IP du noeud défaillant vers un noeud restant. Lorsque cette fonction est active, les clients se reconnectent à la même adresse IP pour communiquer avec leur application (ce qui suppose que l’application concernée a également été reprise par le noeud restant). Notez cependant que le basculement d’adresse-IP n’est pas une fonction obligatoire : vous pouvez l’activer ou non, en fonction de vos besoins propres. En cas de défaillance d’un noeud, et si vous n’avez pas activé le basculement, ses ressources sont reprises par un noeud restant, mais non son adresse de service IP. Les clients ne peuvent donc plus utiliser cette adresse IP pour communiquer avec leur application : ils doivent utiliser l’adresse IP de service du noeud qui a requis l’application en question. 4-4 EPC et solutions HA – Guide d’installation Adresses IP d’amorçage, de secours et de service Les noeuds de grappe sont généralement équipés de deux cartes réseau : une carte de service et une carte de secours (il n’est pas question ici des configurations où chaque noeud est connecté à deux réseaux distincts, et équipé de quatre cartes). Voici un bref rappel concernant les adresses IP. • Si vous décidez de ne pas activer le basculement d’adresse IP sur un noeud (si vous n’avez pas besoin que son adresse IP soit basculée sur un autre noeud), alors la carte de service du noeud prend toujours en compte l’adresse de service IP (c’est-à-dire que la notion d’adresse IP d’amorçage n’a pas de sens pour ce noeud). • Si vous décidez d’activer le basculement d’adresse IP sur un noeud, la notion d’adresse IP d’amorçage a un sens. Les adresses d’amorçage et de service sont prises en charge par la même carte de réseau, appelée carte de service : – Au moment de l’amorçage, tant que les services de grappe ne sont pas lancés, la carte de service prend en compte l’adresse IP d’amorçage. Cette adresse n’est donc utilisée que temporairement. – Au lancement des services de grappe, l’adresse IP sur la carte de service est commutée de l’adresse d’amorçage sur l’adresse de service. A partir de ce moment, la carte de service prend en compte l’adresse de service IP. Cette adresse devient ainsi l’adresse ”normale”, utilisée par les clients pour communiquer avec les applications lorsque HACMP est actif. • L’adresse de secours IP est prise en charge par une seconde carte de réseau, appelée carte de secours. Cette carte est utile lorsque la carte de service du noeud ou un autre noeud défaille. Dans ce cas, la carte de secours est reconfigurée pour prendre en charge l’adresse de service IP impliquée dans l’incident. Notez que la carte de secours est réservée aux opérations de basculement HACMP : elle n’est pas conçue pour gérer les connexions des applications qui ne font pas partie des ressources de grappe (c’est-à-dire qui n’appartiennent pas à un groupe de ressources HACMP). Conventions d’appellation Selon les règles d’appellation appliquées par l’outil Bullcluster Quick Initial Configuration, les chaînes _boot et _stby sont toujours utilisées comme suffixes standard des noms de cartes d’amorçage et de secours. Supposons, par exemple, que vous prévoyiez d’implémenter une grappe à deux noeuds appelés foo et bar. L’outil Bullcluster quick initial configuration exécute une grande partie des tâches de configuration et il en résulte : – Le noeud foo est configuré avec les trois interfaces : foo_boot foo foo_stby (amorçage) (service) (secours) – De la même façon, le noeud bar est configuré avec les trois interfaces : bar_boot bar bar_stby (amorçage) (service) (secours) Notez que vous pouvez utiliser l’outil Bullcluster Quick Initial Configuration que vous ayez planifié ou non l’activation du basculement d’adresse IP. Dans la négative, les noeuds sont configurés avec seulement deux interfaces (de service et de secours), foo et foo_stby, par exemple car les adresses d’amorçage IP n’ont pas de sens. L’application des conventions d’appellation est : • obligatoire si vous utilisez l’outil Bullcluster quick initial configuration, • facultative sinon. Installation du matériel de base 4-5 Procédure Pour chaque noeud, procédez comme suit : 1. En tant qu’utilisateur racine, entrez : smit mktcpip L’écran Interfaces de réseau disponibles s’affiche avec la liste des interfaces disponibles sur le noeud pour les communications réseau. 2. Sélectionnez la carte qui doit jouer le rôle de carte de service. L’écran Configuration minimale & lancement s’affiche. Son contenu dépend du type de carte réseau sélectionnée à l’étape précédente (Ethernet ou FDDI). 3. Passez à la zone NOM HÔTE. Si vous souhaitez utiliser l’outil Bullcluster Quick Initial Configuration pour configurer la grappe, vous devez observer les conventions d’appellation exposées plus haut. – Si vous envisagez d’activer le basculement d’adresse IP, entrez dans la zone NOM HÔTE le nom de l’interface d’amorçage, de la forme : nom–noeud_boot où : – nom–noeud est le nom du noeud, c’est-à-dire le nom que vous devrez indiquer lors de la configuration de la grappe. – La chaîne _boot est, par convention, le suffixe à utiliser avec l’outil Bullcluster quick initial configuration. – Si vous n’envisagez pas d’activer le basculement d’adresse IP, dans la zone NOM HÔTE, entrez le nom de l’interface de service, de la forme : nom–noeud 4. Dans la zone ADRESSE Internet, spécifiez l’adresse IP à attribuer à l’interface (d’amorçage ou de service). 5. Le cas échéant, renseignez la zone MASQUE de réseau en fonction de votre configuration. 6. Renseignez la zone Votre type de CÂBLE. 7. Appuyez sur Entrée pour valider la configuration. 8. Veillez à appliquer cette procédure sur chaque noeud à configurer. Remarques : • Lors de la validation, le nom spécifié dans la zone NOM HÔTE devient le nom hôte par défaut du noeud. Par exemple, si vous avez indiqué foo_boot, le nom hôte du noeud est désormais foo_boot. • Par ailleurs, une entrée est automatiquement ajoutée à /etc/hosts pour le nom hôte spécifié. • Rappelez-vous que le nom hôte (au sens courant d’AIX) et le nom de noeud sont deux notions différentes. Ils ne se confondent que dans HACMP. 4-6 EPC et solutions HA – Guide d’installation Remarques importantes sur les noms d’hôte Lors de la configuration via l’outil Bullcluster Quick Initial Configuration, les autres interfaces sont configurées automatiquement. Si vous décidez d’activer le basculement d’adresse IP, l’outil exécute les tâches de configuration de façon à définir l’adresse IP de service IP et la carte de service. La procédure de configuration rapide modifier également le nom hôte, pour qu’il corresponde à l’interface de service. Par exemple, le nom–hôte foo_boot, devient foo. Il est en effet peu souhaitable qu’un nom hôte corresponde à l’interface d’amorçage. Si vous décidez de ne pas activer le basculement d’adresse IP, la procédure de configuration rapide ne modifie pas le nom–hôte (par exemple, le nom initial foo reste foo). Configuration des ID SCSI de carte Remarque : Cette section ne vous concerne que si vous installer une grappe où le stockage sur disque partagé est assuré par des unités de disque SCSI. Si vous utilisez des sous-systèmes disque SSA, passez au chapitre suivant. Préalables Notion d’ID SCSI Dans une configuration en grappe, les noeuds partagent des unités de disque via des bus SCSI externes. Chaque bus SCSI partagé est pourvu d’une carte de noeud à chacune de ses extrémités. Ce type de configuration, avec deux serveurs raccordés au même bus SCSI, est aussi appelé ”bus à deux têtes”. En ce qui concerne les ID SCSI : • Chaque unité d’un bus SCSI doit disposer d’un ID SCSI unique. • L’ID 7 ne doit pas être affecté aux cartes SCSI qui équipent ces noeuds (ceci parce que, si des diagnostics sont lancés, ils forcent l’ID SCSI de la carte à 7, provoquant alors un conflit d’adresse). Malheureusement, l’ID SCSI par défaut des cartes du noeud est 7. Pour éviter qu’un ID SCSI ne soit utilisé deux fois sur un même bus et pour être sûr que l’ID 7 n’est utilisé sur aucun noeud, vous devez changer l’ID SCSI des cartes SCSI externes sur tous les noeuds. Remarque : Certaines configurations de grappe ne prévoient qu’un seul bus SCSI partagé. Mais, dans un souci de haute disponibilité, les configurations classiques comportent deux bus SCSI partagés. La figure ci-dessous illustre ces deux cas. Installation du matériel de base 4-7 noeud A ID SCSI = 5 Configuration avec bus SCSI unique bus SCSI unique SCSI différentielle noeud B ID SCSI = 6 SCSI différentielle Configuration avec deux bus SCSI distincts noeud A noeud B SCSI différentielle SCSI différentielle ID SCSI = 5 ID SCSI = 5 deux bus SCSI distincts SCSI différentielle ID SCSI = 6 ID SCSI = 6 SCSI différentielle Pour vérifier ou pour effectuer la configuration des ID SCSI, procédez comme suit. Configuration des ID SCSI de carte Remarque : Si vous avez suivi la procédure d’installation expliquée dans ce guide, les unités de disque partagées externes ne sont toujours pas raccordées aux noeuds. Le câblage SCSI sera effectué plus tard, comme indiqué plus loin. Procédure de configuration Pour configurer l’ID SCSI de la carte : 1. Sur un noeud, connectez-vous en tant qu’utilisateur racine et entrez : smit chgscsi 2. La liste des cartes installées s’affiche. Sélectionnez la carte dont l’ID SCSI doit être modifiée. a. Si la carte que vous configurez est de type ”Corvette” (type ”4-6”), choisissez-lui un nom approprié (commençant par le préfixe ascsi et libellée ”Wide SCSI I/O Controller Adapter”). b. Si la carte que vous configurez est de type ”WSA” (type ”WSA1”), choisissez-lui un nom approprié (commençant par le préfixe scsi et libellée ”Wide SCSI Adapter SCSI Driver”). c. Si vous configurez une carte SCSI PCI (cartes de type ”B4-5” et ”B4-6” utilisées sur les serveurs Escala), sélectionnez le nom approprié (commençant par le préfixe scsi et libellée Wide/Fast-20 SCSI I/O Controller”). 4-8 EPC et solutions HA – Guide d’installation 3. Un nouveau menu s’affiche. Examinez les valeurs indiquées dans la zone External SCSI ID (ou Adapter card SCSI ID, selon le type de carte). Si nécessaire, entrez l’ID SCSI ad hoc (cette étape n’est pas indispensable car il est possible que l’unité ait été configurée correctement à l’usine), sans oublier que : – L’ID 7 ne doit pas être utilisée pour les cartes de noeud. – Chaque unité de bus SCSI doit avoir un ID SCSI unique. – Il est conseillé de réserver les ID les plus élevés aux cartes de noeud et d’utiliser les ID les moins élevés pour les unités externes. 4. Spécifiez yes dans la zone Apply change to database only (conservez la valeur des autres zones). 5. Appuyez sur Entrée pour valider les modifications. 6. Si la grappe utilise deux bus SCSI, modifiez de la même façon, sur le même noeud, l’ID SCSI de la carte SCSI installée sur l’autre bus. 7. Répétez ces étapes sur les autres noeuds de grappe. Grappes composées de plus de deux noeuds Si la grappe comprend plus de deux noeuds, les mêmes contraintes s’appliquent : les ID SCSI devant être uniques sur chaque bus SCSI, vous devez les modifier en conséquence sur plusieurs noeuds (voir figure ci-dessous). Dans ce cas, répétez la procédure complète (smit chgscsi) pour les autres noeuds de grappe qui partagent des bus SCSI avec plusieurs noeuds. Les ID SCSI 6 et 5 étant déjà affectés (aux cartes de deux premiers noeuds), choisissez 4 pour le noeud suivant (optez toujours pour la valeur disponible la plus élevée). ATTENTION : Ne connectez pas maintenant les unités de disque externe partagées aux noeuds ! (Les ID SCSI et la configuration matérielle des cartes SCSI ne sont pas nécessairement définies correctement). Exemple de configuration avec trois noeuds et deux bus SCSI distincts noeud A noeud B Carte SCSI Carte SCSI Carte SCSI ID SCSI = 4 ID SCSI = 6 ID SCSI = 5 ID SCSI = 4 ID SCSI = 6 ID SCSI = 5 Carte SCSI Carte SCSI Carte SCSI noeud C Réamorçage des noeuds Une fois les ID SCSI de carte modifiés sur un ou plusieurs noeuds, arrêtez le(s) noeud(s) et réamorcez-le(s) pour appliquer les nouveaux ID. Étape suivante Passez au chapitre suivant pour vérifier l’installation logicielle. Installation du matériel de base 4-9 4-10 EPC et solutions HA – Guide d’installation Chapitre 5. Vérification de l’installation logicielle Ce chapitre traite des points suivants : • Vérification de l’installation logicielle • Bulletin de logiciel • Vérification du préchargement de HACMP et BullCluster Suivez les instructions avant de passer au chapitre suivant. Vérification de l’installation logicielle Avant de poursuivre l’installation du matériel (câblage des réseaux série et des unités de disque), vérifiez que les noeuds sont équipés du logiciel approprié. Remarques préliminaires Pour exploiter une configuration en grappe, les noeuds de grappe requièrent les modules suivants : • HACMP pour AIX, • module BullCluster. Ces deux modules, complémentaires, sont livrés sur le même support (CD-ROM). Bulletin de logiciel Consultez le Bulletin de logiciel (SRB) livré avec le logiciel. Il fait état de toutes les conditions et contraintes associées à l’environnement, et fournit les informations de dernière minute. Le bulletin indique également la procédure d’installation du logiciel. Ne l’appliquez pas à ce stade, le logiciel requis étant normalement préchargé en usine sur les systèmes livrés (voir ci-dessous). HACMP et BullCluster Les modules HACMP et BullCluster sont normalement préchargés (c’est-à-dire pré-installés) sur les noeuds commandés pour constituer votre solution de grappe. Néanmoins, il est conseillé de vérifier que cette opération a bien été effectuée en usine. Sur chaque noeud de la configuration, entrez : lslpp –L ’*cluster*’ La commande lslpp doit renvoyer : • des ensembles de fichiers commençant par ”cluster” : ils constituent le module HACMP. ET • des ensembles de fichiers commençant par ”bullcluster” : ils constituent le module BullCluster. Remarque : L’ensemble de fichiers cluster.clvm correspondant à la partie HACMP qui gère l’accès concurrent. Cet ensemble de fichiers, fourni exclusivement sur le support dédié, n’est requis que dans les environnements avec accès concurrent. Il est superflu si vous installez une grappe haute-disponibilité qui n’implémente pas ce type d’accès ; dans ce cas, votre support ne contient pas l’ensemble de fichiers cluster.clvm. Vérification de l’installation logicielle 5-1 5-2 EPC et solutions HA – Guide d’installation Chapitre 6. Finalisation de l’installation matérielle Ce chapitre traite des points suivants : • Arrêt et mise hors tension des noeuds • Interconnexion des noeuds via des réseaux série (RS-232) • Préparation des cartes SCSI au câblage, page 6-2. • Installation des unités de disque partagées, page 6-6. Suivez les instructions avant de passer au chapitre suivant. Arrêt et mise hors tension des noeuds Avant de poursuivre l’installation des réseaux série et des disques partagés : • Arrêtez tous les serveurs destinés à jouer le rôle de noeuds de grappe et mettez-les hors tension. • Mettez toutes les unités raccordées hors tension. • Débranchez tous les cordons d’alimentation (serveurs et unités). Ceci est vivement recommandé pour des raisons de sécurité. Interconnexion des noeuds via des réseaux série (RS-232) Préalables Dans une grappe, les réseaux série sont des liaisons RS-232 qui relient les noeuds entre eux. Ces liaisons non TCP/IP transportent les flux de détection de survie (”keep-alive”) générés par HACMP. En cas de défaillance du sous-système TCP/IP, les liaisons série continuent de prendre en charge ce flux de noeud à noeud. Chaque noeud d’une grappe doit être connecté en série aux noeuds limitrophes. Les grappes limitées à deux noeuds ne requièrent qu’une seule liaison série entre les deux noeuds. noeud B Réseaux série pour grappe à 2 noeuds : les deux noeuds sont interconnectés par une liaison RS-232. noeud A noeud B Réseaux série pour grappe à 4 noeuds : les noeuds sont interconnectés par quatre liaisons RS-232 pour former un anneau logique. noeud C noeud D noeud A Remarques : • Pour en savoir plus sur le rôle des réseaux série, reportez-vous à ”Planification des réseaux”, page 3-3. • Les réseaux série sont toujours de type RS-232 (le mode cible SCSI n’est pas pris en charge). Finalisation de l’installation matérielle 6-1 Installation physique des lignes série RS-232 Installez physiquement les lignes série RS-232 entre les noeuds concernés. Cette opération consiste à connecter chaque extrémité du câble RS-232 à un port série de chaque noeud. Notez que si vous décidez d’utiliser le logiciel RSF pour procéder à la télémaintenance via un modem, le port S2 doit être réservé aux opérations RSF (dans ce cas, n’utilisez pas le port S2 pour implémenter le réseau série). Pour en savoir plus sur les ports série, reportez-vous à la page 3-2. Préparation des cartes SCSI au câblage Quand cette étape est-elle requise ? • Si vous installez un nouveau Powercluster ou une solution HA, cette étape est superflue car elle est exécutée en usine. Dans ce cas, passez directement à ”Installation des unités de disque partagées”, page 6-6. • Cette étape n’est requise que si vous mettez à niveau des serveurs pour les intégrer à une grappe. Préparation des cartes SCSI Differential type 4-6, 4-B, 4-L ou WSA-1 L B Repérez les cartes SCSI-2 DE Fast/Wide installées à l’arrière des serveurs. Elles sont libellées ”4-6”, ”4–B”, ”4–L” ou ”WSA1” comme illustré ci-dessous. A l’aide de la figure ci-dessous, repérez sur la carte les trois terminaisons à retirer. Si vous ne les voyez pas, cela signifie qu’elles ont été retirées en usine, et que vous pouvez réinstaller la carte immédiatement. Retirez-les avec précaution. Mettez-les de côté pour un éventuel usage ultérieur. retirez les 3 terminaisons DE Une fois les terminaisons retirées sur toutes les cartes, procédez au câblage des unités de disque comme indiqué ci-après. 6-2 EPC et solutions HA – Guide d’installation Préparation des cartes SCSI Differential type B4-6 Les serveurs Escala EPC400 séries E et T peuvent être mis à niveau en ajoutant des cartes SCSI supplémentaires pour les configurer comme noeuds de grappe. Remarque : Ces cartes sont également utilisées pour les noeuds en grappe Escala E200 et T400. .. .... ... ... .... .... .... ... .... ... retirer la terminaison carte SCSI SE Differential B4-6 Pour en savoir plus sur les fiches de bouclage, reportez-vous à ”Planification du stockage partagé ”HA native” pour les solutions Escala HA”, page 3-6. Préparation des cartes SCSI SE type B4-5 à terminaison simple Les serveurs Escala série E et T peuvent être mis à niveau à l’aide de cartes SCSI SE supplémentaires afin de les configurer en tant que noeuds en grappe. Remarque : Pour installer ces cartes vous devez utiliser des fiches de bouclage. Fiche de bouclage .. ... ... .... ... ... ... ... .... .... carte SCSI à terminaison simple Pour plus de détails sur ces fiches de bouclage, reportez–vous à la section “Planification du stockage partagé HA Native pour les solutions Escala HA”, page 3-6. Finalisation de l’installation matérielle 6-3 Préparation des cartes Fibre Channel type B4-7 Ces cartes sont utilisées dans les systèmes de stockage DAS 3500. Pour la connexion à la couche physique (FC-0), un module GLM (Gigabaud Link Module) aux normes de l’industrie est utilisé. Ce module permet d’atteindre une vitesse de 1 063 Mbps et offre une connexion DB9 de type cuivre. En outre, un adaptateur MIA (Module Interface Adapter) est utilisé pour fournir des doubles connecteurs SC fibre optique. module GLM adaptateur MIA .... . câble fibre optique ..... témoins lumineux câble cuivre duplex (DB9) carte Fibre Channel Figure 1. Carte PCI Fibre Channel (type B4-7) Préparation des cartes Fibre Channel type B4-8 Ces cartes sont utilisées sur des sous–systèmes Fibre DAS (DAS5700, DAS5720 et DAS5300). JX2 JX1 .. .. .. .. . module GLM connecteur DB9 témoins lumineux Figure 2. Carte PCI Enhanced Fibre Channel (type B4-8) 6-4 EPC et solutions HA – Guide d’installation Préparation des cartes Fibre Channel type B4-A et B4–B Ces cartes s’utilisent sur des sous–systèmes Fibre DAS (DAS5700, DAS5720 et DAS5300). JX2 JX1 .... .... . module GLM connecteur DB9 témoins lumineux Figure 3. PCI 64 bits Carte Fibre Channel en cuivre (type B4-A) Les cavaliers JX1 et JX2 doivent être installés comme illustré dans la figure 3. témoins lumineux JX1 JX2 ...... ... connecteur DB9 Figure 4. Carte optique Fibre channel PCI 64 bits (type B4-B) Les cavaliers JX1 et JX2 doivent être installés comme illustré dans la figure 4. Préparation du concentrateur Fibre Channel Le concentrateur (Hub) Fibre Channel doit être connecté aux noeuds avec des cartes Fibre Channel. Il doit aussi être raccordé aux unités DAS, page 3-18. Remarque : Le concentrateur Fibre Channel n’a pas d’interrupteur d’alimentation. Il doit être le premier composant opérationnel, avant la mise sous tension des noeuds avec les adaptateurs FC-AL. Finalisation de l’installation matérielle 6-5 Installation des unités de disque partagées Il s’agit de câbler et d’installer les unités de disque partagées. • Si vous installez des sous-systèmes disque SSA, reportez-vous à “Planification des sous-systèmes SSA partagés”, page 3-22, et à la documentation de votre équipement SSA. Suivez la procédure décrite à la section ”Installing Shared IBM 7133 SSA Disk Subsystems” dans le chapitre ”Installing Shared Disk Devices” du manuel HACMP Installation Guide et passez ensuite au chapitre ”Carrying Out Pre-Configuration Tasks”. • Si vous installez des unités SCSI ou Fibre Channel partagées, suivez la procédure ci-après. Pour un complément d’informations, reportez-vous à la documentation livrée avec les unités de disque et au chapitre Installing Shared Disk Devices du manuel HACMP Installation Guide. Câblage des unités de disque et définition de leur ID Avertissement : Avant toute manipulation, vérifiez que les systèmes et unités sont hors tension. Débranchez tous les cordons d’alimentation, côtés secteur et unités. Observez les consignes de sécurité indiquées dans la documentation du matériel. 1. Connectez tous les câbles requis pour la configuration. Consultez au besoin le chapitre ”Informations de planifications complémentaires”, page 3-1, qui renseigne sur les câbles de disque (avec illustrations à l’appui). Pour en savoir plus, reportez-vous également à la documentation livrée avec vos unités de disque. 2. Définissez les ID SCSI de vos unités de disque. Chaque unité d’un bus SCSI doit être affecté d’un ID unique compris entre 0 et 7. Veillez à attribuer des ID disponibles (non assignés aux cartes SCSI des noeuds). (Pour en savoir plus sur les ID SCSI, reportez-vous à la page 4-7.) 3. Pour le système DAS Fibre Channel, affectez un ID de boucle à chaque SP. Reportez-vous à la documentation du système DAS. 4. Terminez l’installation matérielle comme indiqué dans la documentation qui accompagne vos unités de disque (cordons d’alimentation...). Si vous installez des sous-systèmes DAS, raccordez les processeurs de stockage DAS au noeud à l’aide de câbles RS-232. 5. Pour les boucles FC-AL (en option), mettez les concentrateurs sous tension. 6. Le cas échéant, mettez sous tension les unités de disque, puis mettez sous tension et amorcez les noeuds de grappe. Lors de l’amorçage (ou à chaque émission de la commande cfgmgr), AIX configure toutes les unités connectées au système : un nom logique leur est attribué, sous la forme hdiskX, où X est un nombre entier identifiant le disque de façon unique. 7. C’est à un stade ultérieur que vous créez les groupes de volumes partagés. Sinon, vous devrez les créer manuellement, comme indiqué au chapitre ”Finalisation de l’installation”. 6-6 EPC et solutions HA – Guide d’installation 8. Vérifiez l’installation : a. Si vous installez des sous-systèmes DAS, passez à la section ci-dessous. b. Si vous installez d’autres unités de disque SCSI, utilisez la commande AIX lsdev –Cc –H pour vérifier que les disques sont à l’état ”Available” (disponible). Pour en savoir plus sur cette procédure, reportez-vous à la section ”Installing Shared IBM SCSI-2 Differential Disks” dans le chapitre ”Installing Shared Disk Devices” du manuel HACMP Installation Guide puis passez au chapitre ”Carrying Out Pre-Configuration Tasks”. Configuration des sous-systèmes DAS Cette section récapitule les étapes de configuration des sous–systèmes DAS. A ce stade, l’installation matérielle est supposée achevée (câbles SCSI et RS-232, configuration des ID SCSI, etc.). Avertissement : Les indications ne constituent que les grandes lignes de la procédure. Pour des informations détaillées, reportez-vous à la documentation du livrée avec le sous-système DAS (Configuring and Managing a DAS et Installing and Maintaining a DAS). La configuration intervient à divers niveaux présentés ci-dessous. Configuration tty Sur chaque noeud, configurez les ports série qui raccordent les processeurs de stockage aux sous-systèmes DAS. Utilisez la commande AIX smit tty, comme indiqué dans le chapitre ”Installing your software” du manuel Configuring and Managing a DAS. Configuration des unités de disque physiques (LUN) A présent, vous devez configurer les unités de disque physiques. Cette étape est obligatoire pour créer des groupes de volumes (que vous utilisiez ou non l’outil Bullcluster de configuration initiale rapide). Suivez les instructions du chapitre ”Setting physical disk units and storage-system caching” du manuel Configuring and Managing a DAS and Using ATF. Voici quelques conseils : Accès au gestionnaire du DAS (DAS 2900, 3x00 et 3500) Pour accéder au gestionnaire du DAS, lancez la commande smit disk, puis sélectionnez l’option DiskArray Storage-System Manager. Accès au gestionnaire du DAS pour Fibre DAS Pour accéder au gestionnaire du DAS, sélectionnez l’option Navisphere. Installation d’une unité de disque physique (LUN et niveaux RAID) Vous devez créer des LUN, autrement dit, regrouper des modules disque en unités logiques. Une unité logique est une entité unique constituée d’un ou plusieurs modules disque (en environnement DAS, ”LUN” et ”unité de disque physique” sont synonymes). Pour définir des unités logiques, appelez le menu Bind Physical Units. Lisez attentivement les recommandations du manuel Configuring and Managing a DAS and Using ATF, et : • Ne créez pas plus de 8 LUN par sous-système DAS. • Les sous-systèmes DAS acceptent les niveaux RAID 0, 0/1, 1, 3 et 5. Il est du ressort de l’administrateur système de déterminer le niveau RAID le mieux adapté. Les niveaux 3 et 5 sont généralement les plus appropriés pour la haute disponibilité. Finalisation de l’installation matérielle 6-7 • Comme expliqué dans Configuring and Managing a DAS and Using ATF (”Installing the ATF Software”), si vous utilisez ATF, vérifiez que vous avez désactivé l’option auto-assign pour chaque LUN. • La valeur par défaut de l’option Maximum rebuild time est de 4 heures. Cependant, si votre site requiert un temps de réponse rapide et que vous souhaitez limiter la dégradation des activités d’E/S normale, étendez le processus de reconstitution sur une période plus longue, 24 heures par exemple. • Une fois les unités logiques définies, procédez au rafraîchissement de la base de données ODM AIX, comme indiqué ci-après. Groupes de volumes partagés Ne créez pas de groupes de volumes partagés maintenant : • Si vous utilisez l’outil Bullcluster quick initial configuration pour implémenter un environnement dédié à des applications spécifiques, les groupes de volumes partagés sont créés automatiquement. • Sinon, il vous faudra les créer manuellement. Pour ce faire, reportez-vous au chapitre ”Finalisation de l’installation”. Rafraîchissement de la base de données ODM AIX Une fois les unités logiques créées et configurées, il est conseillé de rafraîchir la base de données ODM AIX comme suit : 1. Demandez la liste des disques par la commande : lsdev –C –c disk 2. Relevez dans la liste, les disques appartenant aux sous-systèmes DAS. Du point de vue AIX, toute unité de disque physique (LUN) créée est présentée comme un disque distinct (hdisk<n>). 3. Pour chaque disque DAS de la liste, exécutez la commande : rmdev –d –l hdiskn où n est le numéro du disque concerné. Cette commande supprime la définition de l’unité dans la base de données ODM AIX. 4. Exécutez la commande cfgmgr pour demander à AIX de reconfigurer les unités. cfgmgr 5. Dès lors, vous êtes assuré de la cohérence de la base de données ODM. Il est conseillé d’exécuter cette procédure chaque fois que vous modifiez les liens des unités de disque DAS, pour garantir la cohérence la base de données. Configuration complémentaire du stockage EMC Une armoire EMC peut loger un grand nombre de disques et, en cas de panne de disque, le basculement de disques peut prendre du temps. C’est pourquoi, par défaut, le processus de basculement n’est pas lancé automatiquement. Les menus smit permettent de définir le comportement d’une grappe à l’aide du stockage EMC dans une configuration en bus distincts (activation ou non du basculement après échec d’un câble ou d’une carte). smit hacmp Bull Cluster Easy Configurator EMC Split–bus Behaviour Configuration Étape suivante L’étape suivante consiste à configurer la topologie de la grappe pour HACMP. Passez au chapitre suivant pour effectuer les tâches de pré-configuration. 6-8 EPC et solutions HA – Guide d’installation Chapitre 7. Configuration de la topologie de la grappe Ce chapitre explique comment configurer une grappe HACMP en définissant sa topologie. Il comporte les sections suivantes : • Choix de la méthode de configuration. • Préalables à l’utilisation de l’outil ”BullCluster Quick Initial Configuration”, page 7-3. • Etape préliminaire : mise à jour des fichiers /etc/hosts et /.rhosts, page 7-4. • Définition d’un fichier de configuration, page 7-5. • Application du fichier de configuration, page 7-11. • Processus de configuration initiale rapide, page 7-12. • Annulation de la configuration initiale rapide, page 7-14. • Vérification d’un fichier de configuration modifié manuellement, page 7-15. • Utilisation de l’outil d’instantané BullCluster, page 7-15. • Étape suivante. Choix de la méthode de configuration Les deux méthodes possibles Il existe deux méthodes possibles pour définir la topologie d’une grappe HACMP : la méthode standard basée sur HACMP et la méthode rapide BullCluster. Remarque : Pour en savoir plus sur le concept de ”topologie” dans le cadre HACMP, reportez-vous à la documentation HACMP. Méthode standard HACMP Cette méthode consiste à faire appel à des menus SMIT d’AIX et de HACMP. Reportez-vous au manuel HACMP Installation Guide. Cette méthode est applicable à toute configuration de grappe (simple ou complexe). Méthode de configuration initiale rapide Bullcluster Cette méthode consiste à utiliser l’outil Bullcluster Quick Initial Configuration intégré au logiciel BullCluster. Cet outil est implémenté comme une extension aux menus SMIT de HACMP (accessible via la commande smit hacmp). Le but de l’outil Bullcluster Quick Initial Configuration est de faciliter la configuration des interfaces réseau et de la topologie de grappe HACMP (il évite de naviguer en permanence entre les menus AIX et SMIT HACMP). L’outil Bullcluster Quick Initial Configuration ne convient toutefois pas aux configurations de grappe complexes. Si vous décidez d’utiliser l’outil Bullcluster Quick Initial Configuration, déterminez d’abord s’il peut gérer votre configuration de grappe : reportez-vous aux critères du tableau ci-après. Configuration de la topologie de la grappe 7-1 Critères de choix de la méthode Reportez-vous au tableau suivant pour savoir si l’outil Bullcluster Quick Initial Configuration convient à votre configuration de grappe. Vous ne pouvez utiliser la méthode de configuration rapide Bullcluster que si la grappe remplit toutes les conditions suivantes : Vous ne pouvez PAS utiliser la méthode de configuration rapide Bullcluster que si la grappe remplit une des conditions suivantes : La grappe inclut 2, 3 ou 4 noeuds. La grappe inclut plus de 4 noeuds. Les noeuds de grappe sont connectés à un réseau public unique (FDDI ou Ethernet). Les noeuds de grappe sont connectés à plusieurs réseaux publics Ethernet ou FDDI (configuration à deux réseaux), ou à un ou plusieurs réseaux publics ATM. Remarques : • Si vous prévoyez d’implanter un réseau privé Fibre Channel, prenez contact avec votre représentant. • Les notions de ”réseau public” et ”réseau privé” sont expliquées page 3-3. • N’oubliez pas que vous pouvez toujours utiliser la méthode de configuration HACMP standard, même si la configuration désirée répond aux impératifs de la méthode rapide. Étape suivante • Si l’outil Bullcluster Quick Initial Configuration convient à la configuration de grappe prévue, poursuivez avec la section suivante, ”Préalables à l’utilisation de l’outil BullCluster Quick Initial Configuration”. • Sinon : – Utilisez la méthode de configuration standard HACMP, comme expliqué dans HACMP Installation Guide, pour configurer les interfaces de réseau et la topologie de la grappe. – Une fois les interfaces de réseau et la topologie de grappe configurées, reportez-vous au chapitre Finalisation de l’installation (page 8-1) avant de créer des groupes de volumes partagés, et de définir des serveurs d’application et des groupes de ressources. – Notez que même lorsque la topologie de la grappe est définie, vous pouvez utiliser les menus et les fonctions du logiciel BullCluster. Utilisez-les pour définir les ressources de grappe (groupe de ressources, serveurs d’application...) et les modules LVM partagés (groupes de volumes...), et pour préparer la grappe à exploiter des applications spécifiques. De plus, si la grappe est équipée de sous-systèmes RAID DAS partagés ou de sous-systèmes de disque SSA, nous vous recommandons d’utiliser ces menus et ces fonctions : ils simplifient l’utilisation des groupes de volumes partagés, et offrent un risque d’erreur moindre que la méthode manuelle. 7-2 EPC et solutions HA – Guide d’installation Préalables à l’utilisation de l’outil ”BullCluster Quick Initial Configuration” Préalables Voici quelques rappels avant de commencer. Conventions d’appellation des interfaces de carte réseau L’outil de configuration rapide applique des conventions d’appellation particulières pour les interfaces des cartes réseau. Il utilise toujours les chaînes _boot et _stby comme suffixes standard des labels des cartes d’amorçage et de secours, respectivement. Ce point est exposé à la section ”Conventions d’appellation”, page 4-5. Autres contraintes Avant de mettre en oeuvre l’outil de configuration initiale rapide, vous devez mettre à jour les fichiers /etc/hosts et /.rhosts. Cette opération est explicitée plus bas. Terminologie : noeud local et noeud distant L’outil de configuration rapide doit être utilisé à partir d’un des noeuds de la grappe. Dans ce contexte précis : • le terme noeud local fait référence au noeud sur lequel l’outil sera appliqué pour appliquer un fichier de configuration, • le terme noeud distant fait référence aux autres noeuds. Récapitulatif Important : Avant de commencer, nous vous conseillons de passer en revue les différentes étapes de la procédure décrite dans ce chapitre. Accordez une attention particulière aux sections suivantes : • ”Définition d’un fichier de configuration”, page 7-5 • ”Processus de configuration initiale rapide”, page 7-12 Une fois cette tâche accomplie, suivez les instructions ci-dessous. Configuration de la topologie de la grappe 7-3 Étape préliminaire : mise à jour des fichiers /etc/hosts et /.rhosts Lors de la validation de la configuration, l’outil de configuration initiale rapide doit être en mesure d’accéder au noeud distant pour exécuter les commandes de configuration sur ce noeud. Cette condition n’est remplie que si vous mettez à jour les fichiers /etc/hosts et /.rhosts sur le noeud local et sur le noeud distant, comme indiqué ci-dessous. Édition du fichier /etc/hosts sur le noeud local Editez le fichier /etc/hosts du noeud local. • Ajoutez les entrées pour les interfaces d’amorçage des noeuds distants. Si vous n’envisagez pas d’implémenter le basculement d’adresse IP, la notion d’interface d’amorçage n’a pas de sens, dans la mesure où vous ajoutez des entrées pour les interfaces de service des noeuds distants. Notez que le basculement d’adresse IP est traité à ”Configuration TCP/IP des interfaces d’amorçage/de service”, page 4-4. • Vérifiez également la présence de l’entrée suivante dans le fichier /etc/hosts : 127.0.0.1 loopback localhost Par exemple, si vous envisagez d’exécuter l’outil de configuration rapide sur le noeud foo et que l’unique noeud distant soit bar, vous devez modifier le fichier /etc/hosts sur le noeud foo. Après avoir ajouté l’entrée qui convient, et si vous envisagez d’implémenter le basculement d’adresse IP, le fichier se présente comme suit : 127.0.0.1 loopback localhost # existing entries: # added entry for bar’s boot interface 192.9.200.11 bar_boot Édition du fichier /.rhosts sur chaque noeud L’outil de configuration rapide fait appel à des commandes shell distantes. Pour qu’il fonctionne correctement, éditez le fichier /.rhosts sur chaque noeud de la grappe. Ajoutez des entrées pour l’interface d’amorçage (ou pour l’interface de service, si vous n’implémentez pas le basculement d’adresse IP) pour tous les noeuds, avec des droits d’accès racine. Par exemple, si vous installez une grappe comprenant les noeuds foo et bar, et que vous souhaitiez implémenter le basculement d’adresse IP, le fichier /.rhosts doit comporter les entrées suivantes, sur les deux noeuds : foo_boot bar_boot root root Avec une grappe identique, mais sans basculement d’adresse IP, les entrées seraient : foo root bar root Pour des raisons de sécurité, n’insérez ces entrées que lorsqu’elles sont nécessaires (c’est-à-dire avant d’effectuer la configuration rapide ou standard via les menus HACMP) et supprimez-les ensuite (dès que la configuration est terminée). 7-4 EPC et solutions HA – Guide d’installation Définition d’un fichier de configuration Accès à l’outil ”Bullcluster Quick Initial Configuration” L’outil de configuration rapide est une extension des menus SMIT HACMP. Remarque à l’attention des utilisateurs d’un PowerConsole Si vous êtes équipé d’un PowerConsole, vous pouvez tirer parti du module ClusterAssistant, qui affiche une icône pour lancer l’outil Bullcluster Quick Initial Configuration. Procédure générale Sinon (si vous n’êtes pas équipé d’un PowerConsole), procédez comme suit : 1. Connectez-vous en tant qu’utilisateur racine et entrez smit hacmp pour afficher le menu principal HACMP. Il s’agit du menu HACMP standard, à ceci près qu’il comporte l’option Bull Cluster Easy Configuration. 2. Sélectionnez Bull Cluster Easy Configuration, puis Quick Initial Configuration. Le menu principal de l’outil de configuration initiale rapide s’affiche, comme ci-dessous. Remarque : Vous pouvez également accéder à l’outil de configuration rapide via le raccourci SMIT quickconf. Configuration de la topologie de la grappe 7-5 Procédure de configuration rapide Cette procédure se décompose en deux tâches principales : • La première consiste à définir un fichier de configuration via les fonctions du menu Change/Show Cluster Definitions. Dans ce menu, vous spécifiez les informations concernant la configuration de base de la grappe, c’est-à-dire essentiellement la configuration réseau (interfaces IP, adresses) et la topologie de la grappe (nombre de noeuds, noms de la grappe et des noeuds). • La seconde tâche consiste à appliquer le fichier de configuration, via l’option Apply Configuration Definitions. Une fois le fichier de configuration appliqué, les cartes réseau sont configurées en conséquence et la topologie de grappe HACMP est définie. Ces tâches sont décrites ci-après. Définition d’un fichier de configuration Définir un fichier de configuration consiste à renseigner les champs du menu Change/Show Cluster Definition. Procédez comme suit : Appel du menu Change/Show Cluster Definition : 1. Dans le menu Quick Initial Configuration, sélectionnez Change/Show Configuration Definitions. 2. Vous êtes invité à préciser le fichier de configuration que vous souhaitez configurer. Dans la mesure où vous n’avez pas encore créé de fichier de configuration, choisissez le fichier par défaut en entrant template.cfg (vous pouvez également retrouver son nom en appuyant sur F4 ou en cliquant sur le bouton List). 3. Un nouvel écran s’affiche, vous invitant à indiquer les noms de noeuds. Entrez, dans le champ Node Names, les noms des noeuds de la grappe. – Les noms ne doivent pas dépasser 31 caractères. Ils sont constitués de caractères alphabétiques et numériques ainsi que des traits de soulignement. – Séparez les noms par un espace. – Si vous souhaitez afficher ou modifier un fichier de configuration précédemment défini et sauvegardé (c’est-à-dire un fichier de configuration autres que le fichier par défaut template.cfg), appuyez sur F4 pour retrouver les noms de fichier définis dans ce fichier de configuration. 4. Une fois entrés les noms de noeuds, le menu Change/Show Cluster Definition s’affiche. Il s’agit d’un long menu (semblable à celui illustré page 7-7), composé de plusieurs sections : – En tête, se trouve une section dont les champs s’appliquent à l’intégralité de la grappe. – En dessous, apparaissent autant de sections qu’il y a de noeuds, chacune spécifique d’un noeud. 7-6 EPC et solutions HA – Guide d’installation Menu 1/2 : Partie supérieure du menu ”Change/Show Cluster Definition”, relative aux paramètres globaux de la grappe. Configuration de la topologie de la grappe 7-7 Menu 2/2 : Partie inférieure du menu ”Change/Show Cluster Definition”, relative aux paramètres spécifiques de chaque noeud. Nom du fichier de configuration où enregistrer les paramètres : 1. Notez que les informations de Input Configuration file indiquent, pour mémoire, le fichier de configuration actuel. Comme expliqué plus haut, le fichier par défaut est template.cfg. 2. Indiquez, dans le champ Output Configuration file, le nom du fichier de configuration que vous créez. Les valeurs des paramètres y seront enregistrées. Choisissez un nom ”parlant”, et ajoutez-lui le suffixe ”.cfg”, comme dans l’exemple ci-dessous : Output Configuration file foobar.cfg Il est déconseillé de choisir le nom template.cfg : le fichier modèle par défaut serait écrasé. Remarque: Si vous modifiez une configuration précédemment créée, spécifiez, dans le champ Output Configuration file, le nom du fichier à modifier. Dans ce cas, les fichiers d’entrée et de sortie sont identiques. 7-8 EPC et solutions HA – Guide d’installation Paramètres globaux (ID et nom de grappe, caractéristiques du réseau) : 1. Dans le champ Cluster ID, entrez un entier positif propre à votre site. 2. Dans le champ Cluster Name, entrez une chaîne de texte identifiant la grappe, par exemple foobar. Le nom de la grappe peut comporter des caractères alphanumériques et des traits de soulignement. Il ne doit pas dépasser 31 caractères. 3. Définissez les paramètres relatifs au PUBLIC NETWORK : Network Type Sélectionnez ether (s’il s’agit d’un réseau Ethernet) ou fddi, selon le cas. Cable Type (sans signification pour fddi) Si le réseau est de type FDDI, laissez ce champ vide. S’il est de type Ethernet, sélectionnez tp, dix ou bnc, selon le type du réseau Ethernet. Ces valeurs correspondent respectivement à Ethernet à paires torsadées, Ethernet épais et Ethernet fin. Network MASK (décimal avec point) Spécifiez le masque de réseau adéquat, en notation décimale avec point. Par exemple, 255.255.255.0. Cette valeur dépend du site. Pour en savoir plus sur les masques réseau, reportez-vous à la section ”Defining a Network Mask”, au chapitre 3, ”Planning TCP/IP Networks”, du manuel HACMP Planning Guide. Default GATEWAY Address Ce champ est facultatif. Il n’est significatif que si le réseau est équipé d’une passerelle. Entrez l’adresse de la passerelle en notation décimale avec point (par exemple, 192.9.201.1). Pour en savoir plus sur les passerelles, reportez-vous à la documentation AIX. 4. Le champ Serial Network Type n’est pas modifiable. Sa valeur prédéfinie rs232 est indiquée pour mémoire. En fait, l’outil de configuration initiale rapide ne s’applique qu’aux configurations de grappe exploitant RS-232 pour le réseau série. 5. Définissez les paramètres relatifs au PRIVATE NETWORK. Renseignez les champs Network Type et, si vous exploitez Ethernet sur le réseau privé, Cable Type. Ces trois derniers champs s’appliquent à l’intégralité de la grappe. Les autres sont spécifiques des noeuds. Paramètres spécifiques des noeuds : Les autres champs sont relatifs aux paramètres spécifiques de chaque noeud. Notez qu’il y a autant de sections que de noeuds. Toutes les sections sont identiques. Au début de chaque section, un en-tête tel que ”--- FIRST NODE ---” est affiché, qui indique le début de la section, et un champ Node Name (non éditable) affiche le nom du noeud concerné. L’ordre d’affichage des noeuds dans le menu correspond à l’ordre dans lequel vous avez spécifié les noms des noeuds au premier appel du menu Change/Show Cluster Definition. Renseignez les champs pour chaque noeud (les étapes qui suivent doivent être répétées pour chaque ”section noeud”). 1. Spécifiez les informations relatives à la carte SERVICE ADAPTER du noeud, en renseignant les champs comme suit : Service Interface Entrez le nom d’une interface réseau, tel que en0, pour la carte de service du noeud. Configuration de la topologie de la grappe 7-9 Service Address (décimal avec point) Entrez l’adresse IP de la carte de service. Utilisez la notation décimale avec point (par exemple, 192.9.201.100). Boot Address (décimal avec point) Entrez l’adresse d’amorçage IP. Utilisez la notation décimale avec point (par exemple, 192.9.201.120). Si vous ne prévoyez pas d’implémenter le basculement d’adresse IP, la notion d’adresse d’amorçage n’a pas de sens, laissez donc ce champ à blanc. Si vous spécifiez une adresse d’amorçage, faites-le sur le même sous-réseau que l’adresse de service. Alternate Hardware Address Champ facultatif. Il n’a de sens que si vous prévoyez d’implémenter la commutation d’adresse matérielle. Dans ce cas, entrez une seconde adresse matérielle pour la carte (obligatoirement de 12 chiffres, par exemple 02608c2fb512). Cette adresse doit être unique sur le réseau physique, de façon à ne pas entrer en conflit avec l’adresse physique d’une autre carte du réseau. Pour des conseils sur le choix d’une seconde adresse matérielle, reportez-vous au chapitre ”Planning TCP/IP Networks” du manuel HACMP Planning Guide. 2. Spécifiez les informations relatives à la carte STANDBY ADAPTER du noeud, en renseignant les champs comme suit : Standby Interface Entrez le nom d’une interface réseau, tel que en1, pour la carte de secours du noeud. Standby Address (décimal avec point) Entrez l’adresse IP de la carte de secours. Utilisez la notation décimale avec point (par exemple, 192.9.202.100). La carte de secours ne doit pas se trouver sur le même sous-réseau que la carte de service. Pour en savoir plus sur les adresses IP des cartes, reportez-vous au manuel HACMP Planning Guide. 3. Spécifiez les informations relatives au réseau SERIAL NETWORK, en renseignant les champs comme suit. Notez l’absence de ces champs si la grappe que vous configurez comporte plus de deux noeuds. Dans ce cas, vous devez configurer manuellement le réseau série après exécution de la configuration initiale rapide. Notez également que le seul réseau série pris en charge est basé sur les liaisons série RS-232. Serial Adapter Spécifiez la carte série (par exemple sa1) utilisée pour le raccordement au réseau série. Appuyez sur F4 pour afficher la liste des cartes série disponibles. PORT Number Spécifiez le numéro du port correspondant (par exemple, s2). Appuyez sur F4 pour afficher la liste des ports série disponibles. 4. Spécifiez les informations relatives au réseau PRIVATE NETWORK, en renseignant les champs comme suit. Laissez ces champs à blanc si vous n’implémentez pas de réseau privé. Network Interface Entrez le nom d’une interface réseau, tel que en1, pour la carte réseau privé du noeud. IP Address (décimal avec point) Entrez l’adresse IP correspondante. Utilisez la notation décimale avec point (par exemple, 192.9.200.3). Dans la mesure où il s’agit d’un réseau privé, il doit se trouver sur un sous-réseau distinct de tous les autres réseaux à usage du réseau public. 7-10 EPC et solutions HA – Guide d’installation 5. N’oubliez pas de répéter ces étapes pour chaque ”section noeud” du menu. 6. Une fois tous les champs renseignés, validez l’écran. Un message s’affiche, et les paramètres sont sauvegardés dans le fichier Output Configuration file spécifié en tête du menu. 7. Appuyez plusieurs fois sur F3 pour revenir au menu Quick Initial Configuration. Application du fichier de configuration Une fois défini le fichier de configuration, procédez comme suit pour l’appliquer : 1. Sur le noeud local, appelez le menu Quick Initial Configuration et sélectionnez Apply Configuration Definitions. Vous êtes invité à renseigner le champ Configuration file to apply. 2. Appuyez sur F4 pour afficher la liste des fichiers de configuration définis. Dans la liste, sélectionnez le fichier de configuration à appliquer. Une fois le champ Configuration to apply renseigné, appuyez sur Entrée. 3. Vous êtes ensuite invité à préciser si vous souhaitez l’affichage de messages détaillés pendant le processus de configuration rapide. Sélectionnez Yes ou No. 4. Lorsque vous validez l’écran, un message de confirmation s’affiche, illustré ci-dessous. 5. Appuyez sur Entrée pour lancer le processus de configuration initiale rapide. 6. Attendez la fin de l’opération, puis prenez connaissance des messages affichés pour vous assurer que la configuration a abouti. Votre grappe est maintenant configurée. Avant de passer au chapitre suivant, qui traite des tâches de post-configuration, vous pouvez poursuivre ce chapitre pour comprendre ce qui se passe réellement lorsqu’un fichier de configuration est appliqué. Remarque : Si, pour une raison quelconque, vous souhaitez annuler la configuration initiale rapide, reportez-vous à ”Annulation de la configuration initiale rapide”, page 7-14. Configuration de la topologie de la grappe 7-11 Processus de configuration initiale rapide Cette section présente brièvement les mécanismes appliqués par l’outil de configuration rapide lors du traitement du fichier de configuration via la fonction Apply Configuration Definitions. Ces mécanismes se répartissent en deux catégories : opérations de configuration et opérations de vérification. Opérations de configuration L’outil de configuration rapide définit les cartes réseau et configure la topologie de grappe HACMP. Cartes réseau, basculement d’adresse IP, noms des hôtes, fichiers /etc/hosts et /.rhosts L’outil de configuration rapide : • définit le masque de réseau, le label IP et l’adresse IP des cartes de service et de secours des deux noeuds ; • implémente le basculement d’adresse IP si vous avez indiqué les adresses d’amorçage dans le fichier de configuration et configure chaque carte de service dont l’adresse IP peut être basculée pour que l’amorçage soit exécuté à partir de l’adresse de la carte d’amorçage et non de celle de la carte de service. Les adresses IP et masques de réseau sont établis en fonction des valeurs sauvegardées dans le fichier de configuration appliqué par l’outil de configuration rapide. Concernant les noms hôte : • Si vous avez choisi de ne pas activer le basculement d’adresse IP (c’est-à-dire si vous n’avez pas spécifié d’adresses d’amorçage), le processus de configuration initiale rapide ne change pas le nom hôte (par exemple, le nom initial foo reste foo). • Si vous avez choisi d’activer le basculement d’adresse IP, il change le nom hôte. Par exemple, le nom hôte foo_boot devient foo. Ce changement est généralement bienvenu : il est rare que vous souhaitiez que le nom hôte soit le même que celui de l’interface d’amorçage. Conventions d’appellation Selon les conventions d’appellation appliquées par l’outil de configuration rapide, les chaînes _boot et _stby sont toujours utilisées comme suffixes standard des noms des interfaces d’amorçage et de secours, l’interface de service étant dépourvue de suffixe. Soit par exemple une grappe composée des deux noeuds foo et bar : • Le noeud foo est configuré avec les trois interfaces : foo_boot foo foo_stby (amorçage) (service) (secours) • De même, le noeud bar est configuré avec les trois interfaces : bar_boot bar bar_stby (amorçage) (service) (secours) Cela suppose que chaque serveur a été correctement configuré, avec un nom hôte suffixé par _boot. Pour en savoir plus sur ces conventions, reportez-vous à ”Configuration TCP/IP des interfaces d’amorçage/de service”, page 4-4. 7-12 EPC et solutions HA – Guide d’installation /etc/hosts et /.rhosts L’outil de configuration rapide met à jour les fichiers /etc/hosts et /.rhosts sur les deux noeuds, en y ajoutant des entrées pour les adresses de service et de secours. Permutation d’adresse matérielle Si vous avez renseigné les champs facultatifs Hardware Address de l’écran Change/Show Cluster Definition, l’outil de configuration rapide implémente la fonction de permutation matérielle. Les adresses matérielles spécifiées (une par noeud) sont utilisées comme adresses secondaires. Réseau série RS-232 Sur chaque noeud, l’outil de configuration rapide définit et configure l’unité tty connectée à la liaison RS-232 du réseau série. Cet outil se base sur les valeurs des champs Serial Adapter et PORT Number de l’écran Change/Show Cluster Definition. Si l’unité tty est déjà configurée, l’outil de configuration rapide s’arrête. Vous devez alors supprimer cette unité tty, via la commande rmdev ou l’option Remove tty du menu SMIT tty, avant de relancer l’outil de configuration rapide. Pour en savoir plus sur les liaisons série RS-232, reportez-vous à la documentation AIX et à la section ”Configuring Networks” du manuel HACMP Installation Guide. Configuration de la topologie de grappe HACMP L’outil de configuration rapide configure la topologie de grappe pour HACMP et crée les objets HACMP requis correspondants : ID de grappe, nom de grappe, noms de noeud, cartes (label, type, attribut de réseau...), etc. La configuration terminée, l’outil de configuration rapide synchronise la définition de la topologie de la grappe HACMP sur tous les noeuds. Opérations de vérification Avant d’entamer la phase de configuration, l’outil de configuration rapide effectue des vérifications en rapport avec les cartes concernées (Ethernet, SCSI et RS-232). Après la phase de configuration, l’outil de configuration rapide procède à de nouvelles vérifications pour s’assurer que l’environnement de grappe a été correctement configuré. Configuration de la topologie de la grappe 7-13 Annulation de la configuration initiale rapide Si, après application de la configuration initiale rapide, vous souhaitez l’annuler, procédez comme suit : 1. A partir de du noeud local, appelez le menu Quick Initial Configuration et sélectionnez Remove Cluster Configuration. 2. Sur l’écran qui s’affiche, spécifiez le nom du fichier de configuration que vous venez d’appliquer (veillez à ne pas vous tromper !). 3. L’écran suivant s’affiche : 4. Renseignez les champs : Remove hacmp only or all definitions ? • Entrez hacmp only si vous souhaitez ne supprimer que les définitions HACMP (c’est-à-dire les objets liés à HACMP dans la base de données ODM). • Entrez all si vous souhaitez supprimer les définitions HACMP et les groupes de volumes créés par l’outil de configuration rapide. Supprimer des groupes de volumes est une action destructive, ne spécifiez donc pas all à la légère. Detailed Output Sélectionnez yes ou no selon que vous souhaitez des messages détaillés ou succincts. 5. Appuyez sur Entrée pour appliquer la commande avec vos paramètres. 7-14 EPC et solutions HA – Guide d’installation Vérification d’un fichier de configuration modifié manuellement Le menu Quick Initial Configuration propose l’option Verify Configuration Definititions, qui permet de vérifier un fichier de configuration donné. Cette fonction est superflue si vous avez fait appel aux menus SMIT de configuration initiale rapide (méthode normale). Elle est destinée aux personnels de maintenance sur site qui créent ou modifient un fichier de configuration avec un éditeur de texte. Utilisation de l’outil d’instantané BullCluster L’outil d’instantané de BullCluster permet d’enregistrer et de restaurer la topologie d’une grappe ainsi que les classes ODM de la topologie BullCluster. Menus SMIT permettant d’accéder aux nouvelles options d’instantané : –>Communications Applications and Services –>HACMP for AIX –>Bull CLuster Easy Configuration –>Bull Cluster Snapshots Add a Bull Cluster Snapshot Change/Show a Bull Cluster Snapshot Remove a Bull Cluster Snapshot Apply a Bull Cluster Snapshot Étape suivante Grappe équipée d’un PowerConsole • Une fois définie la topologie de la grappe HACMP, vous pouvez enregistrer la grappe via ClusterAssistant (utilisez l’icône ”Register Cluster” du dossier ”Configuration” du groupe d’applications ClusterAssistant). Une fois enregistrée, la grappe peut être gérée à partir du PowerConsole par le biais des différents utilitaires ClusterAssistant. Étape suivante • Passez au chapitre suivant pour finaliser l’installation de la grappe. Si la grappe est équipée d’un PowerConsole, reportez-vous également au manuel PowerConsole & ClusterAssistant Setup Guide. Configuration de la topologie de la grappe 7-15 7-16 EPC et solutions HA – Guide d’installation Chapitre 8. Finalisation de l’installation de la grappe Ce chapitre traite des points suivants : • Remarque à l’attention des utilisateurs de PowerConsole. • Configuration des serveurs d’application et ressources HACMP. • Configuration des modules LVM partagés (groupes de volumes...), page 8-2. • Synchronisation des horloges de la grappe, page 8-3. • Implémentation d’alias d’adresses IP, page 8-3. • Activation de la notification des événements de grappe via la messagerie électronique, page 8-3. • Groupes de volumes partagés sur sous-systèmes DAS, page 8-5. • Etape suivante Remarque à l’attention des utilisateurs de PowerConsole Si votre grappe est équipée d’un PowerConsole (solution console en option pour PowerCluster), notez que vous pouvez tirer parti du module ClusterAssistant pour effectuer les tâches de configuration décrites dans cette section. ClusterAssistant propose en effet nombre d’icônes qui permettent d’appeler rapidement les différents menus de configuration concernés par ces tâches. Configuration des serveurs d’application et ressources HACMP Une fois configurée la topologie de la grappe HACMP, vous devez définir les serveurs d’application HACMP et les groupes de ressources souhaités, via BullCluster et/ou les utilitaires HACMP. Quelle que soit la méthode choisie, reportez-vous à la documentation HACMP pour des informations de fond sur les concepts relatifs aux serveurs d’application et aux groupes de ressources. Utilitaires BullCluster • Le logiciel BullCluster intègre le menu Cluster Resources Modification. Ce menu propose des fonctions simples à utiliser pour configurer groupes de ressources et serveurs d’application spécifiques. Par exemple, vous pouvez créer un groupe de ressources via l’option Add a Resource Group, puis créer et ajouter les ressources souhaitées à ce groupe. Pour en savoir plus, reportez-vous au chapitre ”Gestion des ressources de grappe et des modules LVM partagés”, page 9-1. • Le module logiciel BullCluster propose également des exemples de scripts de début et de fin, utiles pour implémenter diverses applications de la grappe comme applications hautement disponible. Pour une brève présentation de ces scripts, reportez-vous à ”Planification d’applications spécifiques”, page 3-1. Pour des informations plus détaillées, reportez-vous au manuel Powercluster & solutions HA - Utilisation des scripts d’exemple HA, principalement destiné au personnel technique Bull. Utilitaires HACMP • Au lieu de passer par le menu BullCluster Cluster Resources Modification pour définir les groupes de ressource et les serveurs d’application spécifiques, vous pouvez également utiliser les menus et les utilitaires HACMP standard. Le manuel HACMP Installation Guide donne toutes les précisions utiles pour définir les serveurs d’application et les groupes de ressource via les menus HACMP standard. Finalisation de l’installation de la grappe 8-1 Configuration des modules LVM partagés (groupes de volumes...) Si, via l’outil de configuration initiale rapide, vous avez appliqué un fichier de configuration personnalisé pour une application spécifique (X25, Informix, Oracle, OPS, Tuxedo ou HVX), les groupes de volumes partagés et les systèmes de fichiers sont déjà définis et prêts à l’emploi. Sinon, vous devez créer les groupes de volumes partagés et les systèmes de fichiers souhaités, soit par la méthode rapide soit par la méthode manuelle (voir ci-dessous). Méthode rapide Le logiciel BullCluster intègre le menu Cluster Resources Modification. Ce menu propose des fonctions simples à utiliser pour créer et définir des composants LVM partagés (groupes de volume, volumes logiques, systèmes de fichiers). La méthode rapide consiste à utiliser les options ci-après du menu Cluster Resources Modification pour créer les modules LVM partagés souhaités et les déclarer membres d’un groupe de ressources donné : • Add a Volume Group to a Resource Group • Add a Logical Volume to a Resource Group • Add a File System to a Resource Group. Pour en savoir plus, reportez-vous au chapitre ”Gestion des ressources de grappe et des modules LVM partagés”, page 9-1. Remarque : Si vous exploitez des sous-systèmes DAS, vous devez, avant de créer des groupes de volume, avoir défini les LUN (unités de disque physique) souhaités et rafraîchi la base de données ODM AIX, comme expliqué à ”Configuration des unités de disque physiques (LUN)”, page 6-7. Méthode manuelle La procédure manuelle de configuration des groupes de volumes diffère selon le type d’unités de disque partagées installées : • Si vous utilisez des unités de disque SCSI non RAID SCSI ou des sous-système disque SSA : Aucune remarque particulière ne s’applique : reportez-vous simplement à la documentation AIX et HACMP. Le chapitre ”Defining Shared LVM Components” du manuel HACMP Installation Guide notamment, contient de précieuses informations. • Si vous exploitez des sous-systèmes DAS : Reportez-vous aux remarques de la section ”Groupes de volumes partagés sur sous-systèmes DAS”, page 8-5. Pour en savoir plus sur la configuration manuelle des groupes de volumes et des systèmes de fichiers, reportez-vous à la documentation AIX et HACMP. 8-2 EPC et solutions HA – Guide d’installation Synchronisation des horloges de la grappe Il est conseillé d’implémenter le démon timed dans votre grappe, pour maintenir la synchronisation des horloges sur tous les noeuds. Pour en savoir plus, reportez-vous à ”Synchronisation des horloges avec timed”, page 10-27. Implémentation d’alias d’adresses IP Si le basculement d’adresse IP est activé dans votre configuration, vous pouvez implémenter la fonction d’alias d’adresse IP (facultatif). Elle fournit les moyens d’appliquer des alias aux adresses IP de service et d’amorçage. Pour en savoir plus, reportez-vous à la page 10-5. Activation de la notification des événements de grappe via la messagerie électronique Vous pouvez personnaliser le traitement des événements de grappe pour qu’un message électronique soit adressé à l’administrateur dès qu’un événement se produit. Pour implémenter cette fonction, vous pouvez appeler le menu HACMP standard Change/Show Cluster Events et spécifier la commande appropriée dans le champ Notify Command. Toutefois, ce menu ne s’applique qu’à un événement à la fois. Pour configurer la notification de plusieurs événements en une fois, appelez le menu Send Mail for Cluster Events Notification : menu BullCluster spécifique, il est une extension des menus HACMP standard. Procédure Faites appel au menu Send Mail for Cluster Events Notification comme suit : 1. Sur le menu principal HACMP SMIT, sélectionnez successivement Bull Cluster Easy Configuration, et Send Mail for Cluster Events Notification. 2. La liste des événements s’affiche. 3. Sur la liste, sélectionnez un ou plusieurs événements via la touche F7. Appuyez sur Entrée. Un menu semblable au suivant s’affiche : Finalisation de l’installation de la grappe 8-3 4. Notez que le champ (non modifiable) Event Name contient les noms des événements que vous venez de sélectionner. 5. Dans le champ Mailing List, spécifiez les adresses électroniques auxquelles doivent être envoyées les notifications. Vous pouvez indiquer plusieurs adresses, séparées par des espaces. root [email protected] [email protected] 6. Appuyez sur Entrée. Lorsque le message de confirmation, appuyez à nouveau sur Entrée. Conséquences du recours au menu ”Send Mail for Cluster Events Notification” La procédure ci-dessus modifie la commande de notification associée à chacun des événements que vous avez sélectionnés. • Aussi, si vous appelez le menu HACMP Change/Show Cluster Events (accessible via le menu Manage Node Environment), vous pouvez constater que, pour ces événements, la valeur du champ Notify Command a changé. Ce champ contient la commande : /usr/sbin/bullcluster/admin/mailtoroot La commande définie via Notify Command, intégrée au logiciel BullCluster, est exécutée avant et après la commande de l’événement. Aussi mailtoroot envoie-t-il un message électronique avant et après l’exécution de la commande d’événement. Remarque : Pour en savoir plus sur le traitement des événements de grappe, reportez-vous au chapitre ”Maintaining Cluster Events Processing” du manuel HACMP Administration Guide. La procédure ci–dessus modifie également le fichier /usr/sbin/bullcluster/admin/mailtoroot.cfg, en y intégrant les adresses électroniques spécifiées dans le champ Mailing List de Send Mail for Cluster Events Notification. Le script mailtoroot est basé sur mailtoroot.cfg, c’est–à–dire qu’il envoie des messages électroniques à toutes les adresses spécifiées dans ce fichier. • Lorsque vous utilisez l’utilitaire Send Mail for Cluster Events Notification, si vous modifiez le champ Mailing List, la liste mailtoroot.cfg est mise à jour en conséquence. Les événements actuellement configurés pour utiliser mailtoroot comme commande de notification en sont affectés. Remarque : Le script mailtoroot et les fichiers mailtoroot.cfg font partie du logiciel BullCluster et résident dans le répertoire /usr/sbin/bullcluster/admin/utils. Vous pouvez les consulter. 8-4 EPC et solutions HA – Guide d’installation Groupes de volumes partagés sur sous-systèmes DAS Cette section traite des tâches à effectuer pour créer et configurer manuellement des groupes de volumes partagés sur des sous-systèmes DAS. Avertissement : La méthode manuelle décrite ci-après est plutôt complexe. Nous vous conseillons d’opter pour la méthode rapide, présentée page 8-2. Cette méthode permet en effet de simplifier le maniement des groupes de volumes partagés, avec un risque d’erreur moindre qu’avec la méthode manuelle. Remarques préliminaires • Nous supposons que vous avez défini les unités de disque physique (LUN) souhaitées et mis à jour la base de données ODM d’AIX, comme expliqué à ”Configuration des unités de disque physiques (LUN)”, page 6-7. • Les tâches à effectuer diffèrent selon qu’il s’agit d’une configuration DAS” à bus distincts” ou ”deux initiateurs - deux cartes”. • Ces deux types de configuration sont traitées à la section ”Planification des sous-systèmes DAS partagés”, page 3-10. Configuration deux initiateurs - deux serveurs Pour créer et configurer manuellement un groupe de volumes partagé : • Suivez simplement la procédure manuelle standard décrite à la section ”Maintaining Shared Volume Groups” du manuel HACMP Administration Guide. Cette procédure est résumée ci-après. • Notez que la configuration ”deux initiateurs-deux cartes” requiert le logiciel ATF (Application-Transparent Failover). Pour en savoir plus, reportez-vous au SRB (Bulletin de logiciel) livré avec le logiciel de grappe. Procédure La procédure explicitée dans la documentation HACMP comprend les étapes décrites ci-après. Pour en savoir plus, reportez-vous au chapitre 4 ”Maintaining Shared Volume Groups”, du manuel HACMP Administration Guide. 1. Le cas échéant, exécutez les tâches prérequises. Les volumes physiques partagés (hdisks) doivent être installés, configurés et disponibles (vous disposez de la commande lsdev -Cc disk pour vérifier leur état). En outre, HACMP doit être arrêté sur tous les noeuds. 2. Sur un noeud, créez le groupe de volume partagé souhaité via le raccourci smit mkvg. N’oubliez pas de donner au champ Activate volume group AUTOMATICALLY at system restart? la valeur No, et au champ ACTIVATE volume group after it is created? la valeur Yes. 3. Une fois le groupe de volumes en place, créez les volumes logiques et les systèmes de fichiers souhaités. 4. Démontez le(s) système(s) de fichiers nouvellement créé(s). 5. Mettez hors fonction le groupe de volumes nouvellement créé, via la commande varyoffvg. 6. Importez les informations du groupe de volumes sur le second noeud : connectez-vous sur ce second noeud et lancez la commande importvg. 7. Configurez le groupe de volumes importé de sorte qu’il reste inactif à l’initialisation : lancez le raccourci smit mkvg et donnez au champ Activate volume group AUTOMATICALLY at system restart? la valeur No. 8. Mettez le groupe de volumes hors fonction via la commande varyoffvg. Notez que tous les groupes de volumes doivent être laissés hors fonction (état ”varied off’). Ils seront mis en fonction par HACMP au démarrage des services de grappe. Finalisation de l’installation de la grappe 8-5 Configuration ”à bus distincts” Avec une configuration ”à bus distincts”, la configuration du groupe de volumes partagé, plus complexe, suppose l’emploi de la commande trespass (fournie avec le logiciel DAS). Vous trouverez ci-après les principales étapes de cette opération. Pour des instructions plus détaillées, reportez-vous : • Au manuel Configuring and Managing a DAS et notamment au chapitre ”Making physical disk units available to AIX”. • A la documentation AIX et HACMP ; et notamment au chapitre 4 ”Maintaining Shared Volume Groups”, du manuel HACMP Administration Guide. Procédure Prérequis et hypothèses 1. Vérifiez que HACMP est arrêté sur les deux noeuds de la grappe, et fermez toute application en cours sur les disques DAS. 2. Nous supposons que : – Vous avez regroupé sur le DAS les modules disque en LUN (avec les niveaux RAID souhaités). Dans l’exemple ci-dessous, nous supposons que deux LUN sont définis, LUNx et LUNy. – Les systèmes sont configurés avec chaque disque doté du même nom sur les deux noeuds. Par exemple, nous supposons que, sur les deux noeuds, LUNx est connu sous le nom de hdiskx, et LUNy sous le nom de hdisky. Notez toutefois qu’en pratique, selon votre configuration, un LUN peut se voir affecter des noms différents par les deux noeuds. Par exemple, un LUN peut être connu sous le nom hdisk4 par un noeud et sous le nom hdisk5 sur l’autre. 3. Notez qu’au départ, les disques ”vus” comme available (disponibles) par un noeud sont ”vus” comme seulement defined (définis et donc non disponibles) par l’autre. Vous disposez de la commande lsdev -Cc disk pour vérifier l’état des hdisks. Dans l’exemple illustré ci-dessous, hdiskx est disponible du point de vue du noeud A, mais seulement défini du point de vue du noeud B (et réciproquement pour hdisky). noeud A noeud B SP A LUNx ... #lsdev -Cc disk ... hdiskx Available... hdisky Defined... ... SP B LUNy ... sous-système DAS #lsdev -Cc disk ... hdiskx Defined... hdisky Available... ... Configuration des groupes de volumes et des systèmes de fichiers sur le noeud A 4. Depuis le noeud A, créez un groupe de volume partagé comprenant un disque disponible à partir du noeud A : hdiskx dans notre exemple. Utilisez le raccourci smit mkvg. N’oubliez pas de donner au champ Activate volume group AUTOMATICALLY at system restart? la valeur No, et au champ ACTIVATE volume group after it is created? la valeur Yes. 5. Une fois le groupe de volumes en place, créez les volumes logiques et les systèmes de fichiers souhaités. 8-6 EPC et solutions HA – Guide d’installation 6. Démontez le(s) système(s) de fichiers nouvellement créés, mettez hors fonction le groupe de volume nouvellement créé, via la commande varyoffvg. Configuration des groupes de volumes et des systèmes de fichiers sur le noeud B 7. Depuis le noeud B, créez un groupe de volume partagé comprenant un disque disponible à partir du noeud B : hdisky dans notre exemple. Utilisez le raccourci smit mkvg. N’oubliez pas de donner au champ Activate volume group AUTOMATICALLY at system restart? la valeur No, et au champ ACTIVATE volume group after it is created? la valeur Yes. 8. Une fois le groupe de volumes en place, créez les volumes logiques et les systèmes de fichiers souhaités. 9. Démontez le(s) système(s) de fichiers nouvellement créés, mettez hors fonction le groupe de volume nouvellement créé, via la commande varyoffvg. Transfert de la propriété du LUN du processeur de stockage (SP) B au SP A 10.Lancez la commande trespass pour transférer au SP A la propriété du LUNy (la commande trespass est décrite dans la documentation DAS). Sur le noeud A, entrez : /usr/sbin/cluster/events/utils/trespass -d -c hdisk<n> -l <m> Cette commande indique au SP actuellement propriétaire du hdisk<n> de prendre le contrôle du LUN <m>. Dans l’exemple, la commande adéquate est : /usr/sbin/cluster/events/utils/trespass -d -c hdiskx -l y (Cette commande indique au SP A de prendre le contrôle du LUNy) Au lieu de la commande trespass, vous pouvez utiliser l’option Change SP Ownership of a Physical Unit du menu DAS GridMgr. Mise à disposition du disque sur le noeud A 11. Rendez le disque hdisky disponible depuis le noeud A. Sur le noeud A, entrez : mkdev -l hdisky Aucune application ne doit tenter d’accéder au DAS pendant l’exécution de la commande mkdev. Depuis le noeud A, hdisky est maintenant vu comme available (vous disposez de la commande lsdev -Cc disk pour afficher la liste des états hdisk). Configuration des groupes de volumes pour le disque obtenu 12.Sur le noeud A, lancez la commande importvg pour importer le groupe de volumes qui contient le disque obtenu (hdisky). 13.Configurez le groupe de volumes importé de sorte qu’il reste inactif à l’initialisation : lancez le raccourci smit chvg et donnez au champ Activate volume group AUTOMATICALLY at system restart? la valeur No. 14.Mettez le groupe de volumes hors fonction via la commande varyoffvg. Déconfiguration du disque 15.Sur le noeud A, déconfigurez hdisky via la commande : rmdev -l hdisky Pour le noeud A, hdisky est maintenant vu comme defined (et non plus available). Finalisation de l’installation de la grappe 8-7 Restitution de la propriété du LUN au SPB 16.Lancez la commande trespass sur le noeud B pour transférer au SP B la propriété de LUNy. Sur le noeud B, entrez : /usr/sbin/cluster/events/utils/trespass -d -c hdisky -l y Avec cette commande, SP B reprend le contrôle de LUNy. Du point de vue de la propriété du LUN, la configuration revient à son état initial (voir la figure au début de la procédure). Remarque : Les étapes qui suivent sont identiques aux étapes 10 à 16, à ceci près qu’elles sont exécutées à partir du noeud B (et non du noeud A) et concernent hdiskx (au lieu de hdisky). Etapes à effectuer sur le noeud B 17.Lancez la commande trespass pour transférer au SP B la propriété du LUNx (la commande trespass est décrite dans la documentation DAS). Sur le noeud B, entrez : /usr/sbin/cluster/events/utils/trespass -d -c hdisky -l x (Cette commande indique au SP B de prendre le contrôle du LUNx. 18.Rendez le disque hdiskx disponible depuis le noeud B. Sur le noeud B, entrez : mkdev -l hdiskx Pour le noeud B, hdiskx est maintenant vu comme available (vous disposez de la commande lsdev -Cc disk pour afficher la liste des états hdisk). 19.Sur le noeud B, lancez la commande importvg pour importer le groupe de volumes qui contient le disque obtenu (hdiskx). 20.Configurez le groupe de volumes importé de sorte qu’il reste inactif à l’initialisation : lancez le raccourci smit chvg et donnez au champ Activate volume group AUTOMATICALLY at system restart? la valeur No. 21.Mettez le groupe de volumes hors fonction via la commande varyoffvg. 22.Sur le noeud B, déconfigurez hdiskx via la commande : rmdev -l hdiskx Pour le noeud B, hdiskx est maintenant vu comme defined seulement (et non plus available). Dernière étape sur le noeud A 23.Lancez la commande trespass sur le noeud A pour transférer au SP A la propriété du LUNx. Dans l’exemple, la commande à lancer sur le noeud A est : /usr/sbin/cluster/events/utils/trespass -d -c hdiskx -l x La procédure est terminée. Tous les groupes de volumes sont laissés hors fonction (état ”varied off”). Ils seront mis en fonction (état ”varied on”) par HACMP au démarrage des services de grappe. Étape suivante Les tâches décrites dans ce chapitre mettent un terme à la procédure de configuration de la grappe. • Vous disposez d’une grappe opérationnelle. Si vous souhaitez davantage de précisions sur la configuration de HACMP et le lancement des services de grappe, reportez-vous à la documentation HACMP. • Vous pouvez consulter le chapitre ”Outils et techniques de gestion du système ”, page 10-1, pour des précisions sur la gestion de grappe. 8-8 EPC et solutions HA – Guide d’installation Chapitre 9. Gestion des ressources de grappe et des modules LVM partagés Ce chapitre explique comment gérer les ressources de grappe et les modules LVM partagés, par le biais du menu Cluster Resources Modification du logiciel BullCluster. Il comporte les sections suivantes : • Présentation du menu • Ajout, suppression et affichage d’un groupe de ressources, page 9-4. • Ajout et suppression d’un groupe de volumes, page 9-8. • Ajout et suppression d’un volume logique, page 9-11. • Ajout et suppression d’un système de fichiers, page 9-14. • Ajout et suppression d’un label IP de service, page 9-17. • Ajout et suppression d’un serveur d’application, page 9-19. • Diffusion générale de la définition d’un groupe de volumes, page 9-20. Présentation du menu La gestion des ressources de grappe et des modules LVM partagés met en jeu des procédures complexes, qui impliquent l’utilisation de nombreux menus et commandes HACMP et AIX. Ces procédures sont décrites dans HACMP Administration Guide. Pour simplifier ces tâches d’administration, le logiciel BullCluster propose le menu Cluster Resources Modification. Ce menu offre des fonctions simplifiées pour gérer ressources de grappe et composants LVM partagés (groupes de volumes, volumes logiques, systèmes de fichiers). Pour chaque tâche, il existe un menu spécifique, unique, qui vous évite de naviguer continuellement entre les différents menus HACMP et AIX. Utiliser le menu Cluster Resources Modification permet non seulement de gagner du temps, mais est également plus sûr, dans la mesure où toutes les opérations de configuration/déconfiguration requises sont effectuées et systématiquement vérifiées. Accès au menu Cluster Resources Modification Pour accéder au menu Cluster Resources Modification : • Sur le menu principal SMIT HACMP (appelé par smit hacmp), sélectionnez Bull Cluster Easy Configuration puis Cluster Resources Modification. Un écran semblable à celui illustré ci-après s’affiche. Remarque à l’attention des utilisateurs de PowerConsole Si votre grappe est équipée d’un PowerConsole, vous pouvez tirer parti du module ClusterAssistant. De fait, le dossier ”Configuration” du groupe d’applications ClusterAssistant comprend un dossier ”Resources”, dont les icônes permettent d’accéder facilement aux différentes fonctions du menu Cluster Resources Modification. Gestion des ressources de grappes et des modules LVM partagés 9-1 Options Voici une rapide présentation des options de Cluster Resources Modification : Add a Resource Group (voir page 9-4) Crée un groupe de ressources. Add a Volume Group to a Resource Group (voir page 9-8) Crée un groupe de volumes partagé (ou utilise un groupe de volumes partagé existant), et le déclare comme ressource d’un groupe de ressources donné. La configuration du groupe (activation/désactivation, export, import) est automatique. Add a Logical Volume to a Resource Group (voir page 9-11) Crée un volume logique et déclare le groupe de volumes auquel il appartient comme ressource d’un groupe donné. Les paramètres de ce volume logique sont configurables (fonction miroir, taille...). Quant à la configuration du groupe de volumes correspondant (activation/désactivation, export, import), elle est automatique. Add a File System to a Resource Group (voir page 9-14) Crée un système de fichiers et un volume logique ; les caractéristiques du système de fichiers sont configurables (mise en miroir, dimensions...), et les opérations requises pour configurer le groupe de volume correspondant (vary on/off, export, import, etc.) sont effectuées automatiquement. 9-2 EPC et solutions HA – Guide d’installation Propagate Volume Group Definition to all nodes (voir page 9-20) Diffuse les informations concernant le groupe de volumes sur tous les noeuds de grappe. Add a Service IP Label to a Resource Group (voir page 9-17) Déclare un label IP de service comme ressource d’un groupe de ressources donné (ce qui active le basculement d’adresse IP). Create and Add an Application Server to a Resource Group (voir page 9-19) Configure les serveurs d’application et les ressources dédiés à des applications spécifiques. Show Resources for a Resource Group (voir page 9-7) Affiche les ressources actuellement associées à un groupe de ressources. Remove a Resource Group (voir page 9-6) Supprime la définition d’un groupe de ressources donné et synchronise les informations sur tous les noeuds de grappe. Remove a Volume Group from a Resource Group (voir page 9-10) Supprime physiquement un groupe de volumes et met à jour les définitions du groupe de ressources en conséquence. Remove a Logical Volume from a Resource Group (voir page 9-13) Supprime physiquement un volume logique et met à jour les définitions du groupe de ressources en conséquence. Remove a File System from a Resource Group (voir page 9-16) Supprime physiquement un système de fichiers et met à jour les définitions du groupe de ressources en conséquence. Remove a Service IP Label from a Resource Group (voir page 9-18) Supprime un label IP de service de la liste des ressources associées à un groupe de ressources (ce qui désactive le basculement d’adresse IP). Remove an Application Server from a Resource Group (voir page 9-19) Supprime un serveur d’application de la liste des ressources associées à un groupe de ressources donné. Gestion des ressources de grappes et des modules LVM partagés 9-3 Ajout, suppression et affichage d’un groupe de ressources Cette section traite des trois options suivantes, appelées via le menu Cluster Resources Modification : • Ajout d’un groupe de ressources • Suppression d’un groupe de ressources • Affichage des ressources d’un groupe de ressources Remarque : Les fonctions de ces menus sont semblables à celles proposées par le menu HACMP Define Resource Groups. En outre, elles exécutent automatiquement la synchronisation des informations sur les noeuds de la grappe. Pour en savoir plus sur la configuration d’un groupe de ressources, reportez-vous à la section ”Configuring Resources” dans le chapitre ”Configuring Cluster Resources” du manuel HACMP Installation Guide. Ajout d’un groupe de ressources Le menu Add a Resource Group permet de : • créer des groupes de ressources (avec une configuration conforme aux paramètres définis). • synchroniser les informations sur les noeuds de grappe. Procédure 1. Pour utiliser le menu Add a Resource Group, les services de grappe doivent être arrêtés. Au besoin, arrêtez-les par le biais du menu HACMP Stop Cluster Services. 2. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Add a Resource Group. L’écran suivant s’affiche. 9-4 EPC et solutions HA – Guide d’installation 3. Renseignez les champs : Resource Group Name Entrez le nom souhaité. N’utilisez pas plus de 31 caractères. Les caractères alphanumériques sont autorisés, de même que le trait de soulignement. Node Relationship Vous avez le choix entre cascading, concurrent et rotating. Participating Node Names Indiquez le nom des noeuds qui doivent être membres de la chaîne de ressources pour ce groupe de ressources. Entrez ces noms par ordre de priorité décroissante (de gauche à droite). Laissez un espace entre chaque nom. Inactive Takeover Activated (meaningless for concurrent or rotating) Définissez ce paramètre pour contrôler l’acquisition initiale d’une ressource par un noeud lorsque la relation noeud/ressource est cascading. Ce paramètre n’est pas valable pour les groupes de ressources concurrent ou rotating. Si la valeur de ce champ est true, alors le premier noeud de la chaîne de ressources qui rejoint la grappe acquiert la ressource. Ensuite, la ressource passe, en mode cascade, aux noeuds de la chaîne dont la priorité est la plus élevée au fur et à mesure qu’ils rejoignent la grappe. Si la valeur de ce champ est false, seul le noeud qui a la priorité la plus élevée pour cette ressource acquiert initialement la ressource. Les noeuds à priorité moindre dans la chaîne de ressources n’acquièrent la ressource que lors d’un basculement. 4. Appuyez sur Entrée pour valider et créer le groupe de ressources. 5. Si nécessaire, relancez les services de grappe via le menu HACMP Start Cluster Services. Gestion des ressources de grappes et des modules LVM partagés 9-5 Suppression d’un groupe de ressources L’option Remove a Resource Group : • Supprime un groupe de ressources donné de la configuration de grappe. La définition du groupe de ressources est supprimée de la base de données HACMP ODM, sans impact physique sur les ressources (groupes de volumes, systèmes de fichiers...) associées au groupe de ressources. • Synchronise les informations sur les noeuds de grappe. Procédure 1. Pour utiliser le menu Remove a Resource Group, les services de grappe doivent être arrêtés. Au besoin, arrêtez-les par le biais du menu HACMP Stop Cluster Services. 2. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Remove a Resource Group. 3. Dans la liste qui s’affiche, sélectionnez le groupe de ressources à supprimer. L’écran Remove a Resource Group s’affiche. 4. Le champ Resource Group Name n’est pas modifiable. Vérifiez qu’il affiche le groupe de ressource à supprimer. 5. Lorsque vous validez l’écran, un message de confirmation s’affiche, illustré ci-dessous. 6. Appuyez sur Entrée pour supprimer le groupe de ressources. 7. Si nécessaire, relancez les services de grappe via le menu HACMP Start Cluster Services. 9-6 EPC et solutions HA – Guide d’installation Affichage des ressources d’un groupe de ressources L’option Show Resources for a Resource Group répertorie les ressources actuellement associées à un groupe de ressources. Les champs de cet écran ne sont pas modifiables. Pour plus de détails sur leur signification, reportez-vous à “Managing ressources” au chapitre “Changing Run-Time Parameters and Ressources Groups” dans HACMP Administration Guide. Gestion des ressources de grappes et des modules LVM partagés 9-7 Ajout et suppression d’un groupe de volumes Cette section traite des deux options suivantes, appelées via le menu Cluster Resources Modification : • Add a Volume Group to a Resource Group • Remove a Volume Group from a Resource Group Ajout d’un groupe de volumes à un groupe de ressources Le menu Add a Volume Group to a Resource Group : • Crée un groupe de volumes, si celui indiqué n’existe pas. Pour tous les noeuds, le numéro principal du groupe de volumes partagé reste le même. La taille de la partition physique est choisie de façon appropriée. • Dans tous les cas (que le groupe de volumes partagé soit nouveau ou non) : – Le groupe de volumes partagé est désactivé. L’activation de groupes de volumes partagés incombe en effet à HACMP (au moment du lancement des services de grappe). – Le groupe de volumes partagé est déclaré à tous les noeuds. Cette fonction est intéressante dans la mesure où la procédure manuelle est assez complexe. (Cette procédure implique les commandes varyon, varyoff, exportvg, importvg et trespass.) • Le groupe de volumes est déclaré comme ressource du groupe de ressources spécifié. • La configuration de grappe est synchronisée sur les noeuds de grappe. Procédure 1. Pour utiliser le menu Add a Volume Group to a Resource Group, les services de grappe doivent être arrêtés. Au besoin, arrêtez-les par le biais du menu HACMP Stop Cluster Services. 2. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Add a Volume Group to a Resource Group. 3. Dans la liste qui s’affiche, sélectionnez le groupe de ressources auquel ajouter un groupe de volumes. L’écran Add a Volume Group to a Resource Group s’affiche. 4. Notez que les champs Resource Group Name, Node Relationship et Participating Node Names ne sont pas modifiables. Ils sont juste indiqués pour rappeler les caractéristiques du groupe de ressources auquel vous ajoutez un groupe de volumes. 9-8 EPC et solutions HA – Guide d’installation 5. Renseignez les champs : Volume Group Name Entrez le nom d’un groupe de volume existant ou du groupe de volume à créer. PHYSICAL VOLUME names Si vous créez un groupe de volumes, spécifiez le noms des disques partagés dédiés à ce groupe de volume. Vous pouvez en indiquer autant que souhaité. Par exemple, si vous indiquez ”hdisk4”, le nouveau groupe de volumes ne comportera qu’un seul disque partagé, hdisk4. Si vous spécifiez ”hdisk4 hdisk5”, il comportera deux disques partagés, hdisk4 et hdisk5. Ne renseignez pas ce champ si vous définissez un groupe de volumes qui existe déjà. Remarques concernant la mise en miroir AIX La mise en miroir AIX ne concerne que les disques partagés ordinaires (non RAID). Notez que : – La mise en miroir n’est possible que si le groupe de volume comporte plusieurs disques. Si vous envisagez la mise en miroir de volumes logiques, vous devez donc spécifier au moins deux disques dans le champ PHYSICAL VOLUME names. – Si vous créez un groupe de volume de deux disques pour mettre en oeuvre la fonction miroir, vous devez dans la mesure du possible, spécifier deux disques installés sur des bus SCSI distincts. Dans ce cas, un disque sur un bus SCSI est doublé par un disque miroir sur l’autre bus SCSI - ce qui assure une plus grande disponibilité des données. Au contraire, lorsque les deux disques se trouvent sur un même bus SCSI, la mise en miroir est déclenchée sur ce bus et, en cas de défaillance, la disponibilité des données n’est plus optimale. – Si vous créez un groupe de volume de plus de deux disques, la mise en miroir d’un bus SCSI à l’autre n’est pas garantie. Cette restriction vaut même lorsque les disques désignés ne sont pas tous sur le même bus SCSI. – De même, si la grappe est équipées de sous-systèmes disque SSA avec deux boucles SSA, la mise en miroir doit être implémentée entre les deux boucles (les disques d’une boucle doivent être doublés par des disques de l’autre boucle). – Pour en savoir plus sur le volumes logiques et le mise en miroir, reportez-vous au chapitre ”Volumes logiques” du manuel AIX System Management Guide. Propagate Volume Group Definition on all nodes Entrez YES pour que les modifications de configuration soient immédiatement synchronisées sur tous les noeuds. Notez toutefois que, dans la mesure où la synchronisation prend du temps, vous pouvez indiquer NO si vous avez plusieurs composants LVM partagés à définir (groupes de volumes, volumes logiques ou systèmes de fichiers). Dans ce cas, une fois que vous avez défini tous les composants LVM, n’oubliez pas de synchroniser la configuration de la grappe via le menu Propagate Volume Group Definition to all nodes (voir page 9-20). Dans le doute, entrez YES. 6. Appuyez sur Entrée pour valider et prenez connaissance des messages qui s’affichent. Gestion des ressources de grappes et des modules LVM partagés 9-9 7. A la fin de la commande, vous pouvez définir d’autres modules LVM partagés par le biais des menus d’ajout de groupe de volumes, de volume logique ou de système de fichiers. Puis, si besoin est, n’oubliez pas de synchroniser la configuration de la grappe via le menu Propagate Volume Group Definition to all nodes (voir page 9-20). 8. Si nécessaire, relancez les services de grappe via le menu HACMP Start Cluster Services. Suppression d’un groupe de volumes d’un groupe de ressources Le menu Remove a Volume Group from a Resource Group : • Détruit physiquement le groupe de volumes partagé spécifié. • Supprime de chaque noeud de grappe la définition du groupe de volumes détruit. • Met à jour et synchronise les définitions des ressources de grappe sur tous les noeuds de grappe. Procédure 1. Pour utiliser le menu Remove a Volume Group from a Resource Group, les services de grappe doivent être arrêtés. Au besoin, arrêtez-les par le biais du menu HACMP Stop Cluster Services. 2. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Remove a Volume Group from a Resource Group. 3. Dans la liste qui s’affiche, sélectionnez le groupe de ressources auquel appartient le groupe de volumes à détruire. 4. Si plusieurs groupes de volumes sont déclarés membres de ce groupe de ressources, une liste s’affiche. Sélectionnez-y le groupe de volumes à détruire. L’écran Remove a Volume Group from a Resource Group s’affiche. 5. Les champs de cet écran ne sont pas modifiables. Assurez-vous que Volume Group Name inclut le groupe de volumes à détruire. 6. Lorsque vous validez l’écran, un message de confirmation s’affiche, illustré ci-dessous. 7. Appuyez sur Entrée sur détruire le groupe de volumes. 8. Si nécessaire, relancez les services de grappe via le menu HACMP Start Cluster Services. 9-10 EPC et solutions HA – Guide d’installation Ajout et suppression d’un volume logique Cette section traite des deux options suivantes, appelées via le menu Cluster Resources Modification : • Add a Logical Volume to a Resource Group • Remove a Logical Volume from a Resource Group. Ajout d’un groupe logique à un groupe de ressources Remarques préliminaires Le menu Add a Logical Volume to a Resource Group est utile si vous implémentez une configuration de grappe à accès concurrent : ce mode utilise des volumes logiques bruts pour stocker les données sur disques partagés. Le système JFS (Journaled File System) d’AIX n’étant pas pris en charge, vous ne pouvez pas utiliser de systèmes de fichiers. Remarque : Pour un complément d’information, reportez-vous à ”Maintaining Shared LVM Components in a Concurrent Access Environment”, dans le manuel HACMP Administration Guide. Si vous implémentez une configuration non-concurrente et que vous utilisez des systèmes de fichiers (cas habituel), le menu Add a Logical Volume to a Resource Group. Faites plutôt appel au menu Add a File System to a Resource Group (voir page 9-14). Actions Le menu Add a Logical Volume to a Resource Group : • Crée un volume logique (dans un groupe de volumes partagé existant) avec les caractéristiques indiquées dans le menu. • Déclare le volume logique à tous les noeuds. Cette fonction est intéressante dans la mesure où la procédure manuelle est assez complexe. (Cette procédure implique les commandes varyon, varyoff, exportvg, importvg et trespass.) • Déclare le groupe de volumes dans lequel est créé le nouveau volume logique comme ressource du groupe de ressources spécifié. • Met à jour et synchronise les définitions de ressource de grappe sur tous les noeuds de grappe. Procédure 1. Pour utiliser le menu Add a Logical Volume to a Resource Group, les services de grappe doivent être arrêtés. Au besoin, arrêtez-les par le biais du menu HACMP Stop Cluster Services. 2. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Add a Logical Volume to a Resource Group. 3. Dans la liste qui s’affiche, sélectionnez le groupe de ressources auquel appartient le groupe de volumes dans lequel créer un volume logique. L’écran Add a Logical Volume to a Resource Group s’affiche. 4. Notez que les champs Resource Group Name, Node Relationship, Participating Node Names, Volume Group Name et Volume Group Disk(s) ne sont pas modifiables. Ils sont juste indiqués pour rappeler les caractéristiques du groupe de ressources et du groupe de volumes impliqués. Gestion des ressources de grappes et des modules LVM partagés 9-11 5. Renseignez les champs : Logical Volume Name Entrez un nom unique (15 caractères au maximum) pour le volume logique à créer. Ne renseignez pas ce champ si vous souhaitez conserver le nom généré par défaut à la création du volume logique. (Notez que, dans une grappe, le nom d’un volume logique partagé doit être unique. De plus, il doit être identique sur tous les noeuds le partageant. Des vérifications sont automatiquement effectuées lors de l’application de ce menu.) Logical Volume Disks Lorsqu’un volume logique est créé, la règle d’affectation par défaut est d’utiliser le moins de disques possibles par copie de volume logique et de placer les partitions physiques d’une même copie de façon aussi contiguë que possible. – Pour accepter cette règle d’affectation par défaut, laissez ce champ vide. – Si vous préférez créer un volume logique dont les partitions physiques sont réparties sur plusieurs disques, spécifiez les disques souhaités. Laissez un espace entre les noms des disques (exemple : ”hdisk5 hdisk6”). AIX Mirroring Indiquez yes ou no selon que vous souhaitez ou non implémenter la mise en miroir. – Si les disques partagés sont ordinaires (non RAID) : choisissez yes pour activer la mise en miroir et accroître ainsi la disponibilité des données. Opter pour cette valeur signifie que vous souhaitez maintenir deux exemplaires du journal JFS partagé et des volumes logiques. – Si les disques partagés sont des disques RAID : spécifiez no. En effet, les unités de disque RAID intègrent leur propre système de redondance de données : la mise en miroir est inutile. Sur la mise en miroir, qui ne concerne que les disques partagés ordinaires (non RAID), reportez-vous également à Remarques concernant la mise en miroir AIX, page 9-9 Logical Volume Size (in PPs) Indiquez le nombre de partitions physiques à affecter au volume logique. Propagate Volume Group Definition on all nodes Entrez YES pour que les modifications de configuration soient immédiatement synchronisées sur tous les noeuds. Notez toutefois que, dans la mesure où la synchronisation prend du temps, vous pouvez indiquer NO si vous avez plusieurs composants LVM partagés à définir (groupes de volumes, volumes logiques ou systèmes de fichiers). Dans ce cas, une fois que vous avez défini tous les composants LVM, n’oubliez pas de synchroniser la configuration de la grappe via le menu Propagate Volume Group Definition to all nodes (voir page 9-20). Dans le doute, entrez YES. 6. Appuyez sur Entrée pour valider et prenez connaissance des messages qui s’affichent. 7. A la fin de la commande, vous pouvez définir d’autres modules LVM partagés par le biais des menus d’ajout de groupe de volumes, de volume logique ou de système de fichiers. Puis, si besoin est, n’oubliez pas de synchroniser la configuration de la grappe via le menu Propagate Volume Group Definition to all nodes (voir page 9-20). 8. Si nécessaire, relancez les services de grappe via le menu HACMP Start Cluster Services. 9-12 EPC et solutions HA – Guide d’installation Suppression d’un groupe logique d’un groupe de ressources Le menu Remove a Logical Volume from a Resource Group : • Détruit physiquement le volume logique partagé spécifié. • Supprime de chaque noeud de grappe la définition du volume logique détruit. • Met à jour et synchronise les définitions des ressources de grappe sur tous les noeuds de grappe. Procédure 1. Pour utiliser le menu Remove a Volume Group from a Resource Group, les services de grappe doivent être arrêtés. Au besoin, arrêtez-les par le biais du menu HACMP Stop Cluster Services. 2. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Remove a Logical Volume from a Resource Group. 3. Dans la liste qui s’affiche, sélectionnez le groupe de ressources auquel appartient le groupe de volumes qui inclut le volume logique à détruire. 4. La liste des volumes logiques s’affiche. Sélectionnez le volume à détruire. L’écran Remove a Logical Volume Group from a Resource Group s’affiche. 5. Les champs de cet écran ne sont pas modifiables. Assurez-vous que le champ Logical Volume Name inclut le volume logique à détruire. 6. Lorsque vous validez l’écran, un message de confirmation s’affiche, illustré ci-dessous. 7. Appuyez sur Entrée pour détruire le volume logique. 8. Si nécessaire, relancez les services de grappe via le menu HACMP Start Cluster Services. Gestion des ressources de grappes et des modules LVM partagés 9-13 Ajout et suppression d’un système de fichiers Cette section traite des deux options suivantes, appelées via le menu Cluster Resources Modification : • Add a File System to a Resource Group • Remove a File System from a Resource Group Ajout d’un système de fichiers à un groupe de ressources Le menu Add a File System to a Resource Group : • Crée un système de fichiers et un volume logique (dans un groupe de volumes partagé existant), avec les caractéristiques indiquées dans le menu. • Déclare le système de fichiers à tous les noeuds. Cette fonction est intéressante dans la mesure où la procédure manuelle est assez complexe. (Cette procédure implique les commandes varyon, varyoff, exportvg, importvg et trespass, reportez-vous à “Groupes de volumes partagés sur sous-systèmes DAS”, page 8-5). • Déclare le système de fichiers partagé comme ressource du groupe de ressources spécifié. • Met à jour et synchronise les définitions de ressources de grappe sur les noeuds de grappe. Procédure 1. Pour utiliser le menu Add a File System to a Resource Group, les services de grappe doivent être arrêtés. Au besoin, arrêtez-les par le biais du menu HACMP Stop Cluster Services. 2. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Add a File System to a Resource Group. 3. Dans la liste qui s’affiche, sélectionnez le groupe de ressources auquel appartient le groupe de volumes dans lequel vous souhaitez créer un nouveau système de fichiers. 4. Un nouvel écran s’affiche. Sélectionnez le groupe de volumes dans lequel créer le système de fichiers. L’écran Add a File System to a Resource Group s’affiche. 5. Notez que les champs Resource Group Name, Node Relationship, Participating Node Names, Volume Group Name et Volume Group Disk(s) ne sont pas modifiables. Ils sont juste indiqués pour rappeler les caractéristiques du groupe de ressources et du groupe de volumes impliqués. 6. Renseignez les champs : Logical Volume Name Entrez un nom unique (15 caractères au maximum) pour le volume logique à créer pour le nouveau système de fichiers. Ne renseignez pas ce champ si vous souhaitez conserver le nom généré par défaut à la création du volume logique. 9-14 EPC et solutions HA – Guide d’installation Logical Volume Disks Lorsqu’un volume logique est créé, la règle d’affectation par défaut est d’utiliser le moins de disques possibles par copie de volume logique et de placer les partitions physiques d’une même copie de façon aussi contiguë que possible. – Pour accepter cette règle d’affectation par défaut, laissez ce champ vide. – Si vous préférez créer un volume logique dont les partitions physiques sont réparties sur plusieurs disques, spécifiez les disques souhaités. Laissez un espace entre les noms des disques (exemple : ”hdisk5 hdisk6”). AIX Mirroring Indiquez yes ou no selon que vous souhaitez ou non implémenter la mise en miroir. – Si les disques partagés sont ordinaires (non RAID) : choisissez yes pour activer la mise en miroir et accroître ainsi la disponibilité des données. Opter pour cette valeur signifie que vous souhaitez maintenir deux exemplaires du journal JFS partagé et des volumes logiques. – Si les disques partagés sont des disques RAID : spécifiez no. En effet, les unités de disque RAID intègrent leur propre système de redondance de données : la mise en miroir est inutile. Sur la mise en miroir, qui ne concerne que les disques partagés ordinaires (non RAID), reportez-vous également à ”Remarques concernant la mise en miroir AIX”, page 9-9 Log Size (in PPs) Indiquez la taille du journal JFS, en nombre de partitions physiques (PP). Logical Volume Size (in PPs) Indiquez le nombre de partitions physiques à affecter au volume logique. File System Mount Point Indiquez le point de montage souhaité (c’est-à-dire le répertoire dans lequel le système de fichiers est disponible). Propagate Volume Group Definition on all nodes Entrez YES pour que les modifications de configuration soient immédiatement synchronisées sur tous les noeuds. Notez toutefois que, dans la mesure où la synchronisation prend du temps, vous pouvez indiquer NO si vous avez plusieurs composants LVM partagés à définir (groupes de volumes, volumes logiques ou systèmes de fichiers). Dans ce cas, une fois que vous avez défini tous les composants LVM, n’oubliez pas de synchroniser la configuration de la grappe via le menu Propagate Volume Group Definition to all nodes (voir page 9-20). Dans le doute, entrez YES. 7. Appuyez sur Entrée pour valider et prenez connaissance des messages qui s’affichent. 8. A la fin de la commande, vous pouvez définir d’autres modules LVM partagés par le biais des menus d’ajout de groupe de volumes, de volume logique ou de système de fichiers. Puis, si besoin est, n’oubliez pas de synchroniser la configuration de la grappe via le menu Propagate Volume Group Definition to all nodes (voir page 9-20). 9. Si nécessaire, relancez les services de grappe via le menu HACMP Start Cluster Services. Gestion des ressources de grappes et des modules LVM partagés 9-15 Suppression d’un système de fichiers d’un groupe de ressources Le menu Remove a File System from a Resource Group : • Détruit physiquement le système de fichiers spécifié. • Supprime de chaque noeud de grappe la définition du système de fichiers détruit. • Met à jour et synchronise les définitions des ressources de grappe sur tous les noeuds de grappe. Procédure 1. Pour utiliser le menu Remove a File System from a Resource Group, les services de grappe doivent être arrêtés. Au besoin, arrêtez-les par le biais du menu HACMP Stop Cluster Services. 2. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Remove a File System from a Resource Group. 3. Dans la liste qui s’affiche, sélectionnez un groupe de ressources pour lequel le système de fichiers à détruire est déclaré comme ressource. 4. La liste des systèmes de fichiers s’affiche. Sélectionnez le système de fichiers à détruire. L’écran Remove a File System from a Resource Group s’affiche. 5. Les champs de cet écran ne sont pas modifiables. Vérifiez que le champ File System Name comprend le système de fichiers à détruire. 6. Lorsque vous validez l’écran, un message de confirmation s’affiche, illustré ci-dessous. 7. Appuyez sur Entrée pour détruire le système de fichiers. 8. Si nécessaire, relancez les services de grappe via le menu HACMP Start Cluster Services. 9-16 EPC et solutions HA – Guide d’installation Ajout et suppression d’un label de service IP Cette section traite des deux options suivantes, appelées via le menu Cluster Resources Modification : • Add a Service IP Label to a Resource Group • Remove a Service IP Label from a Resource Group Remarque : Pour en savoir plus sur les concepts liés aux labels IP et au basculement d’adresse IP, reportez-vous à la documentation HACMP. Ajout d’un label de service IP à un groupe de ressources Le menu Add a Service IP Label to a Resource Group permet de déclarer un label IP de service comme ressource d’un groupe de ressources existant. Autrement dit, il permet d’implémenter le basculement d’adresse IP. Le menu Add a Service IP Label to a Resource Group : • Déclare le label IP de service spécifié comme ressource du groupe de ressources sélectionné. • Met à jour et synchronise les définitions de ressources de grappe sur les noeuds de grappe. Procédure 1. Pour utiliser le menu Add a Service IP Label to a Resource Group, les services de grappe doivent être arrêtés. Au besoin, arrêtez-les par le biais du menu HACMP Stop Cluster Services. 2. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Add a Service IP Label to a Resource Group. 3. Dans la liste qui s’affiche, sélectionnez le groupe de ressources auquel ajouter un label IP de service. L’écran Add a Service IP Label to a Resource Group s’affiche, comme illustré ci-après : 4. Notez que les champs Resource Group Name, Node Relationship et Participating Node Names ne sont pas modifiables. Ils sont juste indiqués pour rappeler les caractéristiques du groupe de ressources sélectionné. 5. Indiquez le Service IP Label à basculer lorsque le groupe de ressources bascule. Appuyez sur F4 pour visualiser la liste des labels IP valides. 6. Appuyez sur Entrée pour ajouter le label IP de service sélectionné au groupe de ressources. 7. Si nécessaire, relancez les services de grappe via le menu HACMP Start Cluster Services. Gestion des ressources de grappes et des modules LVM partagés 9-17 Suppression d’un label IP de service d’un groupe de ressources Le menu Remove a Service IP Label to a Resource Group : • Supprime un label IP de service de la liste des ressources associées au groupe de ressources spécifié (autrement dit, il désactive le basculement d’adresse IP). • Met à jour et synchronise les définitions de ressources de grappe sur les noeuds de grappe. Procédure 1. Pour utiliser le menu Remove a Service IP Label from a Resource Group, les services de grappe doivent être arrêtés. Au besoin, arrêtez-les par le biais du menu HACMP Stop Cluster Services. 2. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Remove a Service IP Label from a Resource Group. 3. Sur les deux listes qui s’affichent successivement, choisissez le groupe de ressources duquel supprimer le label IP de service associé, puis le label concerné. Le menu Remove a Service IP Label from a Resource Group s’affiche : 4. Les champs de cet écran ne sont pas modifiables. Assurez-vous que le champ Service IP Label comprend le label IP de service à supprimer du groupe de ressources ad hoc. 5. Lorsque vous validez l’écran, un message de confirmation s’affiche, illustré ci-dessous. 6. Appuyez sur Entrée pour supprimer le label IP de service du groupe de ressources. 7. Si nécessaire, relancez les services de grappe via le menu HACMP Start Cluster Services. 9-18 EPC et solutions HA – Guide d’installation Ajout et suppression d’un serveur d’application Cette section traite des deux options suivantes, appelées via le menu Cluster Resources Modification : • Create and Add an Application Server to a Resource Group • Remove an Application server from a Resource Group Création et ajout d’un serveur d’application à un groupe de ressources Le logiciel BullCluster propose des exemples de scripts de début et de fin pour vous aider à implémenter des applications spécifiques dans la grappe. Le menu Create and Add an Application Server to a Resource Group permet de configurer les serveurs d’application dédiés à ces applications. Le menu crée un serveur d’application pour HACMP, et le configure avec les scripts de début et de fin correspondant à l’application choisie. Les exemples de scripts de début et de fin comme le menu Create and Add an Application Server to a Resource Group sont principalement destinés au personnel technique Bull. • Pour une présentation générale des exemples de scripts, reportez-vous à ”Planification d’applications spécifiques”, page 3-1. • Pour des informations plus détaillées, reportez-vous au manuel Powercluster & solutions HA - Utilisation des scripts d’exemple HA. Suppression d’un serveur d’application d’un groupe de ressources Pour supprimer un système de fichiers créé via Add an Application Server to a Resource Group, passez par Remove an Application Server from a Resource Group. Cette procédure garantit que toutes les opérations de déconfiguration requises sont effectuées correctement. Remarque : Si vous avez créé des serveurs d’application X25 ou TUXEDO via le menu Create and Add an Application Server to a Resource Group, il est impératif d’utiliser l’option Remove an Application Server from a Resource Group pour garantir que les objets spécifiques définis dans la base de données ODM sont déconfigurés. Gestion des ressources de grappes et des modules LVM partagés 9-19 Diffusion générale de la définition d’un groupe de volumes Le menu Cluster Resources Modification comprend plusieurs options vous permettant de créer des modules LVM partagés : • Add a Volume Group to a groupe de ressources • Add a Logical Volume to a Resource Group • Add a File System to a Resource Group. Exécuter l’option Propagate Volume Group Definition on all nodes du menu Cluster Resources Modification n’est nécessaire que si : vous avez utilisé l’un des trois menus précités ET vous avez, dans ces menus, spécifié NO dans le champ Propagate Volume Group Definition to all nodes. Dans ce cas, vous devez déclarer le(s) groupe(s) de volumes aux différents noeuds de grappe. Pour ce faire : 1. Sur le menu Bull Cluster Easy Configuration, sélectionnez Cluster Resources Modification, puis Propagate Volume Group Definition on all nodes. 2. La liste des groupes de ressources s’affiche. Sélectionnez un groupe de ressources auquel vous avez ajouté un module LVM par le biais de l’un des trois menus mentionnés plus haut. Le menu Propagate Volume Group Definition on all nodes s’affiche, comme illustré ci-après. 3. Notez que les champs Resource Group Name, Node Relationship et Participating Node Names ne sont pas modifiables. Ils sont juste indiqués pour rappeler les caractéristiques du groupe de ressources sélectionné. 4. Dans le champ Volume Group Name, indiquez le groupe de volumes à déclarer à tous les noeuds de grappe. 5. Appuyez sur Entrée pour lancer l’opération. 9-20 EPC et solutions HA – Guide d’installation Chapitre 10. Outils et techniques de gestion du système Les deux premières sections traitent de deux utilitaires BullCluster liés à la gestion de grappe : • Outil de diagnostic BullCluster • Utilitaire clusterview, page 10-3. Les deux sections suivantes traitent de deux utilitaires BullCluster liés à la configuration de grappe : • Implémentation d’alias d’adresses IP, page 10-5. • Implémentation du transfert d’applications (Rolling Applications), page 10-7. • Implémentation de HA native, page 10-17. • Implémentation du stockage partagé HA étendue, page 10-24. • Personnalisation du traitement des événements de grappe, page 10-27. Remarque : BullCluster intègre d’autres utilitaires précieux pour la configuration et la gestion d’une grappe. Les autres sections (à partir de la page 10-27) donnent des conseils relatifs à des outils utiles pour la gestion d’une grappe, non intégrés au logiciel BullCluster : • Synchronisation des horloges avec timed, page 10-27. • Clés de licence iFOR/LS Nodelocked, page 10-28. • Conseils relatifs à DSMIT, page 10-28. • Gestion des sous-systèmes DAS avec ArrayGUIde, page 10-29. • Gestion des sous–systèmes DAS avec Navisphere, page 10-29. Outil de diagnostic BullCluster (bclerrdiag) Le logiciel BullCluster comporte un outil de diagnostic qui permet de générer des informations de diagnostic. Il est conseillé à l’administrateur de grappe d’utiliser régulièrement cet outil (une fois par jour, par exemple) pour vérifier la ”santé” de la grappe. L’outil de diagnostic BullCluster est fourni sous forme de commande UNIX, bclerrdiag. Voici la page man concernant cette commande. Remarque à l’attention des utilisateurs de PowerConsole Si votre grappe est équipée d’un PowerConsole, vous pouvez tirer parti du module ClusterAssistant, qui intègre un utilitaire basé sur les fenêtres (icône ”Cluster Diagnostics”) qui simplifie l’utilisation de l’outil de diagnostic BullCluster. Objet L’outil de diagnostic bclerrdiag BullCluster rend compte des opérations de grappe. Outils et techniques de gestion du système 10-1 Description bclerrdiag analyse l’état et la cohérence des ressources de grappe. En outre (et, le cas échéant, conformément aux indicateurs spécifiés), il effectue des diagnostics spécifiques du sous-système en balayant les fichiers journaux sur les noeuds de grappe concernés. Analyse de la cohérence des ressources de grappe bclerrdiag analyse l’état et la cohérence des ressources de. Il vérifie la présence des définitions des groupes de ressources HACMP ainsi que l’état des ressources impliquées dans ces groupes. Après analyse, il signale tout éventuel problème ou incohérence. Par exemple, si aucun des noeuds de grappe ne prend en charge une ressource qui est supposée hautement disponible (par exemple, un groupe de volume ou une adresse IP), cette anomalie est signalée. Diagnostics spécifiques du sous-système Selon les indicateurs spécifiés, l’outil bclerrdiag peut générer des diagnostics relatifs aux trois sous-système : AIX, HACMP et DAS (Disk Array Subsystems) : • Sous-système AIX : L’outil recherche des erreurs matérielles consignées dans le journal d’erreur AIX (errlog) de chaque noeud concerné. Toute erreur matérielle consignée est signalée. • Sous-système HACMP : L’outil explore les messages d’erreur consignés par HACMP dans le fichier /var/adm/cluster.log et signale les messages qui contiennent une des chaînes error, fail ou network_down. • Sous-système DAS : L’outil interroge le journal d’événement (DASlog) du DAS (Disk Array Subsystems) et signale les messages significatifs, c’est-à-dire les messages identifiés par les codes série 0x900 et 0xa00. Consolidation des informations de diagnostic bclerrdiag collecte les informations extraites des fichiers journaux concernés des différents noeuds. Il consolide ensuite les données collectées, en tenant compte des horodates et en récapitulant les informations dans le cas d’erreurs répétitives. Syntaxe /usr/sbin/bullcluster/monitoring/diagtool/bclerrdiag [ -b sous-systèmes] [ -n noeuds ] [ -p période ] La commande bclerrdiag peut être exécutée sur n’importe quel noeud, tant que ce noeud appartient à la grappe dont le fonctionnement doit être vérifié. bclerrdiag rapporte les informations de diagnostic, vers sa sortie standard et vers des fichiers journaux spécifiques (voir ”Fichiers”, ci-dessous). Indicateurs [ -b sous-systèmes] Liste les sous-systèmes auxquels appliquer les diagnostics. Le paramètre sous-système est une liste de noms de sous-systèmes, séparés par des virgules. Les noms admis sont AIX, HACMP et DAS. Par défaut (indicateur -b non spécifié), les diagnostics sont exécutés sur les trois sous-systèmes. Notez en outre que, indicateur -b spécifié ou non, bclerrdiag analyse toujours l’état et la cohérence des ressources de la grappe. [ -n noeuds ] Liste les noeuds à prendre en compte pour exécuter les diagnostics. Le paramètre noeuds est une liste de noms de noeuds, séparés par des virgules. Par défaut (indicateur -n non spécifié), bclerrdiag prend en compte tous les noeuds de la grappe. 10-2 EPC et solutions HA – Guide d’installation [ -p période ] bclerrdiag examine les journaux du sous-système à la recherche des messages générés dans la période spécifiée par le paramètre période. La période par défaut est de 1 jour (les messages d’erreur vieux de plus d’un jour sont ignorés). La période doit être spécifiée comme un nombre entier d’heures. Fichiers /usr/sbin/bullcluster/monitoring/diagtool/bclerrdiag est le fichier exécutable. Le répertoire /var/bullcluster/logs reçoit les divers fichiers journaux générés par bclerrdiag (ces journaux sont écrasés à chaque nouvelle exécution de bclerrdiag). Le fichier journal cluster_global_report contient les informations qui étaient affichés à la dernière exécution de la commande. cluster_detailed_report contient des informations plus détaillées, intéressantes notamment pour les dépannages. Les deux fichiers sont stockés sur le noeud sur lequel a été exécutée la commande bclerrdiag. Notez que bclerrdiag stocke les autres fichiers journaux intermédiaires sur les différents noeuds concernés. Utilitaire clusterview Le logiciel BullCluster intègre clusterview, un utilitaire qui rend compte de l’état des grappes. Cet utilitaire est fourni sous forme de commande UNIX. Il est comparable au programme clstat livré avec HACMP. Voici la page man relative à clusterview. Objet L’utilitaire clusterview a pour fonction de reporter l’état des grappes HACMP. Syntaxe /usr/sbin/cluster/clusterview Description L’utilitaire clusterview est un programme client Clinfo qui utilise l’API Clinfo et les informations du fichier /usr/sbin/cluster/etc/clhosts pour afficher des informations sur les noeuds et les interfaces de toutes les grappes détectées en mode d’affichage ASCII. Le programme clinfo doit être actif pour que la commande clusterview puisse être exécutée. clusterview indique si la grappe est active, inactive ou instable. Il précise également si un noeud est actif, inactif, partant ou arrivant, ainsi que le nombre de noeuds de la grappe. Pour chaque noeud, clusterview affiche le label et l’adresse IP de toutes les interfaces réseau qui lui sont associées, ainsi que leur état (actives ou inactives). Pour exécuter l’utilitaire, entrez /usr/sbin/cluster/clusterview. Vous pouvez également appeler clusterview via SMIT, par le raccourci smit clusterview, ou en sélectionnant l’option Show Cluster State du menu Bull Cluster Easy Configuration. Un exemple de sortie est donné ci-après. Outils et techniques de gestion du système 10-3 Exemple de sortie clusterview affiche des informations semblables à : clinfo daemon is running. Number of clusters active: 2 ---------------------- CLUSTER blues -------------------------------ID 4 NAME blues STATE UP SUBSTATE STABLE PRIMARY NODE otis Cluster blues (4) has 2 nodes: NODE otis NODE redding STATE UP INTERFACE otis_srv otis_tty1 STATE UP INTERFACE redding_srv redding_tty1 STATE UP UP CLUSTER ID NB INTERFACES 4 2 ADDRESS 130.183.1.95 0.0.0.0 STATE UP UP CLUSTER ID NB INTERFACES 4 2 ADDRESS 130.183.1.85 0.0.0.0 ---------------------- CLUSTER cluster_tests ---------------------ID 27 NAME cluster_tests STATE UP SUBSTATE STABLE PRIMARY NODE mars_srv Cluster cluster_tests (27) has 2 nodes: NODE STATE mars_srv UP INTERFACE mars_srv mars_tty0 NODE STATE mercure_srv UP INTERFACE mercure_srv mercure_tty1 STATE UP UP CLUSTER ID NB INTERFACES 27 2 ADDRESS 130.183.5.2 0.0.0.0 STATE UP UP CLUSTER ID NB INTERFACES 27 2 ADDRESS 130.183.5.1 0.0.0.0 Les informations affichées indiquent le nom, l’ID, l’état et le sous-état de la grappe. Dans cet exemple, les 2 grappes sont actives et équipées de 2 noeuds, lesquels sont également actifs. En outre, chaque noeud est équipé de 2 cartes réseau. Fichiers /usr/sbin/cluster/clusterview est le fichier exécutable. /usr/sbin/cluster/etc/clhosts est le fichier contenant la liste des noms hôte disponibles. Voir aussi La commande clinfo dans la documentation HACMP. 10-4 EPC et solutions HA – Guide d’installation Implémentation d’alias d’adresses IP Le logiciel BullCluster comporte une option de menu qui active la fonction d’alias d’adresse IP. Objet La fonction d’alias d’adresse IP est une fonction facultative, qui ne présente d’intérêt que si le basculement d’adresse IP (IPAT) est mis en oeuvre sur la grappe. Si IPAT est actif, une carte de service utilise deux adresses IP différentes, selon l’état en cours : • à l’amorçage et jusqu’au démarrage des services de grappe, l’adresse IP d’amorçage est affectée à la carte de service; • quand les services de grappe sont démarrés sur le noeud, celui-ci prend l’adresse IP de service. Supposons, par exemple, que le noeud foo est doté d’une carte de service associée à l’adresse de service IP foo et à l’adresse d’amorçage IP foo_boot. Selon l’état de la grappe, les applications (ou les utilisateurs) souhaitant se connecter à cette carte de service doivent parfois utiliser l’adresse foo et d’autres fois l’adresse foo_boot. De plus, une application basée sur l’adresse de service foo peut en réalité être connectée à un autre noeud de grappe, si cette adresse a été basculée sur ce noeud. Ces changements d’adresse sont peu pratiques du point de vue de l’utilisateur ou de l’application. Par exemple, pour se connecter à distance au noeud foo via sa carte de service, vous devez tantôt indiquer ”rlogin foo”, tantôt ”rlogin foo_boot”, sans connaître au départ l’adresse correcte. L’alias d’adresses IP permet de contourner ce problème, par le biais d’alias des adresses de service et d’amorçage. Procédure Pour implémenter la fonction d’alias IP (facultative) : 1. Arrêtez, le cas échéant, les services de grappe sur tous les noeuds. 2. Sur le menu principal SMIT HACMP, sélectionnez successivement Bull Cluster Easy Configuration et IP Aliasing Configuration. L’écran suivant s’affiche : Outils et techniques de gestion du système 10-5 3. Le champ Configure IP Aliasing? affiche la valeur définie en cours (”yes” ou ”no” selon que l’alias IP est configuré ou non). Basculez sur la valeur voulue puis validez en appuyant sur Entrée. 4. Dès l’écran a été validé, la fonction d’alias IP est activée (ou désactivée) sur le noeud courant, et sur les autres noeuds de la grappe (noeuds dont la carte de service est associée à la fois à une adresse IP de service et à une adresse IP d’amorçage). Remarques : Sachez que la fonction d’alias IP décrite ci-dessus est basée sur la commande AIX ifconfig, qui permet de déclarer des alias pour une adresse IP. En outre, notez que lorsque cette fonction est activée : • Dans les fichiers journaux HACMP, les messages relatifs à l’événement swap_adapter apparaissent deux fois. • Un post-événement est personnalisé pour acquire_service_addr (sur la base de la gestion de la personnalisation des événements BullCluster). • En cas de basculement d’adresse IP, l’adresse IP de service du noeud défaillant est transférée sur la carte de secours du noeud de secours et la carte de secours du noeud défaillant reprend son adresse d’amorçage. 10-6 EPC et solutions HA – Guide d’installation Implémentation du transfert d’applications (Rolling Applications) Objet Lorsque plusieurs applications sont exécutées sur un même noeud afin d’effectuer des opérations d’optimisation des performances ou de maintenance, vous avez besoin de transférer des applications d’un noeud vers un autre sans procéder à un basculement. Le transfert d’applications permet d’effectuer cette opération pour une application (ou un groupe d’applications). Pour utiliser cette fonction, les ressources doivent être configurées de manière spécifique à l’aide de HACMP : • Un groupe de ressources est créé avec un label IP de service configuré comme ressource, sans que le serveur d’application, le système de fichiers ou le groupe de volume ne soient configurés. Voici un exemple : foo_rg foo bar foo Outils et techniques de gestion du système 10-7 • Pour chaque application (ou groupe d’applications) qui peut faire l’objet d’une migration, un groupe de ressources est créé, contenant un (ou des) serveur(s) qui permettent de démarrer le(s) application(s) et les ressources lvm (groupes de volume, systèmes de fichiers). Toutefois, les labels IP de service ne sont pas configurés. Voici un exemple : foo_rg foo bar foofs foovg fooapps L’objet de cette fonction étant de faire migrer une application (ou un groupe d’applications) sans arrêter HACMP, le mécanisme de configuration dynamique doit être utilisé (commande clRGdare). 10-8 EPC et solutions HA – Guide d’installation Procédure Pour implémenter les fonctions de transfert d’applications (facultatifl) : • A partir du menu SMIT HACMP, sélectionnez successivement les options Bull Cluster Easy Configuration et Rolling Applications. L’écran suivant s’affiche : Présentation du menu Rolling Applications Le menu Rolling Applications permet d’effectuer les opérations suivantes : • Configuration d’un serveur de transfert d’applications – Définition d’un serveur de transfert d’applications – Modification/Affichage des caractéristiques d’un serveur de transfert d’applications – Retrait d’un serveur de transfert d’applications • Gestion d’un serveur de transfert d’applications – – – – Mise en ligne d’un serveur de transfert d’application Mise hors ligne d’un serveur de transfert d’applications Déplacement d’un serveur de transfert d’applications Restauration de l’emplacement par défaut d’un serveur de transfert d’applications ATTENTION : Avant d’effectuer une opération de gestion sur un serveur de transfert d’applications, assurez–vous que celui–ci est configuré dans un groupe de ressources HACMP. • Affichage de l’état du serveur de transfert d’applications – Visualisation de l’état du serveur de transfert d’applications Outils et techniques de gestion du système 10-9 Définition d’un serveur de transfert d’applications Cette action permet d’ajouter un serveur de transfert d’applications dans une configuration existante. A partir d’un noeud quelconque, activez le menu Bullcluster Rolling Applications et sélectionnez Define a Rolling Application Server. La fenêtre Define a Rolling Application Server s’affiche. 1. Sélectionnez le nom du serveur de transfert d’applications dans la liste appropriée, ou saisissez–le. Le bouton List permet d’afficher la liste des serveurs de transfert d’applications configurés dans un groupe de ressources HACMP. 2. Entrez l’adresse IP du serveur de transfert d’applications sélectionné. 3. Sélectionnez le nom du réseau dans la liste appropriée, ou saisissez–le. 4. Validez l’écran pour appliquer vos paramètres. Remarque : Des données relatives à la configuration du transfert d’applications sont automatiquement transmises à tous les noeuds de la grappe. Modification/Affichage des caractéristiques d’un serveur de transfert d’applications Cette action permet de modifier ou d’afficher les caractéristiques d’un serveur de transfert d’applications. A partir d’un noeud quelconque, activez le menu Bullcluster Rolling Applications, puis sélectionnez Change/Show the Characteristics of a Rolling Application Server. Une liste des serveurs de transfert d’applications s’affiche. 1. Sélectionnez le serveur de transfert d’applications à afficher ou à modifier. La fenêtre Change/Show the Characteristics of a Rolling Application Server s’affiche. fooapps 10-10 EPC et solutions HA – Guide d’installation 2. Dans ce menu, le champ Rolling Application Server Name n’apparaît qu’à titre indicatif. Vous ne pouvez pas modifier les données qui y sont affichées. Pour modifier l’adresse du serveur, saisissez–la dans le champ Rolling Application Server Address. Pour modifier le nom du réseau, sélectionnez–le dans la liste appropriée ou saisissez–le dans le champ Network Name. 3. Une fois que vous avez modifié les champs nécessaires, validez (en cliquant sur OK) pour appliquer les nouveaux paramètres. Remarque : Les paramètres sont automatiquement transmis à tous les noeuds de la grappe. Retrait d’un serveur de transfert d’applications Cette action permet de retirer un serveur de transfert d’applications d’une configuration existante. A partir d’un noeud quelconque, activez le menu Bullcluster Rolling Applications et sélectionnez Remove a Rolling Application Server. La fenêtre Remove a Rolling Application Server s’affiche. 1. Sélectionnez dans la liste le nom du serveur à retirer. Le bouton List permet d’afficher la liste des serveurs de transfert d’applications. 2. Validez la fenêtre en cliquant sur OK pour appliquer les nouveaux paramètres. Remarque : Les paramètres sont automatiquement transmis à tous les noeuds de la grappe. Outils et techniques de gestion du système 10-11 Mise en ligne d’un serveur de transfert d’applications Cette action permet de lancer le groupe de ressources associé au serveur de transfert d’applications défini sur le noeud comme prioritaire. A partir d’un noeud quelconque, activez le menu Bullcluster Rolling Applications, puis sélectionnez Bring a Rolling Application Server Online. Une liste de serveurs de transfert d’applications s’affiche. 1. Dans cette liste, sélectionnez le serveur à mettre en ligne. La fenêtre Bring a Rolling Application Server Online s’affiche. fooapps 2. Sélectionnez l’option Actual (par défaut) pour mettre le serveur en ligne. L’option Emulate permet d’exécuter la commande dans un mode permettant de ne pas modifier la grappe, mais qui affiche les résultats/messages comme si l’action avait eu lieu. 3. Indiquez si vous souhaitez ou non exécuter l’utilitaire clverify pour vérifier la configuration avant de procéder à la migration. Par défaut, l’exécution de l’utilitaire est activée (Yes). Il est recommandé de procéder à la vérification de toute modification dans la configuration avant de la mettre en oeuvre. Toutefois, si vous êtes certain que la nouvelle configuration conviendra, vous pouvez passer l’étape de vérification pour accélérer le processus. 4. Pendant le processus de vérification, vous pouvez prolonger l’action DARE même si des erreurs de configuration sont détectées. Par défaut cette option est désactivée (No). Il est recommandé de procéder à la vérification de toute modification dans la configuration avant de la mettre en oeuvre. Toutefois, dans certains cas, il est préférable de poursuivre la procédure même si la vérification a échoué. Sélectionnez alors l’option Yes. 5. Validez la fenêtre pour appliquer les nouveaux paramètres. 10-12 EPC et solutions HA – Guide d’installation Mise hors ligne d’un serveur de transfert d’applications Cette action permet de désactiver ou d’arrêter le groupe de ressources associé au serveur de transfert d’applications spécifié. A partir d’un noeud quelconque, activez le menu Bullcluster Rolling Applications, puis sélectionnez Bring a Rolling Application Server Offline. Une liste de serveurs de transfert d’applications s’affiche. 1. Dans cette liste, sélectionnez le serveur à mettre hors ligne. La fenêtre Bring a Rolling Application Server Offline s’affiche. fooapps 2. Indiquez si vous souhaitez effectuer une migration sticky ou normale. Par défaut, la migration sticky est désactivée (No). Le groupe de ressources associé au serveur de transfert d’applications est arrêté, mais son emplacement prioritaire demeure inchangé. Enfin, le groupe de ressources associé peut être relancé lorsque l’événement suivant se produit sur la grappe. Si vous sélectionnez Yes, le groupe de ressources associé au serveur de transfert d’applications s’arrête et tente de rester hors ligne pendant toute la durée du processus de relève après panne ou de réintégration de la grappe. 3. Sélectionnez Actual (option par défaut) pour mettre le serveur hors ligne. L’option Emulate permet d’exécuter la commande dans un mode permettant de ne pas modifier la grappe, mais qui affiche les résultats/messages comme si l’action avait eu lieu. 4. Indiquez si vous souhaitez ou non exécuter l’utilitaire clverify pour vérifier la configuration avant de procéder à la migration. Par défaut, l’exécution de l’utilitaire est activée (Yes). Il est recommandé de procéder à la vérification de toute modification dans la configuration avant de la mettre en oeuvre. Toutefois, si vous êtes certain que la nouvelle configuration conviendra, vous pouvez passer l’étape de vérification pour accélérer le processus. 5. Pendant le processus de vérification, vous pouvez prolonger l’action DARE même si des erreurs de configuration sont détectées. Par défaut cette option est désactivée (No). Il est recommandé de procéder à la vérification de toute modification dans la configuration avant de la mettre en oeuvre. Toutefois, dans certains cas, il est préférable de poursuivre la procédure même si la vérification a échoué. Sélectionnez alors l’option Yes. 6. Validez la fenêtre pour appliquer les nouveaux paramètres. Outils et techniques de gestion du système 10-13 Déplacement d’un serveur de transfert d’applications Cette action permet de déplacer le groupe de ressources associé au serveur de transfert d’applications spécifié. A partir d’un noeud quelconque, activez le menu Bullcluster Rolling Applications, puis sélectionnez Move a Rolling Application Server. Une liste de serveurs de transfert d’applications s’affiche. 1. Dans cette liste, sélectionnez le serveur à déplacer. La fenêtre Move a Rolling Application Server s’affiche. fooapps 2. Dans la liste appropriée, sélectionnez le noeud vers lequel vous souhaitez déplacer le serveur, ou saisissez son nom. 3. Indiquez si vous souhaitez effectuer une migration sticky ou normale. Par défaut, la migration sticky est désactivée (No). Le groupe de ressources associé au serveur de transfert d’applications est arrêté, mais son emplacement prioritaire demeure inchangé. Enfin, le groupe de ressources associé peut être relancé lorsque l’événement suivant se produit sur la grappe. Si vous sélectionnez Yes, le groupe de ressources associé au serveur de transfert d’applications s’arrête et tente de rester hors ligne pendant toute la durée du processus de relève après panne ou de réintégration de la grappe. 4. Sélectionnez Actual (option par défaut) pour mettre le serveur hors ligne. L’option Emulate permet d’exécuter la commande dans un mode permettant de ne pas modifier la grappe, mais qui affiche les résultats/messages comme si l’action avait eu lieu. 5. Indiquez si vous souhaitez ou non exécuter l’utilitaire clverify pour vérifier la configuration avant de procéder à la migration. Par défaut, l’exécution de l’utilitaire est activée (Yes). Il est recommandé de procéder à la vérification de toute modification dans la configuration avant de la mettre en oeuvre. Toutefois, si vous êtes certain que la nouvelle configuration conviendra, vous pouvez passer l’étape de vérification pour accélérer le processus. 6. Pendant le processus de vérification, vous pouvez prolonger l’action DARE même si des erreurs de configuration sont détectées. Par défaut cette option est désactivée (No). Il est recommandé de procéder à la vérification de toute modification dans la configuration avant de la mettre en oeuvre. Toutefois, dans certains cas, il est préférable de poursuivre la procédure même si la vérification a échoué. Sélectionnez alors l’option Yes. 7. Validez la fenêtre pour appliquer les nouveaux paramètres. 10-14 EPC et solutions HA – Guide d’installation Restauration de l’emplacement par défaut d’un serveur de transfert d’applications Cette action permet de replacer le groupe de ressources associé au serveur spécifié sur le noeud initial ; elle supprime toute fonction sticky définie. A partir d’un noeud quelconque, activez le menu Bullcluster Rolling Applications, puis sélectionnez Restore Default Location of a Rolling Application Server. Une liste de serveurs de transfert d’applications s’affiche. 1. Dans cette liste, sélectionnez le serveur à restaurer. La fenêtre Restore Default Location of a Rolling Application Server s’affiche. fooapps 2. Sélectionnez l’option Actual (par défaut) pour mettre le serveur en ligne. L’option Emulate permet d’exécuter la commande dans un mode permettant de ne pas modifier la grappe, mais qui affiche les résultats/messages comme si l’action avait eu lieu. 3. Indiquez si vous souhaitez ou non exécuter l’utilitaire clverify pour vérifier la configuration avant de procéder à la migration. Par défaut, l’exécution de l’utilitaire est activée (Yes). Il est recommandé de procéder à la vérification de toute modification dans la configuration avant de la mettre en oeuvre. Toutefois, si vous êtes certain que la nouvelle configuration conviendra, vous pouvez passer l’étape de vérification pour accélérer le processus. 4. Pendant le processus de vérification, vous pouvez prolonger l’action DARE même si des erreurs de configuration sont détectées. Par défaut cette option est désactivée (No). Il est recommandé de procéder à la vérification de toute modification dans la configuration avant de la mettre en oeuvre. Toutefois, dans certains cas, il est préférable de poursuivre la procédure même si la vérification a échoué. Sélectionnez alors l’option Yes. 5. Validez la fenêtre pour appliquer les nouveaux paramètres. Outils et techniques de gestion du système 10-15 Afficher l’état du serveur de transfert d’applications Cette action permet d’afficher l’état d’un ou de plusieurs serveurs de transfert d’applications. A partir d’un noeud quelconque, activez le menu Bullcluster Rolling Applications, puis sélectionnez Show Rolling Application Server State. La fenêtre Show Rolling Application Server State s’affiche. 1. Dans la liste appropriée, sélectionnez le ou les serveur(s) dont vous souhaitez afficher l’état. L’option ALL permet de sélectionner la totalité des serveurs de la liste. 2. Validez la fenêtre pour afficher l’état des serveurs sélectionnés. Chaque serveur apparaît avec le groupe de ressources associé et son emplacement (ou l’état : **down**, si l’emplacement n’est pas indiqué). Voici un exemple de résultat que vous pouvez obtenir en utilisant ce menu : 10-16 EPC et solutions HA – Guide d’installation Implémentation de HA native (avec ou sans armoire d’extension disque) Objet HA native est une fonction en option qui doit être activée si votre configuration est de type stockage partagé HA native. Ce type de configuration est décrit dans Planification du stockage partagé “HA native” pour les solutions Escala HA, page 3-6. Si une défaillance se produit, aucun basculement automatique n’est possible dans l’environnement de stockage partagé HACMP standard, notamment en cas de défaillance d’un noeud. HA native pallie cette difficulté en : • modifiant l’activation des groupes de volumes partagés, • modifiant la désactivation des groupes de volumes partagés, • ajoutant un pré-événement pour la synchronisation miroir (sur la base de la gestion de la personnalisation des événements BullCluster). Configuration Pour configurer HA native, servez-vous de la liste suivante : • Sur les deux noeuds, tous les disques internes ou externes partagés doivent être à l’état AVAILABLE (disponible). (Les disques externes sont ceux de l’armoire d’extension). Ces disques doivent être tous visibles par chaque noeud. Une erreur dans le total des disques à l’état disponible indique un problème de câblage. Dans ce cas, vérifiez votre installation à l’aide du schéma de câblage. Pour en savoir plus, reportez-vous à Câblage des cartes SCSI et des bus, page 3-8. A partir d’un noeud, créez le(s) groupe(s) de volumes (VG) partagé(s), en utilisant les disques partagés par les deux systèmes (internes et externes) pour la fonction HA native. Suivez les instructions du manuel AIX - Guide d’administration : système d’exploitation et unités : • Chaque groupe de volumes doit comporter au moins deux disques (un sur chaque noeud). • Vérifiez les paramètres QUORUM et auto-varyon de chaque : TOUS DEUX doivent avoir la valeur NO. • Chaque volume logique des groupes de volumes partagés doit être intégralement créé sur un seul disque et dupliqué (2 copies) sur un autre disque de l’autre noeud ou de l’armoire d’extension sur un bus SCSI distinct. • A la création d’un volume logique, donnez au paramètre SCHEDULING POLICY for writing logical partitions copies la valeur SEQUENTIAL (dans SMIT, la valeur par défaut est PARALLEL). • Mettez en miroir le volume logique jfslog (valeur par défaut) de votre groupe de volumes. Importez les informations des groupes de volumes depuis l’autre noeud : • Soyez prudent au niveau des noms des unités de disques, qui peuvent être différents sur ce noeud. Tenez compte de l’identificateur de volume logique (PVID) pour importer le bon groupe de volumes. Outils et techniques de gestion du système 10-17 Remarque : Pour déterminer le disque à importer, entrez : lspv • Vérifiez à nouveau les paramètres QUORUM et auto-varyon sur ce noeud. Après exécution de la commande importvg, redonnez à QUORUM et à auto-varyon leur valeur par défaut, YES. # chvg –a n –Qn <votre VG> Il est important de noter sur la fiche de PLANIFICATION de HACMP le nom des disques et leur PVID (ID de volume physique) sur chaque noeud. Notez également en regard de chaque disque leur code d’emplacement sur chaque noeud. Pour chaque disque, ajoutez une colonne pour inscrire le nom du système où réside réellement le disque. Indiquez en outre les informations suivantes sur l’utilisation des deux cartes SCSI-SE par la machine : • emplacement PCI de la carte donnant accès aux disques de l’autre noeud, • emplacement PCI de la carte donnant accès aux disques internes de ce noeud. Ces informations aident à identifier les problèmes matériels : voir les sections REPRISE, ci-après. Pour la configuration de grappe HACMP, procédez comme suit : • configurez AIX : adresses IP, ttys, etc. • créez la topologie : noeuds, cartes. • créez les groupes de ressources et leurs ressources : groupes de volumes, systèmes de fichiers, label IP, serveurs d’application, etc. Procédure Pour implémenter la fonction HA native (facultatif) : 1. Le cas échéant, arrêtez les services de grappes sur tous les noeuds. 2. Sur le menu principal SMIT HACMP, sélectionnez successivement Bull Cluster Easy Configuration, Native HA Configuration. L’écran suivant s’affiche : 3. Le champ ACTIVATE Native HA affiche le paramétrage actuel (“no” si HA native n’est pas activé, “yes” s’il l’est). Au besoin, modifiez la valeur et validez avec Entrée. 4. Dès validation, HA native est activé (ou désactivé) sur le noeud courant et sur les autres noeuds de grappe. 10-18 EPC et solutions HA – Guide d’installation Reprise sur incident matériel Unité d’extension disque - installation matérielle Si vous utilisez une unité d’extension disque avec haute disponibilité, toutes les unités externes partagées dans une configuration HA et connectées au tiroir CPU NE DOIVENT PAS être mise hors tension pendant les procédures d’installation matérielles. Remplacement du disque partagé d’une configuration HA native La procédure indique les étapes requises pour remplacer un disque interne ou externe partagé dans une configuration HA native est configuré et HACMP installé. Une défaillance de disque est totalement transparente pour les applications, dans la mesure où les données restent disponibles sur le miroir. Cette section traite de la procédure à suivre pour réintroduire le nouveau disque dans le plan miroir. Un groupe de volume VG1 dispose de 2 disques mis en miroir (chacun sur un noeud distinct) dont l’un, hdisk4, par exemple, doit être remplacé. Remarque : Dans cet exemple, les disques ont le même nom sur les deux systèmes. Ce n’est pas toujours le cas : le même disque physique peut être nommé différemment sur 2 systèmes (hdisk4 sur le noeud A et hdisk5 sur le noeud B, par exemple). Vérifiez donc les disques partagés sur les différents noeuds, via les ID des PV (volumes physiques). Contrôle initial 1. Lancez toutes les commandes à partir du système où le groupe de volume VG1 est actif. Aucune commande administrative ne doit être exécutée sur les autres systèmes jusqu’à la fin de la procédure (sauf indication contraire explicite). 2. Identifiez le disque à remplacer et le groupe de volumes auquel il appartient : # errpt | grep hdisk or errpt –a | pg 3. Vérifiez le cablâge avant de poursuivre. Si un câble en est débranché, passez à la section Reprise : connexion de câble défectueuse, sinon, continuez. 4. S’il n’y a pas eu de basculement, vérifiez les cartes utilisées sur les bus SCSI sur les deux noeuds. Si un enregistrement dans le journal des erreurs apparaît concernant l’une des cartes sur l’un des noeuds au moment de l’enregistrement du disque, passez directement à la section Reprise : défaillance d’une carte. 5. Localisez le groupe de volumes et vérifiez les volumes logiques concernés sur le disque défaillant : # lspv hdisk4 hdisk5 ... 000002634f03cc16 000002634e995408 # lsvg –M VG1 (or lsvg –p VG1) hdisk2:1 sharedlv:1:1 hdisk2:2 sharedlv:2:1 hdisk2:3–50 hdisk4:1 sharedlv:1:2 hdisk4:2 sharedlv:1:2 hdisk4:3–50 vg1 vg1 stale stale La sortie “stale” indique un problème sur hdisk4. Notez le nom de l’unité de disque : Disk drive: hdisk4 Outils et techniques de gestion du système 10-19 6. Trouvez le code d’emplacement de l’unité : # lsdev –Cc disk hdisk4 Available 04–07–00–8,0 Bull 2.1 GB 16 Bit SCSI Disk Drive. hdisk5 Available 04–08–00–8,0 Bull 2.1 GB 16 Bit SCSI Disk Drive. ... Dans cet exemple, le code d’emplacement est 04–07–00–8,0 ce qui signifie que l’emplacement de carte PCI 7 avec l’ID SCSI 8 comme disque se trouve dans la zone de données supérieure (les disques se trouvant dans le boîtier de disque partagé supérieur sont identifiés par les ID SCSI : 8,9,a - de haut en bas, et dans le boîtier inférieur par : 0,1,2) Procédure 1. Identifiez tous les volumes logiques de hdisk4 : # lspv –l hdisk4 List of logical volumes: 2. Réduisez le nombre de copies de tous les volumes logiques mis en miroir sur ce disque hdisk4, en spécifiant que la copie à supprimer se trouve sur le disque hdisk4 défaillant : # rmlvcopy sharedlv 1 hdisk4 etc... (pour tous les volumes logiques du groupe de volumes) N’oubliez pas de supprimer également la copie dans le volume logique JFSLOG, s’il en existe un sur ce disque. 3. Retirez le disque du groupe de volumes : # reducevg VG1 hdisk4 Vous pouvez effectuer cette opération même si vos systèmes de fichiers sont montés et vos applications en cours. 4. SUR CHAQUE NOEUD, retirez le disque défaillant de la base de données de configuration : # rmdev –l hdisk4 –d Remarque : N’oubliez pas que le nom du disque peut ne pas être identique sur tous les noeuds. Lancez la commande lspv pour déterminer l’ID PV du disque sur chaque noeud. # lspv 5. MAINTENANT, retirez le disque du boîtier, sur le sytème identifié précédemment, et insérez le nouveau disque. Remarque : Sur certains serveurs Escala, vous pouvez ôter les disques “à chaud”. 6. Sur chaque noeud, configurez le nouveau disque : # cfgmgr 7. Déterminez le nom du nouveau disque : # lsdev –Cc disk hdisk4 Available # lspv hdisk4 PVID Location Comments Mettez à jour en conséquence les informations de la fiche de PLANIFICATION (groupes de volumes partagés et disques). 10-20 EPC et solutions HA – Guide d’installation Dans les étapes suivantes, nous avons supposé que le même nom logique (hdisk4) a été attribué au nouveau disque. Si le disque n’a pas de PVID, sur un noeud, entrez : chdev –l hdisk4 –a pv=yes et sur l’autre : rmdev –l hdisk4 mkdev –l hdisk4 8. Ajoutez le disque au groupe de volumes : # extendvg VG1 hdisk4 Mettez à jour le PVID du nouveau disque dans la fiche de PLANIFICATION (groupe de volumes partagés et disques, si différents). 9. Ajoutez (et synchronisez) une copie miroir à tous les volumes logiques sur le disque, sans oublier la copie miroir dans JFSLOG : # mklvcopy –k sharedlv 2 hdisk4 etc... Sur tous les autres noeuds, le nouveau disque sera pris en compte à la défaillance suivante. Reprise sur connexion de câble défectueuse Vous êtes arrivé à ce point après détection d’un enregistrement d’erreur non suivi d’un basculement. Un des câbles en Y est mal branché ou débranché. Contrôle initial Vérifiez le branchement du câble ainsi que des câbles plats SCSI internes et des fiches de bouclage. Procédure 1. Une fois les connexions des câbles SCSI vérifiées, tentez d’accéder à votre disque en lecture, sur chaque système (avec droits de l’utilisateur racine). # dd if=/dev/rhdisk4 of=/dev/null bs=128k count=1 S’il se produit une erreur d’E/S avec nouvel enregistrement dans errlog, cela signifie que soit votre carte soit votre disque est défaillant et doit être remplacé. Quittez cette procédure et suivez la procédure usuelle pour remplacer la carte sur le noeud où est exécutée la commande. S’il s’agit d’un disque interne, passez à la section traitant de la reprise HA NATIVE après défaillance de carte. 2. Sur le noeud où VG1 est actif et où la commande dd a abouti, relancez la commande varyonvg sans arrêter les applications : # varyonvg VG1 Cette commande synchronise les copies périmées. Outils et techniques de gestion du système 10-21 Reprise sur défaillance de noeud Le noeud où VG1 était actif est en panne (888) ou hors tension, et VG1 est désormais actif sur l’autre noeud (après basculement HACMP). Contrôle initial Sur le noeud restant, le journal errlog contient des entrées concernant la défaillance du bus SCSI et les disques internes de l’autre système, devenus inaccessibles. Dans /tmp/hacmp.out ou /var/adm/cluster.log, il apparaît un événement node_down_remote car l’autre noeud a échoué. Procédure Les applications sont relancées automatiquement sur le noeud restant, bien que les disques du système défaillant soient désormais absents du groupe de volumes VG1. Le groupe de volumes de ces disques inaccessibles peut indiquer NONE lorsque VG1 est pris en charge par le noeud restant. # lspv VG1 hdisk4 hdisk5 PVID PVID NONE VG1 Ici, hdisk4 est un disque interne de la machine en panne. Cette situation, normale, n’empêche pas l’exploitation de l’application, dans la mesure où VG1 reste accessible via hdisk5. Procédure post-réparation Vérifiez le fonctionnement de la machine et la présence de tous les disques. Lancez le gestionnaire de grappe sur la machine réparée : # smit clstart Cette procédure, automatique, ne demande aucune intervention. Remarque : Une fois HACMP lancé sur le noeud défaillant, l’état NONE pour hdisk4 sur le noeud restant n’est plus visible. En fait, le nouveau script cl_deactivate_vgs (appelé pour libérer VG1) livré avec cette version, désactive, exporte et ré-importe les informations de VG1 avant de le libérer. Ceci est possible dans la mesure où les applications sont déjà arrêtées et les systèmes de fichiers partagés de VG1 déjà démontés. Sur ce noeud restant, tous les disques accessibles dans VG1 n’affichent plus l’état NONE. Sur le noeud restant, si un autre groupe de volumes, VG2, par exemple, est actif avant la défaillance de l’autre noeud, il devient inutile de synchroniser manuellement le miroir périmé. Le script pré-évenement personalisé ajouté à l’événement node_up_remote_complete se charge de synchroniser les éventuelles copies périmées, une fois tous les disques redevenus opérationnels. Dès que la machine réparée a effectivement rejoint la grappe, vérifiez que tous les miroirs de chaque groupe de volumes actif sur chaque noeud sont synchronisés et qu’aucun disque partagé n’affiche l’état NONE : # lsvg –l VG1 (VG2) # lspv 10-22 EPC et solutions HA – Guide d’installation Reprise sur défaillance d’une carte Si le noeud où VG1 est actif comporte une carte défaillante qu’il convient de remplacer, procédez comme indiqué à CAS 1. Si aucun groupe de volumes n’est actif sur le noeud comportant une carte défaillante, procédez comme indiqué à CAS 2. CAS 1 : procédure de reprise Il convient d’arrêter les applications sur ce noeud et de les relancer sur l’autre, car remplacer une carte suppose de mettre le système hors tension. 1. Débranchez le câble de la chaîne SCSI au niveau de sa terminaison. Remarque : veillez à ce que le câble débranché reste équipé de sa terminaison. 2. Arrêtez HACMP en mode basculement. 3. Patientez jusqu’au redémarrage de l’application et à la synchronisation des volumes logiques sur le noeud de secours. 4. Mettez la machine hors tension. 5. Remplacez la carte défaillante. Procédure post-réparation Procédez comme indiqué au paragraphe Reprise sur défaillance d’un noeud. CAS 2 : procédure de reprise Aucune application n’est exécutée sur ce noeud (PAS de groupe de ressources actif) : 1. Débranchez le câble de la chaîne SCSI au niveau de sa terminaison. Remarque : veillez à ce que le câble débranché reste équipé de sa terminaison. 2. Mettez la machine hors tension. 3. Changez la carte. 4. Remettez la machine sous tension. Procédure post-réparation Sur ce système, lancez hacmp : # smit clstart Sur l’autre noeud, le script de pré-événement personnalisé ajouté à l’événement node_up_remote_complete synchronise les copies périmées sur la machine restante. Outils et techniques de gestion du système 10-23 Implémentation du stockage partagé HA étendue Précautions Chaque noeud d’une grappe définie sur deux sites doit appartenir au même sous-réseau pour respecter les spécifications HA régissant les connexions de réseau public (possibilité de basculement IP). Les réseaux série utilisés pour HACMP heartbeat entre des noeuds de grappe doivent être étendus à l’aide de micro-modems RS232. Les caractéristiques de configuration du réseau doivent être vérifiées sur le site du client par un technicien de maintenance Bull avant toute installation. Configuration Pour mettre en oeuvre la configuration HA étendue, vérifiez les points suivants : • Les objets array/atf et al_slot doivent être disponibles sur les deux noeuds (voir la documentation relative à la carte ou au pilote AIX Emulex). • Tous les disques doivent être disponibles sur les deux noeuds. • Créez les groupes de volumes partagés selon la procédure habituelle, en utilisant les lun du premier DAS. Pour chaque volume logique dans un groupe de volumes, créez une copie sur un disque (lun) du second système DAS. • Choisissez les deux lun (au minimum) de même type RAID (RAID1, RAID3 ou RAID5 pour une haute disponibilité) et de même capacité disque. • Choisissez les copies sur différentes boucles FC-AL. Par exemple, si vous prenez disk1 (lun1) sur DAS1 lié à SPA, prenez disk2 (lun2) sur DAS2 lié à SPB. Suivez les instructions fournies dans la configuration HA native. Procédure Pour mettre en oeuvre l’environnement haute disponibilité (HA) étendue : 1. Arrêtez, le cas échéant, les services de grappe sur tous les noeuds. 2. Sur le menu principal HACMP SMIT, sélectionnez successivement Bull Cluster Easy Configuration et Disaster Recovery Configuration. 10-24 EPC et solutions HA – Guide d’installation 3. Le champ ACTIVATE Disaster Recovery affiche la valeur définie en cours (”yes” ou “no” selon que la reprise après sinistre est active ou non). Basculez sur la valeur voulue puis validez en appuyant sur Entrée. 4. Dès que l’écran a été validé, la fonction de reprise après sinistre (HA étendue) est activée (ou désactivée) sur le noeud courant et sur l’autre noeud de la grappe. Remarque : Vous pouvez accéder à ce dernier menu en ajoutant smit dans le chemin d’accès rapide après incident. Reprise sur défaillance matérielle Lorsqu’ATF (Application Transparent Failover) et/ou le gestionnaire de grappes HACMP détecte une défaillance matérielle (noeud, carte, SP, alimentation générale, hub, système DAS) sur un site, un dispositif de relève après panne s’enclenche sur l’élément redondant (carte, hub, noeud, disques miroirs AIX) pour assurer la continuité du service (applications). C’est ce qui doit se produire dans un environnement HACMP. Appliquez, selon la nature de la défaillance, l’une des procédures, générale ou spécifique, de dépannage décrites ci-après afin de revenir à l’état précédant l’incident. Reprise sur noeud défaillant HACMP sur le noeud restant reprend toutes les ressources du noeud défaillant. Une fois le noeud défaillant dépanné, mettez-le sous tension et lancez HACMP. Les ressources seront automatiquement réactivées sur ce noeud. Outils et techniques de gestion du système 10-25 Reprise sur carte défectueuse Lorsque la carte défectueuse est détectée sur un noeud, ATF (Application Transparence Failure) transfère le contrôle de tous les lun, liés au SP raccordé à cette carte via un hub, sollicités par les applications. Procédure de dépannage Les mesures à prendre sont les suivantes : • Arrêtez HACMP avec basculement sur ce noeud, mettez le noeud hors tension et changez la carte. • Sur l’autre noeud, restaurez ATF (atf0 ou atf1) si des intrusions se sont produites. Sélectionnez le menu smit atf, puis restore LUNs to originated SPs. • Mettez sous tension le premier noeud, vérifiez que le voyant vert est allumé sur les deux cartes FC Emulex et que le voyant jaune clignote à l’issue du processus d’amorçage. • Redémarrez HACMP sur ce noeud. Reprise sur SP défaillant ATF transfère à l’autre SP le contrôle des lun sollicités, sans interrompre les applications sur les deux noeuds. Procédure de dépannage Les mesures à prendre sont les suivantes : • Retirez le SP défaillant et remplacez-le sans arrêter les applications. • Une fois le SP initialisé, vérifiez son état : le LED du port HUB auquel il est connecté doit être éteint. • Restaurez ATF sur chaque noeud (atf0 ou atf1) si atfx (x : 0 ou 1) s’est introduit illicitement dans les lun de ce SP. Reprise sur panne générale d’alimentation électrique sur site Le site restant (site 1) reprend toutes les ressources activées sur le site victime de la panne d’alimentation (site 2). Une fois l’alimentation générale rétablie, exécutez la procédure de dépannage décrite ci-après. Il est impératif de préparer cette procédure, car dans certains cas il peut être nécessaire d’arrêter toutes les applications dans la grappe. Procédure de dépannage Les mesures à prendre sont les suivantes : 1. Mettez sous tension les hubs sur ce site (site 2). 2. Mettez sous tension le système DAS sur ce site, attendez que le voyant de service s’allume et s’éteigne. Si SP présente un état hors ligne, éteignez puis rallumez son hub pour réinitialiser l’insertion du SP dans la boucle FC-AL. 3. Mettez sous tension le noeud sur le site (site 2). 4. Vérifiez l’état d’ATF sur les deux sites au cas où ATF se serait introduit illicitement. En cas d’intrusion par atfx, restaurez les lun concernés à leur SP par défaut. 10-26 EPC et solutions HA – Guide d’installation 5. Démarrez HACMP sur le noeud du site 2. Toutes les ressources seront alors récupérées sur ce site. Il est possible qu’Atfx se soit introduit illicitement sur les deux sites lors du démarrage du gestionnaire HACMP sur le site dépanné, dans ce cas : – attendez la fin de l’événement node_up_complete sur le site (site 2) ; – restaurez les lun de chaque atfx sur ce site (site 2) ; – sur l’autre site (site 1), restaurez de nouveau les lun à leur SP. Reprise sur défaillance de disques DAS Contactez votre technicien de maintenance Bull pour connaître la procédure d’échange de matériel ainsi que les procédures AIX à mettre en oeuvre pour rétablir la disponibilité de tous les VG avec tous les (nouveaux) disques miroirs. Personnalisation du traitement des événements de grappe Objet Dans HACMP, tout événement de grappe peut être associé à des scripts de traitement exécutés lorsque l’événement en question a lieu (pour des informations de fond sur les concepts et caractéristiques HACMP relatifs aux événements de grappe, reportez-vous à la documentation HACMP). Synchronisation des horloges avec timed Le temps est une donnée essentielle pour nombre d’applications, qui prennent des ”décisions” en fonction de l’heure actuelle ou d’horodateurs enregistrés. Les logiciels de bases de données comme les outils d’analyse, de comptabilité et d’audit sont des applications de ce type. Une désynchronisation des horloges des noeuds conduit à des résultats peu fiables. C’est pourquoi il est vivement conseillé d’installer le démon timed dans la grappe de sorte que les horloges soient synchronisées en permanence sur tous les noeuds. timed en bref timed est un serveur de temps standard fourni avec AIX. Il synchronise l’horloge d’une machine avec celles des autres machines du réseau sur lesquelles timed est également actif. En ralentissant certaines horloges et en en accélérant d’autres, timed maintient une heure uniforme sur le réseau. timed est un démon exécutable en mode maître ou en mode esclave. Via ce mécanisme, timed assure la haute disponibilité du service horloge. • Lorsque le démon timed est lancé avec l’indicateur -M (mode maître) : – Si un timed maître est déjà exécuté sur le réseau, le timed que vous venez de lancer devient un sous- maître. Les serveurs de sous-maître d’horloge ont pour seule fonction de prendre le relais du timed maître, si celui-ci vient à faillir. – Si aucun timed maître n’est déjà actif sur le réseau, le timed que vous venez de lancer devient le serveur d’horloge maître pour ce réseau. Le timed maître est responsable des transactions avec les autres serveurs timed pour synchroniser les horloges. Si le timed maître meurt (suite, par exemple, à une défaillance de l’hôte sur lequel il est actif), un nouveau serveur maître est ”élu” parmi les serveurs sous-maîtres (c’est-à-dire les autres serveurs timed activés avec l’indicateur -M). • Lorsque le démon timed est lancé sans l’indicateur -M, il est exécuté comme serveur esclave (jamais candidat au rôle de serveur de temps maître). Outils et techniques de gestion du système 10-27 Conseils pour implémenter timed dans votre grappe Pour implémenter le service d’horloge dans votre grappe : • Activez timed sur chaque noeud. Considérez qu’au moins deux serveurs timed (chacun sur un noeud) doivent être activés en mode maître (indicateur -M ). • Le plus simple consiste à activer timed comme serveur maître (indicateur -M ) sur tous les noeuds de grappe. Vous vous assurez ainsi de la continuité du service d’horloge même s’il ne reste qu’un seul noeud actif. Pour en savoir plus sur timed et sur son activation automatique au démarrage du système, reportez-vous à la documentation AIX. Remarque à l’attention des utilisateurs de PowerConsole Si vous configurez un Powercluster équipé d’un PowerConsole, nous vous conseillons d’utiliser l’utilitaire de configuration intégré au module ClusterAssistant. Notez que : • Pour accéder à cet utilitaire, activez l’icône AIX Tools (dans le dossier ”Configuration” du groupe d’applications ClusterAssistant), puis lancez la fonction ”timed Configuration”. • Avec cette fonction, timed est automatiquement configuré : – comme maître synchronisé sur l’horloge du PowerConsole, – comme esclave synchronisé sur les différents noeuds de la grappe. Notez que cette configuration, bien que non conforme aux conseils donnés plus haut, est recommandée lorsque la grappe installée est équipée d’un PowerConsole. Clés de licence iFOR/LS Nodelocked iFOR/LS, via l’utilisation de clés cryptées, contrôle les licences des logiciels utilisés par des machines autonomes ou reliées en réseau. Si vous éprouvez des difficultés concernant les clés de licences de vos produits, reportez-vous à la documentation iFOR/LS. Notez qu’une annexe du manuel AIX iFOR/LS Tips and Techniques traite en particulier de l’exploitation de iFOR/LS dans un environnement HACMP. Conseils relatifs à DSMIT DSMIT (Distributed System Management Interface Tool) est un module en option de la famille AIX. DSMIT est semblable à l’outil SMIT standard, à ceci près qu’il peut exécuter des commandes de gestion sur plusieurs systèmes en réseau simultanément. Notez ceci : • N’utilisez pas DSMIT pour activer les différents menus SMIT HACMP. DSMIT sert à démarrer et arrêter les services de grappe HACMP. Presque toutes les autres opérations SMIT HACMP entraînent des résultats imprévisibles si vous les lancez via DSMIT. • Mais vous pouvez tirer parti de DSMIT pour d’autres tâches de gestion du système qui ne font pas appel aux menus HACMP (pour gérer des comptes utilisateur ou installer des logiciels sur plusieurs noeuds, par exemple). Voici quelques conseils complémentaires : • Les noeuds d’une même grappe doivent être rassemblés dans un ”collectif de travail ” ou un ”domaine”. • L’implémentation DSMIT la plus simple consiste à configurer un seul noeud de grappe comme serveur DSMIT. Mais vous pouvez rendre DSMIT hautement disponible, en configurant plusieurs noeuds de grappe comme serveurs DSMIT. Vous n’aurez plus alors à vous soucier de noeud à utiliser pour exécuter les commandes DSMIT. Pour en savoir plus, reportez-vous à la documentation DSMIT. 10-28 EPC et solutions HA – Guide d’installation Gestion des sous-systèmes DAS avec ArrayGUIde Remarque : Sous AIX 4.3.3, tous les sous–systèmes DAS doivent être administrés à partir de Navisphere. Les sous-systèmes disque DAS (2900, 3x00 et 3500) sont livrés avec les utilitaires ArrayGUIde et dassmgr. Les sous-systèmes disque DAS sont fournis avec les utilitaires ArrayGUIde et dassmgr. • ArrayGUIde est une interface utilisateur graphique qui permet de gérer, de configurer et de contrôler des sous-systèmes DAS multiples, connectés à plusieurs serveurs du réseau. Vous pouvez exécuter ArrayGUIde à partir de n’importe quel système du réseau, et pas nécessairement à partir d’un noeud auquel est connecté le DAS. • dassmgr communique avec le système DAS via une connexion série reliant un processeur de stockage à un port RS-232 sur un noeud. Vous trouverez peut-être ArrayGUIde plus convivial que dassmgr pour exécuter les tâches de contrôle quotidiennes. Pour en savoir plus, reportez-vous aux manuels Configuring and Managing a DAS and Using ATF et Using the ArrayGUIde Utility. Remarque à l’attention des utilisateurs de PowerConsole Si votre grappe est équipée d’un PowerConsole, vous pouvez tirer parti du module ClusterAssistant, qui intègre des utilitaires permettant configurer et d’exécuter facilement ArrayGUIde. Gestion des sous–systèmes DAS avec Navisphere Remarque : Sous AIX 4.3.3, tous les sous–systèmes DAS doivent être gérés à partir de Navisphere. La gestion des sous–systèmes de stockage DAS s’effectue via Navisphere Manager, interface graphique interactive de Powerconsole. Navisphere Manager fournit des informations classées dans une hierarchie relatives à l’état des disques physiques qui constituent le système de stockage. Cet outil offre également des fonctions de configuration et de gestion permettant de définir la mémoire de stockage, de localiser des modules de disque dans des unités de disque logiques et de modifier les paramètres du système de stockage. Outils et techniques de gestion du système 10-29 10-30 EPC et solutions HA – Guide d’installation Chapitre 11. Télécontrôle de grappe avec ISM Ce chapitre explique comment télécontrôler une grappe HACMP 4.3 via ISM 4.54. Il comporte les sections suivantes : • Concepts. • Configuration de l’environnement SNMP sur les noeuds de grappe, page 11-3. • Installation des fichiers requis sur la station ISM Manager, page 11-5. • Tracé d’une image ISM de base pour représenter une grappe, page 11-6. • Interprétation des informations de base, page 11-9. • Examen de la base MIB HACMP et ajout d’objets à l’image, page 11-12. • Remarques sur les objets MIB HACMP, page 11-14. • Remarques sur les interruptions, page 11-17. Remarque : ISM doit être installé et exécuté sur une station de travail AIX dédiée du réseau, et non sur un noeud de grappe. Une station de travail dédiée à l’exécution d’ISM est appelée “station de gestion ISM”. Concepts Qu’est-ce que ISM ? ISM (Integrated System Management) est un produit Bull conçu pour télécontrôler et gérer globalement les systèmes distribués et les réseaux. ISM offre une interface graphique conviviale configurable. Il utilise en outre une architecture sophistiquée, dans laquelle toutes les ressources réseau sont définies comme des objets, structure qui facilite l’intégration des différents éléments dans une vue unique et cohérente. La figure, page suivante, illustre un écran ISM. ISM et le contrôle de grappe Une grappe est appelée à évoluer : un noeud peut, par exemple, en être exclu ou y être inclus, une carte de secours remplacer une carte de service, etc. Ces changements génèrent des événements qui, rapportés à ISM, vous permettent de les contrôler. Avec ISM, vous pouvez créer une image, c’est-à-dire une représentation graphique d’une grappe avec ses noeuds et leurs interfaces réseau. Après configuration, vous pouvez afficher l’image pour contrôler visuellement la grappe. Les événements qui se produisent dans la grappe sont répercutés sur l’image par ISM. Ainsi, certains labels verts deviennent rouges pour signaler des événements. Vous pouvez ensuite consulter la base MIB HACMP (Management Information Base) ou afficher les interruptions reçues pour obtenir plus d’informations sur l’état de la grappe. HACMP pour AIX contient une base MIB propre à l’entreprise, dédiée aux environnements de grappe. HACMP signale les changements d’état de la grappe via le démon pair de grappe SMUX, clsmuxpd, qui doit être actif sur chaque noeud de grappe. Pour contrôler une grappe, ISM se base sur la MIB HACMP. Voir aussi • La suite de ce chapitre est destinée aux administrateurs responsables de la configuration d’ISM, qui connaissent bien ISM. Les indications fournies sont d’ordre général. Pour en savoir plus sur la configuration, la personnalisation et l’exploitation d’ISM, reportez-vous à la documentation ISM. Télécontrôle de grappe avec ISM 11-1 • Pour en savoir plus sur les concepts et les utilitaires relatifs au contrôle de grappe, reportez-vous à la documentation HACMP. Vous pouvez également consulter les entrées ”SNMP”, ”clsmuxpd” et ”clinfo” du HACMP Master Index and Glossary (clinfo, fourni avec le logiciel HACMP pour AIX, est un moniteur de grappe basé sur SNMP). Exemple d’image ISM Applications ISM requises Trois modules ISM servent à configurer l’environnement de grappe : ISM Monitor, ISM IP Discovery et ISM Alarm. ISM Monitor Il s’agit du principal utilitaire de contrôle des objets gérés. Il permet de : • Créer et afficher des images - représentations graphiques des objets gérés. • Animer les images pour refléter les changements d’état des objets gérés. Ces changements peuvent être matérialisés par des changements de couleur des icônes animées. • Parcourir les objets et les attributs stockés dans les bases MIB concernées. ISM IP Discovery Cet utilitaire permet d’exploiter les réseaux à la recherche des réseaux et unités compatibles avec le protocole IP. Vous pouvez intégrer les objets trouvés à une image, via ISM Monitor. ISM Alarm Cet utilitaire permet de contrôler les alarmes, c’est-à-dire les interruptions émises par les démons SNMP (snmpd et clsmuxpd). Vous pouvez, au sein d’une image ISM, animer les icônes en fonction des interruptions. Lorsque les alarmes (c’est-à-dire les interruptions) se produisent, vous pouvez alors examiner leur contenu. 11-2 EPC et solutions HA – Guide d’installation Récapitulatif Pour contrôler une grappe via ISM, vous devez configurer l’environnement. La procédure est la suivante : • Configurer l’environnement SNMP sur les noeuds de grappe. • Installer les utilitaires requis sur la station ISM Manager. • Créer les images ISM. Ces tâches sont décrites ci-après. Configuration de l’environnement SNMP sur les noeuds de grappe Cette tâche doit être effectuée sur chacun des noeuds de la grappe. Elle consiste essentiellement à effectuer des vérifications. Définition des fichiers de configuration snmpd Pendant l’installation de HACMP, deux fichiers de configuration, /etc/snmpd.conf et /etc/snmpd.peers, sont mis à jour, avec chaînes d’identification et mots de passe ad hoc. Pour contrôler et mettre à jour ces fichiers, procédez comme suit sur chaque noeud de grappe. 1. Editez le fichier /etc/snmpd.conf. Vérifiez que la ligne suivante a été ajoutée à la fin du fichier (ajoutez-la sinon): smux 1.3.6.1.4.1.2.3.1.2.1.5 clsmuxpd_password # HACMP Ajoutez également, si besoin est, les lignes spécifiant les machines devant recevoir les interruptions générées par clsmuxpd. Ajoutez une ligne pour chaque gestionnaire ISM à affecter au contrôle de grappe. Dans l’exemple ci-dessous, deux lignes correspondant à deux stations ISM, ism_foo et ism_bar, ont été ajoutées - dont les adresses IP sont 130.183.1.1 et 130.183.1.51. Les deux stations ism_foo et ism_bar recevront les interruptions. trap trap public public 130.183.1.1 130.183.1.51 #ism_foo #ism_bar 2. Editez le fichier /etc/snmpd.pees, et vérifiez que la ligne suivante a été ajoutée à la fin du fichier (ajoutez-la sinon) : clsmuxpd 1.3.6.1.4.1.2.3.1.2.1.5 ”clsmuxpd_password” # HACMP 3. Arrêtez et relancez les processus snmpd et clsmuxpd sur les noeuds modifiés : stopsrc -s clsmuxpd stopsrc -s snmpd startsrc -s snmpd startsrc -s clsmuxpd Télécontrôle de grappe avec ISM 11-3 Mise à jour des fichiers /etc/hosts et /etc/inittab Fichier /etc/hosts Pour que le démon clsmuxpd soit correctement enregistré avec snmpd, vous devez inclure loopback comme alias de l’entrée 127.0.0.1 dans /etc/hosts. Sur chaque noeud de grappe, éditez le fichier /etc/hosts pour y ajouter la ligne : 127.0.01 loopback Remarque : Le fichier /etc/hosts contient généralement une ligne ”127.0.0.1 localhost”. Le cas échéant, ne la supprimez pas. (Ajoutez de toutes façons la ligne ”127.0.0.1 loopback” comme expliqué plus haut.) Fichier /etc/inittab Mettez à jour /etc/inittab (sur tous les noeuds de grappe) de sorte que les démons clsmuxpd et snmpd soient automatiquement activés au lancement du noeud. Vérification de l’installation des fichiers de définition MIB La MIB HACMP est définie dans le fichier source /usr/sbin/cluster/hacmp.my. Sa version compilée est /usr/sbin/cluster/hacmp.defs. Sur chaque noeud de la grappe, vérifiez que ces deux fichiers sont effectivement installés dans le répertoire /usr/sbin/cluster/hacmp.defs. Vérification des opérations SNMP Pour vérifier les opérations SNMP, demandez, en local et à partir d’une station ISM, le démon clsmuxpd via la commande snmpinfo. Par exemple : 1. A partir d’un noeud de grappe, demandez en local un cliché du groupe clsmuxpd de l’arborescence MIB HACMP : snmpinfo -o /usr/sbin/cluster/hacmp.defs -m dump -v clsmuspd La commande ci-dessus doit afficher le cliché du groupe clsmuxpd de l’arborescence MIB HACMP. Il est semblable à : clsmuxpdGets.0 = 0 clsmuxpdGetNexts.0 = 2 clsmuxpdSets.0 = 0 nodeId.1 = 1 clsmuxpdTraps.0 = 15 ... 2. Sur la station ISM, entrez la commande : snmpinfo -h <NomNoeud> -o /usr/sbin/cluster/hacmp.defs -m dump -v clsmuxpd Cette commande doit également afficher le cliché du groupe clsmuxpd. Remarques : • Si rien ne s’affiche, vérifiez votre installation comme indiqué plus loin dans ce chapitre. • Répétez cette étape de vérification sur chaque noeud de grappe. 11-4 EPC et solutions HA – Guide d’installation Installation des fichiers requis sur la station ISM Manager Installation de l’ensemble de fichiers dédiés à ISM Le logiciel BullCluster intègre des ensembles de fichiers spécifiques dédiés à ISM. Pour les installer, reportez-vous au Bulletin de logiciel (SRB) fourni avec le logiciel. Ce bulletin contient des instructions d’installation et indique les éventuels prérequis. Une fois l’ensemble de fichiers installé, installez la base MIB HACMP dans ISM comme expliqué ci-après. Répertoires d’installation Sous ISM 4.54, les fichiers sont installés dans le répertoire $ISMROOT/var/mibspack/snmp/enterprise/ibm/hacmp. Fichiers fournis L’ensemble de fichiers dédiés à ISM fournit notamment : • Le fichier hacmp.mib, version compilée de MIB HACMP, prêt à l’emploi sous ISM. • Les fichiers hacmp.ext/default.mnc, qui définissent les icônes associées à chaque objet, ainsi que leur mode d’animation. • Le répertoire hacmp.icons, qui contient des fichiers icône. Pour une liste exhaustive, affichez le contenu des répertoires d’installation. Installation de la base MIB HACMP au sein d’ISM Avertissement : Les fichiers de personnalisation de MIB HACMP se trouvent dans le répertoire hacmp.ext/default.mnc. Lors de l’installation de HACMP MIB, la personnalisation HACMP est automatiquement ajoutée au fichiers de configuration par défaut de l’application ISM_Monitor, située dans le répertoire $ISMROOT/var/config/ISM_Monitor/default.mnc. Il est recommandé d’enregistrer la configuration par défaut de ISM_Monitor avant d’installer MIB HACMP, à l’aide de l’application ISM_Configurator/ISM_Monitor. Nous supposons ici que vous avez lancé ISM à partir de la station ISM Manager. Pour installer la base MIB HACMP dans ISM (répétez la procédure sur chaque station ISM Manager prévue pour contrôler la grappe) : 1. Sur la fenêtre ISM Application Board, exécutez ISM Configurator. 2. Sur le configurateur affiché, ouvrez le menu MIB Schema et sélectionnez LAUNCH. 3. Sur la fenêtre MlB qui s’affiche, cliquez sur Install/Remove private MIB puis indiquez le nom de la base MIB HACMP : hacmp Suivez les instructions affichées (reportez-vous au besoin à la documentation ISM). 4. Une fois la base MIB installée, arrêtez ISM : sélectionnez Exit sur le menu File de Application Board, puis arrêtez le Framework par la commande fmkstop. 5. Relancez ISM et le Framework. Ces étapes préliminaires accomplies, vous pouvez tracer des images ISM pour représenter et contrôler la grappe. Télécontrôle de grappe avec ISM 11-5 Tracé d’une image ISM de base pour représenter une grappe Cette section vous donne quelques conseils pour créer une image ISM permettant de télécontrôler une grappe. ISM est personnalisable à volonté selon les besoins spécifiques de chacun. La création d’une image ISM comporte les étapes suivantes : • Recherche des réseaux et des unités associés à la grappe • Tracé d’une image comportant les unités découvertes • Animation des icônes Cette image de base constituée, vous pouvez y ajouter des détails et des critères d’animation spécifiques. Ces tâches sont décrites à partir de la section “Examen de la base MIB HACMP et ajout d’objets à l’image”, page 11-12. Remarque : Vous pouvez effectuer ces étapes pour vous familiariser avec les particularités de l’intégration d’une grappe dans ISM. Il vous appartiendra ensuite de déterminer vos besoins réels et d’adapter les images en conséquence. Recherche des réseaux et des unités associés à la grappe Il s’agit de déclarer à ISM les noeuds de grappe, les cartes et les réseaux, via ISM IP Discovery. Remarques préliminaires Fonctionnement d’ISM IP Discovery ISM IP Discovery identifie les systèmes par leur adresse IP. A chaque adresse IP correspond un objet icône. Chaque fois qu’il repère un réseau ou un système, ISM IP Discovery crée un objet (réseau ou unité IP) dans la base ISM CMIS. Spécificités des grappes Les noeuds de grappe sont dotées au minimum de deux carte réseau : une carte de service et une carte de secours, dont les adresses renvoient à deux sous-réseaux distincts. En outre, si la grappe fait appel à la fonction de basculement d’adresse IP (cas le plus fréquent), la carte de service est associée à deux adresses IP : l’adresse d’amorçage de la carte (utilisée lors de l’amorçage et jusqu’au lancement des services de grappe) et l’adresse de la carte de service (utilisée une fois les services de grappe lancés sur le noeud). Adresses IP principale et secondaire ISM IP Discovery associe une icône à chaque adresse IP repérée et lui attribue pour titre l’adresse IP en question. Aussi une carte de service se voit-elle associer deux icônes, l’une correspondant à son adresse de service et l’autre à son adresse d’amorçage. Lorsque le processus de recherche IP est exécuté sur le réseau auquel sont connectées les cartes de service, la carte de service (adresse de service ou d’amorçage) est représentée comme Adresse IP principale, et la carte de secours comme Adresse IP secondaire. 11-6 EPC et solutions HA – Guide d’installation Procédure 1. Sur chaque noeud de grappe que vous souhaitez ”découvrir”, vérifiez que le démon snmpd est actif. Au besoin, lancez-le via la commande startsrc -s snmpd. 2. A partir de la station ISM, lancez l’application ISM IP Discovery. Sélectionnez l’option Network. IP Discovery affiche les réseaux découverts. Découverte des labels de carte d’amorçage des noeuds de grappe 3. Sur la liste affichée par ISM IP Discovery, sélectionnez le réseau utilisé par les cartes de service/d’amorçage des noeuds. Lancez la recherche en sélectionnant On Selected Networks sur le menu Devices. Lorsque les services de grappe sont actifs sur un noeud, celui-ci se sert de son adresse de service (et non de son adresse d’amorçage). IP Discovery découvrira donc les adresses de service des noeuds. La recherche terminée (ce qui peut prendre plusieurs minutes), les unités IP découvertes sont affichées : repérez celles qui correspondent aux labels de la carte de service des noeuds de grappe. Découverte des labels de carte d’amorçage des noeuds de grappe 4. Si vous pouvez arrêter HACMP sur les noeuds, faites–le. Ces derniers utilisent alors leur adresse d’amorçage qui peut être découverte par IP Discovery. Cette étape est facultative car les objets HACMP du démon clsmuxpd sont accessibles grâce aux adresses IP découvertes au cours de l’étape précédente. Elle permet toutefois d’obtenir un tracé des cartes d’amorçage sur un plan de contrôle. Découverte des cartes de secours des noeuds de grappe 5. Remarque : cette étape peut être effectuée, que les services de grappe soient ou non actifs sur les noeuds de grappe. A partir de ISM IP Discovery, sélectionnez le sous-réseau utilisé par les cartes de secours des noeuds (il s’agit d’un sous-réseau distinct du précédent, les cartes de service/amorçage et les cartes de secours n’utilisant pas le même sous-réseau). Lancez la recherche en sélectionnant On Selected Networks sur le menu Devices. La recherche terminée (ce qui peut prendre plusieurs minutes), les unités IP découvertes sont affichées : repérez celles qui correspondent aux labels de la carte de secours des noeuds de la grappe. Ces étapes exécutées, vous pouvez commencer à tracer une image représentant les unités découvertes, comme expliqué ci-après. Tracé d’une image comportant les unités découvertes Il s’agit de tracer des images contenant les réseaux et les unités de grappe découverts, via ISM Monitor. Ces images serviront à télécontrôler graphiquement la grappe. Vous allez créer une image représentant les différentes adresses des noeuds de grappe (voir exemple page 11-8). Les instructions ci-après supposent que vous traitez une grappe simple à deux noeuds. Adaptez-les à vos besoins. Télécontrôle de grappe avec ISM 11-7 Tracé des labels des cartes de service et d’amorçage 1. Sur la fenêtre IP Devices d’ISM IP Discovery, sélectionnez les labels de carte d’amorçage et de service. Par exemple, pour une grappe à 2 noeuds utilisant 2 labels de service, vous devez sélectionner 4 lignes : 2 labels d’amorçage et 2 labels de service.Appelez le menu Control et sélectionnez Draw Selection. Une nouvelle fenêtre s’affiche. 2. Sélectionnez New, de façon que la sélection soit représentée par une image nouvelle, et l’algorithme Bus (vous pouvez choisir d’autres options, pour ajouter les labels de carte à une image existante et/ou utiliser d’autres algorithmes de dessin). 3. Cliquez sur Do pour dessiner l’image. ISM Monitor crée une nouvelle image, contenant les unités IP sélectionnées. Pour l’instant, l’image ne représente que les labels de carte d’amorçage et de service. Remarque : Le tracé des cartes de service ne doit être effectué que si les cartes d’amorçage n’ont pas été découvertes. Il est possible que les labels de carte soient représentés par des icônes de type ”pare-feu” ou passerelle. Les noeuds de grappe ayant plusieurs cartes sur des réseaux distincts, ISM peut considérer les noeuds comme des machines ”pare-feu” ou passerelle. Vous pouvez modifier ces icônes à votre guise s. Ces tâches effectuées, votre image ressemble à : NodeA_boot NodeA_srv NodeB_boot NodeB_srv 130.183.1.0 Tracé des labels de la carte de secours Vous voulez sans doute ajouter les labels de carte de secours, pour que l’image devienne : NodeA_boot NodeA_srv NodeB_boot 130.183.1.0 130.183.4.0 NodeA_stby 11-8 EPC et solutions HA – Guide d’installation NodeB_stby NodeB_srv Procédez comme suit : 1. Sur la fenêtre IP Devices d’ISM IP Discovery, sélectionnez les labels de la carte de secours (c’est-à-dire, pour une grappe de 2 noeuds, vous devez sélectionner 2 lignes). Appelez le menu Control et sélectionnez Draw Selection. Une nouvelle fenêtre s’affiche. 2. ISM ne vous autorise pas à dessiner les labels de carte de secours dans l’image courante, car les mêmes hôtes sont déjà représentés par d’autres labels de carte (nous aurons à utiliser le presse-papiers, comme expliqué plus loin). Sélectionnez donc New pour les dessiner dans une nouvelle image. Sélectionnez également l’algorithme de dessin Bus. 3. Cliquez sur Do pour dessiner l’image. ISM Monitor affiche une nouvelle image, contenant les labels de carte de secours et de réseau sélectionnés. Vous devez à présent les copier dans l’image précédente, pour obtenir une image contenant tous les labels de carte. 4. Sélectionnez les cartes de secours et le réseau correspondant, via l’option Select All à partir du menu Selection d’ISM Monitor. Sur le menu Edit, sélectionnez Copy : les objets sélectionnés sont copiés dans le presse-papiers. 5. Ouvrez le presse-papiers, via l’option Clipboard du menu Edit. Chargez ensuite la première image (qui, pour le moment, ne contient que les icônes des labels des cartes d’amorçage et de service). 6. Dans le presse-papiers, sélectionnez le réseau que vous venez de copier, puis l’option Paste du menu Edit. Cliquez sur l’emplacement souhaité pour coller le réseau. 7. Répétez l’étape précédente pour coller les différents objets : labels de carte de secours et liens réseau. Vous ne pouvez pas sélectionner plusieurs objets dans le presse-papiers, d’où la nécessité de répéter l’opération. Pour les lignes réseau, notez que vous devez les coller deux fois, sur les deux objets à lier : icône de réseau et icône de label de carte. Animation des icônes Cette étape consiste à animer l’icône de sorte que les changements d’état des objets représentés soient signalés par un changement de couleur de leur icône. A partir d’une fenêtre ISM Monitor, sélectionnez toutes les icônes via l’option Select All du menu Selection. Sur le menu Animate, sélectionnez ensuite l’option Live. Étape suivante Vous pouvez sauvegarder l’image. (Vous pouvez supprimer celle provisoirement créée pour les labels de carte de secours). Nous vous engageons ensuite à lire les conseils ci-après avant de passer à ”Examen de la base MIB HACMP et ajout d’objets à l’image”, page 11-12. Interprétation des informations de base Couleur des icônes Chaque icône de label de carte est animée en fonction de l’état des adresses IP principale et secondaire représentées. (Concernant ces adresses, lisez les remarques page 11-6.) • Pour une icône représentant une adresse de service, l’adresse principale est l’adresse de service. • Pour une icône représentant une adresse d’amorçage, l’adresse principale est l’adresse d’amorçage. Télécontrôle de grappe avec ISM 11-9 • Dans tous les cas, l’adresse secondaire est l’adresse de secours. Si l’icône est : • verte : les adresses principale et secondaire sont activées. • rouge : les adresses principale et secondaire sont désactivées. Remarque : Une icône rouge peut également signifier que le démon snmpd n’est pas actif que le système concerné. Recherche du noeud contenant une adresse de service donnée Lorsque le basculement d’une adresse IP se produit dans une grappe, un noeud prend l’adresse d’un noeud sortant. Lorsque vous contrôlez une grappe, vous pouvez déterminer le noeud qui porte une adresse de service donnée, en balayant la base MIB comme suit : 1. Sur l’image affichée, sélectionnez l’icône correspondant à l’adresse de service concernée. 2. Appelez le menu Control et sélectionnez Detail. Cliquez ensuite sur le bouton MIB–2 et sur le bouton système. 3. Consultez le champ sysName : il indique l’hôte sur lequel se trouve effectivement l’adresse de service que vous avez sélectionnée. Dans l’exemple ci-après, le champ sysName indique l’hôte liz. 11-10 EPC et solutions HA – Guide d’installation Exemple de scénario Considérons un scénario impliquant une grappe 2 noeuds. Supposons qu’un groupe de ressources est défini, associé au noeud A et configuré comme groupe de secours en mode rotatif. Soit une image contenant les objets ci-dessous : NodeA_boot NodeA_srv NodeB_boot 130.183.1.0 Supposons réunies les conditions initiales suivantes : • Le noeud A contient l’adresse de service : – Dans ce cas, l’icône nodeA_srv est verte, tandis que nodeA_boot est rouge. – Si vous affichez le détail de nodeA_srv, le champ sysName affiche le nom hôte nodeA_boot. • Pour l’instant, le noeud B utilise son adresse d’amorçage. Il est prêt à prendre la relève en cas de défaillance du noeud A. L’icône NodeB_boot est verte. En cas de défaillance du noeud A, un basculement d’adresse IP se produit (sous réserve que le basculement soit implémenté sur la grappe). En résultat : • Le noeud B contient l’adresse de service : – L’icône NodeA_srv reste verte, tandis que NodeB_boot devient rouge. – Si vous affichez le détail de NodeA_srv, le champ sysName affiche le nom hôte NodeB_boot (et non plus NodeA_boot). • L’icône nodeA_boot devient verte. Le tableau ci-dessous récapitule ces changements : NodeA_boot NodeA_srv NodeB_boot Avant le basculement d’adresse IP rouge vert (le noeud A contient l’adresse de service) vert Après le basculement d’adresse IP vert vert (le noeud B contient l’adresse de service) rouge Télécontrôle de grappe avec ISM 11-11 Examen de la base MIB HACMP et ajout d’objets à l’image Une fois que vous avez dessiné une image de base avec les labels de carte, vous pouvez parcourir la base MIB HACMP et ajouter d’autres objets, pour finaliser votre image. Prérequis : vérification des opérations clsmuxpd ISM obtient des informations de la grappe par l’intermédiaire du démon pair Cluster SMUX, clsmuxpd. Vérifiez que ce démon est actif sur chaque noeud de grappe. Remarques : • Normalement, le démon clsmuxpd est automatiquement activé lorsque vous lancez les services de grappe sur un noeud. Au besoin, faites appel au menu HACMP SMIT Start Cluster Services (raccourci : smit clstart). • Vous pouvez également lancer clsmuxpd via la commande : startsrc -s clsmuxpd • Pour en savoir plus, reportez-vous à ”Configuration de l’environnement SNMP sur les noeuds de grappe”, page 11-3. Examen de la base MIB HACMP Pour parcourir la base MIB HACMP : 1. L’image étant affichée dans une fenêtre ISM Monitor, sélectionnez une icône représentant une de carte de service. 2. Appelez le menu Control et sélectionnez Detail. Une nouvelle fenêtre s’affiche, indiquant les valeurs courantes de la base MIB SNMP, avec des boutons d’accès à un complément d’informations. 3. Cliquez sur le bouton privé puis sur risc6000clsmuxpd pour accéder à la base MIB HACMP. Une nouvelle fenêtre apparaît, avec un bouton pour chaque objet HACMP géré (address, application, clinfo...). 4. Cliquez sur l’un des boutons pour afficher les attributs de l’objet correspondant. Tracé des objets de la base MIB HACMP Pour dessiner des objets MIB HACMP : 1. L’image étant affichée dans une fenêtre ISM Monitor, parcourez la base MIB comme expliqué ci-dessus. Notez que, lorsque vous parcourez la base MIB dans le but de dessiner des objets, vous devez commencer par un label de carte de service (et non d’amorçage ou de secours). Ceci parce que l’adresse de service est normalement toujours valide lorsque HACMP est actif sur la grappe. Vous devez donc, avant de parcourir la base, sélectionner une icône représentant une carte de service. 2. Continuez à parcourir la base MIB jusqu’à atteindre l’objet que vous voulez dessiner et dont vous voulez afficher les attributs. Par exemple, pour atteindre un objet ”grappe”, cliquez sur le bouton cluster. 3. Appelez le menu Control et sélectionnez Draw, puis cliquez sur l’emplacement souhaité pour l’icône (une grappe si vous avez sélectionné un objet ”grappe”, par exemple). 11-12 EPC et solutions HA – Guide d’installation Objets MIB HACMP intéressants Les labels de carte de secours, d’amorçage et de service précédemment dessinés sont des objets snmpSystem. Sont également intéressants au niveau du contrôle de grappe: • l’objet cluster • l’objet node. Remarque : Pour afficher le type d’objet associé à une icône, sélectionnez l’icône, exécutez la commande Detail et consultez la valeur de objectClass. Pour en savoir plus, reportez-vous à ”Remarques sur les objets MIB HACMP”, page 11-14. Choix des attributs pour l’animation d’icône Un objet étant dessiné, vous pouvez sélectionner l’option ISM Live pour l’animer - selon le mode d’animation par défaut (ainsi, un objet cluster est animé selon son attribut clusterState). Notez que, par défaut, un objet cluster est animé en fonction de son attribut clusterState. Vous pouvez changer l’attribut d’animation d’un objet. Vous pouvez, par exemple, dessiner un objet cluster et l’animer selon l’attribut clusterSubState. Cet attribut se révèle très utile pour le contrôle de grappe (reportez-vous à ”Remarques sur les objets MIB HACMP”, page 11-14). Procédure Pour créer un objet cluster animé selon son attribut clusterSubState : 1. L’image étant affichée dans une fenêtre ISM Monitor, sélectionnez une icône représentant un label de carte de service, parcourez la base MIB HACMP jusqu’à l’objet cluster et dessinez-le sur l’image. 2. Sélectionnez l’icône dessinée. Appelez le menu Animate, et sélectionnez Animate by Attribute pour changer de critère d’animation : animez l’objet cluster en fonction de son attribut clusterSubState (au lieu de l’attribut clusterState par défaut). Bad Bad Warning Warning Good Good unknown error reconfig Remarque : Vous pouvez également animer les icônes en fonction des interruptions SNMP reçues. Voir plus loin dans ce chapitre. Télécontrôle de grappe avec ISM 11-13 Remarques sur les objets MIB HACMP Nous avons déjà souligné l’intérêt des objets MIB HACMP cluster et node. Cette section récapitule les informations concernant ces deux types d’objets. Les autres objets sont décrits page 11-16. Remarque sur le répertoire hacmp.ext Lorsque vous dessinez un objet MIB HACMP, l’icône et son mode d’animation sont, par défaut, définis en fonction des paramètres de hacmp.ext. Une fois familiarisé avec le contrôle de grappe via ISM, vous pourrez définir, par exemple, d’autres icônes par défaut ou d’autres critères d’animation.Utilisez l’application de configuration ISM (menus Applications/Monitor). Objet cluster Une grappe HACMP est un groupe de processeurs coopérant pour fournir un environnement hautement disponible. Pour l’objet cluster, les attributs les plus intéressants sont clusterState et clusterSubState. Objets cluster dans une image ISM Les deux attributs étant significatifs pour le contrôle de grappe, vous pouvez inclure dans votre image ISM deux icônes de grappe : la première animée selon clusterState, l’autre selon clusterSubState. Pour accéder à un objet cluster, parcourez la base MIB HACMP et cliquez sur le bouton cluster (vous pouvez alors le dessiner). L’icône par défaut d’un objet cluster, telle que définie dans le répertoire hacmp.ext, est la suivante : Attribut clusterState Le tableau ci-dessous indique les valeurs possibles de l’attribut clusterState et leur signification. Il indique également les couleurs utilisées pour afficher le label d’icône, selon les définitions par défaut du répertoire hacmp.ext. 11-14 clusterState Signification Couleur up Il existe au moins un noeud actif dans la grappe et un noeud principal est défini. vert down Il existe au moins un noeud actif dans la grappe, mais pas encore de noeud principal défini. rouge unknown clsmuxpd ne peut communiquer ou ne communique pas encore avec un Cluster Manager (gestionnaire de grappe) actif. orange EPC et solutions HA – Guide d’installation Attribut clusterSubState Le tableau ci-dessous indique les valeurs possibles de l’attribut clusterSubState. clusterSubState Signification Couleur stable La grappe est stable (pas de reconfiguration en cours). vert unstable La grappe est instable (une modification de topologie est en cours). orange error Un script a échoué, la grappe est restée trop longtemps en mode configuration (instable). rouge unknown clsmuxpd ne peut communiquer avec un Cluster Manager (gestionnaire de grappe). rouge reconfig La grappe est en cours de reconfiguration. rouge Objet Node Un noeud (node) est l’un des serveurs qui constituent la grappe. Chaque noeud exécute les gestionnaires de grappe et les programmes des démons pairs SMUX et SNMP. nodeState est l’attribut qui importe pour l’objet node. Objets node dans une image ISM Vous pouvez insérer dans votre image ISM les icônes correspondant aux différents noeuds de la grappe HACMP. Pour accéder aux objets node, parcourez la base MIB HACMP et cliquez sur le bouton node, puis ”détaillez” l’instance du tableau et cliquez sur le bouton node Entry Un tableau des noeuds de la grappe que vous pourrez tracer dans l’image s’affiche. L’icône par défaut d’un objet node est la suivante : Attribut nodeState Le tableau ci-dessous indique les valeurs possibles de l’attribut nodeState et leur signification. Il indique également les couleurs utilisées pour afficher le label d’icône. nodeState Signification Couleur up Le noeud est actif. vert down Le noeud est inactif. rouge joining Le noeud est en passe de rejoindre la grappe. orange leaving Le noeud est en passe de quitter la grappe. orange Télécontrôle de grappe avec ISM 11-15 Autres objets MIB HACMP La base MIB HACMP maintient des objets autres que cluster et node (application, clinfo, cllockd...). Ces objets n’intervenant quasiment pas dans le contrôle de grappe, nous n’entrerons pas dans le détail. Il vous appartient de déterminer, en fonction de vos besoins spécifiques, s’ils présentent un intérêt pour vous. Pour en savoir plus sur ces objets, vous pouvez consulter le fichier hacmp.mib (qui est commenté), ou parcourir la base MIB HACMP à partir d’une image ISM. Les différents objets maintenus dans la base sont les suivants : 11-16 address Attributs des adresses réseau des noeuds (indique, par exemple, le rôle de l’adresse : secours, amorçage ou adresse). application Informations sur les applications enregistrées avec la grappe pair SMUX HACMP. clinfo Informations sur le démon clinfo. cllockd Informations sur le démon cllockd (cluster lock manager). clsmuxpd Informations statistiques sur le démon clsmuxpd (cluster SMUX Peer). clstrmgr Informations sur le démon clstrmgr. cluster Attributs d’une grappe. event Informations sur les 1000 derniers événements de grappe. network Attributs des réseaux prenant en charge la grappe. node Attributs des noeuds d’une grappe. EPC et solutions HA – Guide d’installation Traitement des interruptions Prérequis clsmuxpd Le démon pair SMUX de grappe, clsmuxpd, doit être actif sur chaque noeud de grappe. En cas de doute, vérifiez-le comme indiqué page 11-12. Lorsqu’un changement intervient au sein d’une grappe, le gestionnaire de grappe en avertit le démon clsmuxpd. Celui-ci émet alors des interruptions pour diffuser l’information. Pour que le gestionnaire de station ISM puisse recevoir ces interruptions, le fichier /etc/snmpd.conf doit être défini en conséquence sur chaque noeud de grappe. Au besoin, reportez-vous à “Définition des fichiers de configuration snmpd”, page 11-3. clinfo Si vous prévoyez d’activer l’utilitaire HACMP clinfo sur la station ISM Manager, sachez que vous ne pouvez pas l’affecter à la réception des interruptions. Autrement dit, n’activez pas clinfo avec l’option -a, faute de quoi vous risquez de provoquer des conflits entre ISM et clinfo sur la station ISM. Ceci est dû au fait qu’un seul gestionnaire SNMP à la fois peut être actif sur une station réseau donnée (un seul programme TCP/IP peut ”écouter” un port donné). Remarques sur les interruptions HACMP ISM peut traiter les interruptions émises par les démons clsmuxpd. Vous pouvez décider d’animer les icônes uniquement en fonction des interruptions HACMP reçues par ISM. L’application ”ISM Alarm” permet d’afficher ces interruptions. Utilisez ISM Configurator (menu de personnalisation des interruptions) pour afficher les définitions d’interruption HACMP. Alarmes : remarque de terminologie Dans la terminologie ISM, les interruptions sont appelées ”alarmes”. Les interruptions HACMP Le démon clsmuxpd peut générer les interruptions suivantes (l’objet associé à l’interruption apparaît entre parenthèses) : TrapClusterState TrapClusterSubState TrapNodeState TrapNetworkState TrapAddressState TrapNewPrimary TrapAppState TrapAdapterSwap TrapAddressTakeover (clsmuxpd) (clsmuxpd) (node) (network) (address) (clsmuxpd) (application) (address) (address) Toutes ces interruptions ont un niveau de gravité ”important”. Ces interruptions signalent un changement d’état des principaux objets maintenus dans la base MIB HACMP. Les interruptions les plus significatives sont : • TrapAddressTakeover, qui indique qu’un basculement IP s’est produit. • TrapAdapterSwap, qui indique qu’une commutation de carte a eu lieu. Il est recommandé d’affecter à ces deux interruptions le niveau de gravité le plus élevé. Télécontrôle de grappe avec ISM 11-17 Il existe 27 autres interruptions HACMP dont le niveau de gravité est indéterminé et qui sont toutes associées à l’objet node. La liste ci–dessous en répertorie quelques–unes liées à un échec de la grappe HACMP, dont le niveau de gravité est ”critique”. trapFailNetwork trapFailNode trapClusterConfigToolong trapClusterUnstableToolong trapEventError Toutes les interruptions HACMP ont été associées à un incident spécifique. Il s’agit d’un OID portant l’alias du texte supplémentaire HACMP. L’incident permet de filtrer chaque alarme. Par exemple, pour animer une icône qui deviendrait rouge dès que le basculement de carte se produit. Pour afficher les paramètres personnalisés des interruptions HACMP (niveau de gravité des alrmes et incidents spécifiques), utiliser les outils ISM Configurator Trap Custom et Alias Server. Affichage des interruptions reçues Affichage de la liste des alarmes Pour afficher les interruptions (alarmes) reçues par ISM : 1. Dans la fenêtre ISM Application Board, sélectionnez l’application ISM Alarm. 2. Appelez le menu Execute et sélectionnez l’option from file.... Une liste de fichiers de configuration s’affiche, parmi lesquels le fichier default.ALcfg. 3. SéIectionnez le fichier default.ALcfg et cliquez sur OK pour le charger. Une fenêtre Alarm affiche le tableau des alarmes reçues par ISM Manager. Chaque ligne correspond à un ensemble d’occurrences de la même alarme émise par le même système. Modification de la présentation par défaut de la liste des alarmes Les colonnes EventType et ProblemType apparaissent en premier (à gauche du tableau). Mais toutes les interruptions HACMP sont de type (EventType) processing et sfwrEnvironmental (ProblemType) - ce qui est défini dans le fichier hacmp.trapdb. En conséquence, les informations de ces deux colonnes présentent peu d’intérêt et vous voudrez sans doute changer de présentation par défaut. Il est recommandé de modifier la présentation en plaçant la colonne ProblemText à gauche du tableau. L’affichage de ProblemText dans le(s) fichier(s) de configuration permet de distinguer facilement les interruptions HACMP de celles qui sont émises par d’autres agents SNMP, processing / sfwrEnvironmental par exemple. Pour réorganiser les colonnes, sélectionnez l’option Preferences... du menu Control de la fenêtre ISM Alarm. Génération d’interruptions HACMP pour test Pour tester les caractéristiques décrites ci-dessus, il suffit de provoquer l’émission d’interruptions HACMP. Pour ce faire, faites une modification au niveau de l’état de la grappe : déconnectez une carte de service ou arrêtez les services de grappe sur un noeud, par exemple. Au bout de quelques secondes, les interruptions HACMP s’affichent dans la fenêtre ISM Alarm. 11-18 EPC et solutions HA – Guide d’installation Animation des images ISM en fonction des interruptions reçues Vous pouvez finaliser votre image en y ajoutant des objets animés en fonction des interruptions HACMP reçues. Voici une procédure type. 1. Sur l’image ISM, dessinez une nouvelle icône, un objet de type cluster, par exemple. Sélectionnez-le. 2. Appelez le menu Animate d’ISM Monitor, puis le sous-menu Animate By. Sur le menu qui s’affiche, activez la case Alarms et désactivez la case Attribute. 3. Rappelez le menu Animate. Sélectionnez successivement Animate By, Configure et Alarms. Un panneau de configuration s’affiche. 4. Sur ce panneau, sélectionnez les alarmes qui doivent animer l’icône sélectionnée (un objet cluster, dans notre exemple). Vous pouvez spécifier différents critères de filtrage. Par exemple, pour ne prendre en compte que les interruptions HACMP issues d’une grappe donnée, appelez l’éditeur de liste Source Object et ajoutez des lignes de la forme : sysNameId=_node_nom/risc6000clsmuxpdId=node_nom/* Ainsi, si la grappe concernée contient les deux noeuds node_foo et node_bar, ajoutez les lignes : snmpSystemId=node_foo/privateId=node_foo/risc6000clsmuxpdId=node_ name/* snmpSystemId=node_bar/privateId=node_bar/risc6000clsmuxpdId=node_ name/sysNameId=node_foo/risc6000clsmuxpdId=node_foo/* sysNameId=node_bar/risc6000clsmuxpdId=node_bar/* Remarque : Un moyen simple de déterminer le nom_noeud consiste à localiser les alarmes HACMP dans une fenêtre ISM Alarm (voir l’aide en ligne ISM Alarm). Pour animer l’icône associée à l’occurrence d’une interruption HACMP ou un sous–ensemble d’interruptions HACMP, utilisez la fonction de filtre Specific Problem filtering. 5. Animez l’icône : appelez le menu Animate et sélectionnez Live. Le label de l’icône passe au rouge ou au vert. Couleur du label d’icône • Si le label passe au vert, aucune interruption HACMP n’a été reçue jusqu’ici. Si vous générez des interruptions HACMP (pour le test) en modifiant la grappe, le label passe au rouge dans les secondes qui suivent. • Si le label passe au rouge, des interruptions HACMP ont été reçues. Pour afficher les interruptions, sélectionnez l’icône cluster concernée, appelez le menu associé et sélectionnez ISM Alarm. Une fenêtre ISM Alarm s’ouvre, affichant toutes les interruptions HACMP émises par les démons clsmuxpd actifs sur les différents noeuds de grappe. Contrôle des erreurs liées au disque Pour contrôler les erreurs liées au disque, utilisez l’agent alixd d’ISM UNIX. Lorsqu’une erreur se produit, ce dernier génère automatiquement des interruptions dans le journal des erreurs AIX. Télécontrôle de grappe avec ISM 11-19 11-20 EPC et solutions HA – Guide d’installation Chapitre 12. Intégration d’un tiroir PCI Ce chapitre indique comment intégrer un tiroir PCI dans un rack EPC Escala au sein d’une configuration classique. Intégration d’un tiroir PCI Exemple de configuration Soit un noeud de grappe avec trois interfaces Ethernet (maintenance, secours, administration) et deux bus SCSI-DE. La configuration de base se présente comme suit : Ethernet en0 Ethernet en1 Ethernet en2 (native) scsi0 scsi1 Interface de maintenance Interface de secours Interface d’administration Les adaptateurs Ethernet de secours et scsi 1 doivent être déplacés et installés dans le tiroir PCI. Remarque : Pour éviter que les définitions d’interface ne ”polluent” la base de données ODM et rendre possible la création d’une interface supplémentaire (ent3..., scsi2), il faut retirer toutes les interfaces Ethernet et disque avant de lancer la procédure d’intégration. Procédure d’intégration Effectuez les étapes suivantes : 1. Arrêtez HACMP sur le noeud qui doit recevoir le tiroir PCI, avec ”basculement” sur l’autre noeud, afin que le service ne soit pas interrompu. Invalidez le redémarrage automatique d’HACMP au réamorçage. 2. Entrez la commande suivante : lsattr –E –l scsi1 puis notez le numéro ID scsi de l’interface. 3. Arrêtez les interfaces Ethernet et disque et déconfigurez-les comme suit : a. smit chinet sélectionnez en <x> pour l’interface en0, en1, en2 Current STATE [detach] b. rmdev –dl en <x> pour l’interface en0, en1, en2 c. rmdev –dl et <x> pour l’interface et0, et1, et2 d. rmdev –dl ent <x> pour les interfaces ent0, ent1, ent2 e. rmdev –dl hdisk <x> pour hdisk x, y ... f. rmdev –dl atf <x> pour atf x, y ... g. rmdev –dl sp <x> pour sp x, y ... h. rmdev –dl scsi 1 (pour l’adaptateur SCSI à enlever). Ne déconfigurez pas l’adaptateur scsi 0, car il doit rester en place. Sinon, n’oubliez pas de mettre à jour son numéro ID scsi après avoir isolé le bus correspondant, comme décrit ci-dessus. 4. Arrêtez le noeud : shutdown –F et mettez-le hors tension. Intégration d’un tiroir PCI 12-1 5. Déconnectez le bus SCSI de l’interface à retirer (scsi 1), puis débranchez les câbles Ethernet des adaptateurs. 6. Enlevez les adaptateurs appropriés et installez l’adaptateur de l’interface dans le tiroir PCI. 7. Installez le tiroir PCI dans le rack. 8. Branchez tous les câbles Ethernet, puis reliez un adaptateur de terminaison au connecteur arrière de l’adaptateur SCSI installé dans le tiroir PCI. 9. Déclarez le tiroir PCI (à l’aide du menu 9 du menu ”sbb”). La réponse attendue doit ressembler à la suivante. CONFIGURATION in progress WAIT # UNIT FOUND : 1 10.Mettez sous tension le noeud et son tiroir PCI, puis réamorcez AIX. 11. Reconfigurez l’interface Ethernet à l’aide de smit chinet sélectionnez en <x> x = 0 pour l’interface d’amorçage x = 1 pour l’interface de secours x = 2 pour l’interface d’administration INTERNET ADDRESS Network MASK Current STATE [@IP] [défini par l’utilisateur] [up] 12.Mettez à jour la table de routage, si nécessaire, à l’aide de smit mkroot : DESTINATION Address [default] GATEWAY Address [@IP_gateway] METRIC [défini par l’utilisateur] Network MASK [défini par l’utilisateur] 13.Pour l’interface SCSI, remplacez l’ID scsi par la valeur fournie à l’étape 2 à l’aide de smit chgscsi : sélectionnez scsi1 Adapter card SCSI ID [x] 14.Déconfigurez SCSI, atf and sp, comme suit : a. rmdev –dl atf<x> b. rmdev–dl sp<x> 15.Arrêtez la machine : shutdown –F et mettez-la hors tension. 16.Connectez le bus SCSI commun à la place de l’adaptateur de terminaison. 17.Mettez sous tension le noeud et réamorcez AIX. 18.Vérifiez que les éléments suivants sont présents : disques pilotes de disque array groupe de volumes pv –id correspondants réseau à l’aide des commandes suivantes : lsdev –Cc disk pour vérifier ”hdisk x, y, ...” lsdev –Cc array pour vérifier ”sp x, y, ...” lsdev –Cc driver pour vérifier ”atf x, y, ...” lspv pour vérifier pvid et leurs groupes de volumes associés netstat –r pour vérifier l’interface et la passerelle Ethernet 19.Lorsque vous aurez constaté que tous ces éléments fonctionnent correctement, lancez HACMP sur ce noeud. 12-2 EPC et solutions HA – Guide d’installation Annexe A. Mise en oeuvre des solutions console Cette annexe traite des différentes solutions qui peuvent être mises en oeuvre pour gérer les consoles des noeuds de grappe. Il comporte les sections suivantes : • Présentation des solutions console. • Solutions console pour solutions HA, page A-2. • Solutions console pour Escala Powerclusters (y compris le PowerConsole), page A-5. • Configuration et utilisation du concentrateur de console, page A-13. • Configuration et exploitation de l’utilitaire pwcons, page A-19. Présentation des solutions console Un noeud de grappe, comme tout serveur UNIX, requiert une console système. Si votre grappe comporte 4 noeuds, 4 consoles sont utilisées dans la grappe. Pour gérer les consoles des noeuds d’une grappe, vous avez le choix entre plusieurs solutions, basées sur les différents composants matériels. Le plus simple consiste à raccorder un terminal ASCII à chaque noeud. Toutefois, si la grappe possède plusieurs noeuds, vous pouvez juger que tous ces terminaux encombrent l’espace de votre salle informatique. En outre, utiliser plusieurs terminaux pour contrôler une grappe (qui constitue, du point de vue administratif, une entité unique) peut se révéler peu pratique. De plus, les terminaux ASCII sont peu attrayants et nombre d’administrateurs système leur préfèrent des écrans graphiques. C’est pourquoi d’autres solutions console sont proposées. Solutions console pour solutions HA Pour les solutions HA, les solutions proposées pour la gestion des consoles sont : • Solution console traditionnelle, reportez-vous page A-2. • Solution basée sur une carte multiport série, reportez-vous page A-3. Solutions console pour Escala Powerclusters Pour gérer les consoles des noeuds d’un Powercluster, vous avez le choix entre plusieurs solutions, basées sur les différents composants matériels. La solution la plus puissante, appelée PowerConsole, est sur une station de travail AIX et un concentrateur de console. La station de travail AIX peut être une plate-forme Escala série S100. Le PowerConsole et son logiciel graphique ClusterAssistant associé offrent à l’administrateur de grappe un point de contrôle unique très intéressant. Il existe encore d’autres solutions possibles. • Pour en savoir plus, reportez-vous à ”Solutions console pour Escala Powerclusters”, page A-5. Mise en oeuvre des solutions console A-1 Solutions console pour solutions HA Solution console traditionnelle Avec cette solution, chaque noeud est directement connecté à sa propre console. Chaque console est généralement un terminal ASCII relié au port console S1 du noeud à contrôler. La mise en oeuvre de cette solution console est identique à l’installation de plusieurs serveurs indépendants. La figure ci-dessous illustre un exemple de solution console traditionnelle : noeud A port S1 noeud B port S1 S terminal ASCII S terminal ASCII LEGENDE : = connexion série S Variante de la solution console traditionnelle Consoles graphiques Certaines solutions HA sont basées sur des serveurs équipés de consoles graphiques et non de terminaux ASCII. Les serveurs traitent alors les entrées et sorties via la console graphique et le port console S1 est inutilisé. Ordinateurs PC A la place de terminaux ordinaires (ASCII ou consoles graphiques), vous pouvez opter, comme consoles système, pour des ordinateurs PC connectés aux ports série S1 des noeuds de grappe. Ensuite, sur l’écran du PC, vous pouvez afficher plusieurs fenêtres d’émulation de terminal. Chaque fenêtre fait office de console système d’un noeud. Vous disposez des programmes d’émulation de terminal livrés avec MS-Windows 3.1 et avec MS-Windows 95, ou d’autres programmes de fournisseurs tiers. Cette solution console basée sur PC peut être mise en oeuvre via le module ”PC Operator’s Console Kit”, qui comporte les câbles et la documentation adéquats. Pour en savoir plus, reportez-vous au manuel PC Operator’s Console Facility User’s Guide (86 A2 94AT). A-2 EPC et solutions HA – Guide d’installation Solutions basées sur une carte multiport série Si vous souhaitez limiter le nombre de terminaux console de votre configuration, vous pouvez définir une configuration dans laquelle un ou deux terminaux gèrent plusieurs consoles. Dans une configuration de ce type, un des noeuds est équipé d’une carte série 8 ports, laquelle gère les ports console S1 des autres noeuds. Les deux figures ci-dessous illustrent des exemples de ce type de configuration. Exemple 1 : Exemple de configuration semblable à la première, mais prévue pour une grappe à 2 noeuds. noeud A port S1 carte adaptateur noeud B port S1 Exemple 2 : la figure suivante représente une configuration à 4 noeuds et un seul terminal. Un seul terminal est utilisé pour toute la grappe. Il est connecté au port S1 d’un noeud. Un seul noeud Noeud port S1 bénéficie d’un terminal A associé. Ce noeud est équipé d’un carte d’adaptation adaptateur 8 ports. Les autres noeuds ne sont pas associés à un terminal. Leurs ports S1 sont connectés à l’adaptateur 8 ports du noeud auquel est associé un terminal. Noeud B port S1 Noeud C port S1 Noeud D port S1 Pour le noeud A, ce terminal est une console classique. En outre, une fois connecté au noeud A, vous avez accès aux consoles (ports S1) des autres noeuds (voir la commande pwcons, plus loin dans ce chapitre). Adaptateur 8 ports connecté à sa carte d’adaptation sur le noeud A. Remarque : Sur tous les modèles Escala, le port série S1 est dédié aux connexions console. Mise en oeuvre des solutions console A-3 Exemple 3 : la figure suivante représente la même configuration que ci-dessus exceptée l’utilisation de deux terminaux physiques. Deux terminaux sont utilisés pour toute la grappe. Cet exemple de configuration peut comporter plus de noeuds. noeud A port S1 noeud F noeud B noeud C Pour le noeud A, ce terminal est une console ordinaire. En outre, dès que vous êtes connecté au noeud A, vous prenez le contrôle des consoles (ports S1) des autres noeuds (voir la commande pwcons, plus loin dans ce chapitre). port S1 port S1 noeud port S1 D autre port série Un noeud (appelé ”noeud de référence”), ici le noeud A, est équipé d’un terminal et d’une carte multiport qui répartit les liaisons vers les ports S1 des autres noeuds. Le second terminal est raccordé à un autre noeud quelconque. Le second terminal est utilisé comme console ordinaire par le noeud D. Il ne peut servir à accéder aux ports S1 des autres noeuds. Avantages et inconvénients des solutions basées sur une carte série multiport Les configurations où un seul terminal gère plusieurs consoles (comme dans les trois exemples ci-dessus) permettent de gagner de l’espace, et d’économiser quelques mètres de câbles. Le choix d’une configuration de ce type semble donc judicieux. Toutefois, sur des configurations où chaque noeud n’est pas associé à un terminal physique, ce choix présente quelques inconvénients. En particulier, si le noeud auquel est reliée la carte multiport vient à faillir, vous ne pouvez plus l’exploiter pour accéder aux ports S1 (ports console) des autres noeuds : vous devez, le cas échéant, connecter physiquement un terminal au port S1 concerné. Ce qui n’est pas très simple. Par ailleurs, il est rarement nécessaire en pratique d’exploiter un système à partir de sa console. Utilitaire pwcons Lorsque les consoles sont gérées par le biais d’une carte multiport, pwcons (un utilitaire livré avec le module BullCluster), peut être utilisé à partir du terminal unique pour contrôler les consoles (ports S1) des différents noeuds. Pour en savoir plus, reportez-vous à ”Configuration et exploitation de l’utilitaire pwcons”, page A-19. A-4 EPC et solutions HA – Guide d’installation Solutions console pour Escala Powerclusters Composants des solutions console pour Escala Powerclusters Pour gérer les consoles des noeuds d’une grappe, vous avez le choix entre plusieurs solutions, basées sur les différents composants matériels, rappelés ci-après. • Tout Powercluster est livré avec un terminal ASCII conventionnel (modèle BQ306), appelé console système, voir page A-5. • Le terminal ASCII peut être remplacé par un écran graphique, voir page • Outre ce terminal ASCII, suivant les options que vous avez commandées, les configurations Powercluster peuvent comporter : – soit un terminal X, appelé console de grappe, voir page A-6, – soit une station de travail Escala série S100 appelée PowerConsole, voir page A-6. • Un concentrateur de console (serveur de communication 3Com CS/2600) peut également être utilisé : – il est fourni en standard avec les configurations de plus de deux noeuds, et avec les configurations 2 noeuds équipées d’une station de travail PowerConsole, voir page A-7. • Un concentrateur (hub) Ethernet (Hub 10 3Com SuperStack II TP 12 ports) peut être fourni avec toute configuration Powercluster, pour implémeter un réseau d’administration dédié, voir page A-7. Rôle des composants des solutions console Nombre de configurations peuvent être réalisées via les composants des solutions console. Voici quelques indications sur leur utilisation possible. Il vous appartient de déterminer la configuration correspondant à vos besoins. A titre d’exemple, reportez-vous aux configurations illustrées ci-après. Console système (terminal ASCII) La console système (terminal ASCII) est disponible dans les configurations en grappe suivantes : • Si la configuration intègre un concentrateur de console, le terminal ASCII peut servir de console de secours. Dans ce cas, maintenez le terminal connecté au concentrateur. Si le concentrateur vient ensuite à faillir (ce qui entraîne la perte de l’accès à tous les ports de console S1), ou qu’une panne se produit au niveau de la console graphique, vous pouvez connecter provisoirement le terminal de secours au port console S1 d’un noeud, et l’utiliser comme console jusqu’à ce que l’unité défaillante soit réparée. • Si la configuration est dépourvue de concentrateur de console (voir ci-dessous), le terminal ASCII peut être utilisé comme console système ordinaire de l’un des noeuds de grappe. Dans ce cas, connectez-le port console S1 du noeud concerné. • L’exemple 1, page A-3, est une solution de base applicable à un powercluster à 2 noeuds sans console de grappe ni PowerConsole. Mise en oeuvre des solutions console A-5 Ecran graphique Un écran graphique peut être utilisé comme une alternative à la console système dans les configurations en grappe suivantes : • Dans une Powercluster à un seul noeud, il peut directement remplacer une console système. • Dans une Powercluster à deux noeuds, une console système est connectée à un noeud, et un écran graphique au second. C’est la solution mise en oeuvre dans l’architecture avec reprise après incident. Remarque : Aucun écran graphique n’est disponible pour un EPC800. Console de grappe (terminal X) La console de grappe (terminal X) est équipée d’un port série qui peut être exploité à partir d’une fenêtre d’émulation de terminal, donnant ainsi accès aux consoles système. Le terminal X peut être amorcé à partir de sa propre mémoire résidente (cette capacité accroît sa disponibilité, car le terminal X n’a pas à télécharger son logiciel via le réseau et il peut être lancé même si les ressources réseau ne sont pas disponibles). Le terminal X peut être utilisé comme suit : • Il peut être directement raccordé via son port série au port console S1 d’un noeud. • Dans une mise en oeuvre à deux noeuds, un hub d’administration est exigé. • Si la configuration intègre un concentrateur de console (voir ci-dessous), le terminal X peut être connecté via son port série au concentrateur, lequel à son tour assure la gestion des ports console S1 des différents noeuds. Dans les deux cas, il faut également connecter le terminal X au réseau, pour bénéficier des fonctions de multifenêtrage et de calcul inhérentes au réseau. Ce peut être soit réseau d’administration dédié, installé via le concentrateur fourni, soit le réseau d’entreprise. En l’absence d’un hub d’administration (pas de réseau d’administration dédié), le concentrateur de console et la console de grappe doivent être connectés au réseau d’entreprise. PowerConsole Le PowerConsole, disponible en option avecPowerclusters, est une station de travail AIX qui fournit un point de contrôle unique pour la gestion des grappes. Il est normalement utilisé en conjonction avec une console. La station de travail sert à la fois de point d’accès (via le concentrateur) aux différentes consoles système, et de puissante station de travail capable d’exécuter n’importe quel utilitaire d’administration. Le PowerConsole est livré avec ClusterAssistant, un ensemble d’applications graphiques exécutées sur PowerConsole pour configurer, gérer et contrôler les grappes. ClusterAssistant est intégré à CDE (Common Desktop Environment), qui propose un environnement basé sur la trilogie fenêtres /icônes /souris. Les opérations en deviennent plus simples et plus ”intuitives”. A-6 EPC et solutions HA – Guide d’installation Station de travail Escala série S Concentrateur de console Le concentrateur de console (serveur de communication 3Com CS/2600) permet de regrouper les ports de console S1 de tous les noeuds, de sorte qu’ils sont ainsi accessibles à partir d’un seul point d’accès. Ce qui évite de devoir disposer d’un terminal ASCII par noeud de grappe - impératif lourd pour les grappes comportant de plus de deux noeuds. A défaut, le PowerConsole est connecté au réseau public du client, pour accéder au noeud pour la gestion. Concentrateur (hub) Le concentrateur (Hub 10 3Com SuperStack II TP 12 ports) offre douze ports 10Base-T (paire torsadée). Il est principalement conçu pour implémenter un réseau d’administration dédié, qui interconnecte les unités concernant la console (concentrateur de console, console de grappe, PowerConsole) et les noeuds de grappe. Disposer d’un réseau d’administration indépendant est une garantie de sécurité. Mise en oeuvre des solutions console A-7 Exemples de configuration console pour PowerClusters Cette section présente quelques configurations classiques. Notez qu’il s’agit de simples exemples, et qu’il existe bien d’autres configurations possibles. Pour connaître des configurations de console réelles, reportez-vous au manuel EPC Guide de câblage. Exemple 1 (grappe 2 noeuds, console de grappe) La figure ci-dessous décrit une grappe à deux noeuds (A et B), dont les consoles sont gérées via une console de grappe (terminal X). Dans cette configuration : • Seul le noeud A dispose d’un terminal directement connecté. Le noeud A est équipé d’une carte série 8 ports, et le port S1 du noeud B est connecté à cette carte 8 ports. Remarque : les configurations basées sur une carte 8 ports sont également décrites à la section ”Solutions console basées sur une carte multiport ”, page A-3). • Le contrôle de la console du noeud A est effectué via la ligne série et la fenêtre d’émulation de terminal du terminal X. • Une fois connecté au noeud A (via la ligne série), vous pouvez prendre le contrôle de la console du noeud B, via la commande pwcons. Cette commande est décrite à la section ”Configuration et exploitation de l’utilitaire pwcons”, page A-19. • Pour une sécurité maximale, nous avons choisi d’utiliser le concentrateur pour implémenter un réseau d’administration indépendant, qui interconnecte les noeuds et le terminal X. A partir de celui-ci, vous avez accès aux deux noeuds via le réseau, et vous pouvez à volonté exécuter les utilitaires d’administration, en profitant de la fonction de multifenêtrage du terminal X. S noeud A port S1 Ethernet 8 noeud B port S1 S Ethernet N N terminal X N concentrateur Exemple 1 LEGENDE : = connexion série S N = connexion série 8 = carte 8 ports Exemple 2 (variante de l’exemple 1) La figure ci-dessous illustre une variante de l’exemple 1, où le terminal ASCII est utilisé. Il illustre une grappe à deux noeuds (A et B), dont les consoles sont gérées par une console système (terminal ASCII) et une console de grappe (terminal X). Dans cette configuration : • Le terminal ASCII permet de contrôler la console (port S1) du noeud A. • Le terminal X, via une ligne série et une fenêtre d’émulation de terminal, permet de contrôler la console du noeud B. A-8 EPC et solutions HA – Guide d’installation • Comme dans l’exemple 1, le concentrateur est utilisé pour implémenter un réseau d’administration indépendant, qui interconnecte les noeuds et le terminal X. noeud A port S1 S terminal ASCII Ethernet noeud B port S1 S Ethernet Exemple 2 N N N terminal X LEGENDE : = connexion série S concentrateur N = connexion série Exemple 3 - PowerConsole (grappe de N noeuds, station de travail AIX et concentrateur de console) La figure ci-dessous décrit une grappe à trois noeuds (A, B et C), dont les consoles sont gérées via un concentrateur de console CS/2500 et une station de travail AIX (PowerConsole). Notez que, bien que cet exemple concerne une grappe de 3 noeuds, des configurations similaires peuvent être réalisées sur des grappes à deux noeuds ou à plus deux noeuds. Dans cette configuration : • La station de travail est connectée à un port série (J4, par exemple) du concentrateur. Dans ce cas, la station doit être à proximité du PowerCluster. • Un terminal ASCII est connecté au port série J0 du concentrateur. Sur un concentrateur CS/2600, ce port J0 est spécial en ce sens qu’il sert à accéder aux menus et aux commandes qui permettent de gérer le concentrateur. • Les ports console S1 des noeuds sont connectés aux ports série J1, J2 et J3 du concentrateur. Ainsi, tous ces ports console sont accessibles via le concentrateur. • A partir de la station de travail, vous avez à tout moment accès, via les fonctions du concentrateur, à n’importe lequel des ports du concentrateur. Vous pouvez ainsi contrôler la console (S1) de n’importe quel noeud. Pour en savoir plus sur la configuration et l’utilisation du concentrateur, reportez-vous à ”Configuration et utilisation du concentrateur de console”, page A-13. Notez en outre ce qui suit : • Si le concentrateur vient ensuite à faillir (ce qui entraîne la perte de l’accès à tous les ports de console S1), vous pouvez connecter provisoirement le terminal ASCII au port console S1 d’un noeud, et l’utiliser comme console jusqu’à ce que l’unité défaillante soit réparée. • Pour une sécurité maximale, nous avons choisi d’utiliser le concentrateur pour implémenter un réseau d’administration indépendant, qui interconnecte les noeuds, le concentrateur et la station de travail. A partir de celle-ci, vous avez accès aux noeuds via le réseau, et vous pouvez à volonté exécuter les utilitaires d’administration, en profitant des fonctions informatiques de la station de travail. En l’absence de concentrateur, le PowerConsole et le concentrateur de console sont connectés au réseau Ethernet de l’entreprise. Mise en oeuvre des solutions console A-9 • Si vous implémentez RSF (Remote Services Facilities, un logiciel dédié au contrôle des erreurs), connectez le modem RSF à la ligne série S2 de la station de travail, configurez RSF sur la station de travail et sur les noeuds. Remarque : La station de travail Escala série S100 est dotée d’un modem interne. • Pour en savoir plus sur la configuration de RSF, reportez-vous à la documentation RSF. S noeud A port S1 N station de travail AIX Ethernet S noeud B port S1 N Ethernet S noeud C port S1 N N terminal ASCII connecté au port d’administration J0 du concentrateur. Ethernet S Hub Concentrateur de console J0 LEGENDE : =connexion série S N connexion réseau N Connexion RS232 Unité d’interconnexion Exemple 4 (grappe de N noeuds, terminal X et concentrateur de console) Vous pouvez implémenter une variante de l’exemple 3 ci-dessus, consistant à utiliser un terminal X (console de grappe) au lieu d’une station de travail (PowerConsole). Le schéma logique est identique. Dans cette configuration : • Le terminal X peut être connecté, via son port série, à un port série (J4, par exemple) du concentrateur. • Un terminal ASCII est connecté au port série J0 du concentrateur. Sur un concentrateur CS/2600, ce port J0 est spécial en ce sens qu’il sert à accéder aux menus et aux commandes qui permettent de gérer le concentrateur. • Les ports console S1 des noeuds sont connectés aux ports série J1, J2 et J3 du concentrateur. Ainsi, tous ces ports console sont accessibles via le concentrateur. • A partir du terminal X, vous avez à tout moment accès, via les fonctions du concentrateur, à n’importe lequel des ports du concentrateur. Vous pouvez ainsi contrôler la console (S1) de n’importe quel noeud. Pour en savoir plus sur la configuration et l’utilisation du concentrateur, reportez-vous à ”Configuration et utilisation du concentrateur de console”, page A-13. A-10 EPC et solutions HA – Guide d’installation Guides pour le câblage du concentrateur Remarque : Cette section ne traite que de la connexion des ports série du concentrateur aux différentes consoles possibles, et explique comment implémenter une connexion Ethernet entre le concentrateur et le hub. Pour des informations sur le câblage des ports console S1 des serveurs (noeuds de grappe), reportez-vous à la documentation matérielle du serveur et au manuel EPC – Guide de câblage. Remarque : Un câble série est un câble droit (non torsadé). La figure ci-dessous illustre les pièces requises pour implémenter une connexion série entre le port série d’une console de grappe (terminal X) et un port série du concentrateur. terminal X système concentrateur 25M câble série 25F 25M câble série 9M LEGENDE : 25M = connecteur série, mâle, 25 broches 25F = connecteur série, femelle, 25 broches 9M = connecteur série, mâle, 9 broches La figure ci-dessous illustre les pièces requises pour implémenter une connexion série entre un terminal ASCII BQ306 et un port série (J0, généralement) du concentrateur. concentrateur console Int. 25M câble série 25F terminal ASCII LEGENDE : 25M = connecteur série, mâle, 25–broches 25F = connecteur série, femelle, 25–broches Int. = interposeur 25M/25M Mise en oeuvre des solutions console A-11 Hub (concentrateur) Le concentrateur de console est équipé d’un port AUI (Ethernet épais). Si vous prévoyez de connecter le concentrateur au hub fourni, lequel est équipé de ports RJ45 (Ethernet à paire torsadée), vous devez utiliser un émetteur-récepteur Ethernet TPC10, comme décrit ci-après. émetteur récepteur TPC10 câble Ethernet à paire torsadée concentrateur console port Ethernet AUI hub ports Ethernet RJ45 Remarques sur le montage dans une armoire Il existe un kit en option permettant de monter le concentrateur de console dans l’armoire. ATTENTION : Lorsque vous installez le concentrateur de console dans l’armoire, la température extérieure ne doit pas dépasser 35 _C. A-12 EPC et solutions HA – Guide d’installation Configuration et utilisation du concentrateur de console Remarques préliminaires La procédure ci-dessous ne présente que les grandes lignes des opérations. Pour en savoir plus sur la configuration, l’utilisation et la gestion du concentrateur de console, reportez-vous aux manuels du serveur de communication multiprotocole CS/2600. Dans la procédure exemple ci-dessous, nous supposons que votre configuration comporte un terminal ASCII (BQ306) connecté au port d’administration J0 du concentrateur et dédié à la gestion du concentrateur. Le débit de transmission des données doit être de 9600 bauds. Remarque : D’autres configurations non standard sont possibles (par exemple, le port administratif J0 peut être connecté à la station de travail AIX). Munissez-vous d’une disquette (3½ ”, double face/densité) pour copier la disquette 3Com d’origine. Avant de poursuivre, lisez le Bulletin de logiciel (SRB) livré avec le logiciel PowerConsole. Il indique les contraintes et les restrictions relatives à l’environnement, ainsi que les informations de dernière minute, le cas échéant. Connexions réseau du PowerConsole Réseau d’administration dédié Lorsqu’elle se trouve sur un réseau d’administation indépendant (dédié), la configuration HACMP des grappes (gérées par le PowerConsole ou la console de grappe) doit être modifiée pour y inclure ce réseau. Ce réseau doit être déclaré ”public” dans HACMP. Remarque : Il est important que l’administration HACMP ”voit” l’attribut du réseau comme ”public”. Sur chaque noeud, l’interface du réseau Ethernet (avec le réseau d’administration) doit être configurée comme suit : • Configuration AIX Lancez la commande smit chinet sur chaque noeud pour configurer les interfaces Ethernet du réseau d’administration dédié. Sur chaque noeud, mettez à jour le fichier /etc/host (noms et adresses des interfaces). – Configuration HACMP – Connectez-vous à l’un des noeuds – Modifiez la configuration HACMP pour y inclure la carte utilisée par le réseau d’administration sur chaque noeud : – smit hacmp – Cluster configuration – Cluster Topology – Configure Adapters – Add an Adapter Mise en oeuvre des solutions console A-13 – La fenêtre suivante s’affiche : Add an Adapter Type or select values in entry fields. Press Enter AFTER making all desired changes. [Entry Fields] * Adapter IP Label * Network Type * Network Name * Network Attribute * Adapter function Adapter Identifier Adapter Hardware Ad Node Name F1=Help F8=Image n=Find Next F2=Refresh F9=Shell [] [ether] [<name>] public service [] [] [] F3=Cancel F10=Exit + + + + + F6=Command /=Find – Effectuez les sélections et appuyez sur Entrée. – Répétez les trosi dernières étapes pour inclure la carte sur chaque noeud. – Synchronisez la topologie de la grappe sur tous les noeuds. Réseau public de grappe Les adresses IP du PowerConsole et des ports CS2600 doivent appartenir au même sous-réseau que les adresses d’amorçage et de service des noeuds. Amorçage du concentrateur de console • Le terminal ASCII (connecté au port d’administration J0 du concentrateur) doit être correctement configuré, et présenter les caractéristiques suivantes : débit de 9600 bauds, 8 bits par caractère, 1 bit d’arrêt, pas de parité, DTR ignoré, duplex intégral et echo désactivé. • Insérez la disquette d’amorçage dans l’unité de disquette du concentrateur (la disquette est libellée ”83-0377-004 CS/2600 SW/2500-TO-3270-LOCAL”). Mettez ensuite le concentrateur sous tension, et attendez la fin des autotests et de l’initialisation : voyant “autotest” jaune et voyant disquette éteints (au moins 3 minutes). A-14 EPC et solutions HA – Guide d’installation Configuration des paramètres de base du concentrateur • Lancez un réamorçage matériel du concentrateur, comme expliqué dans le manuel CS/2500 Series Communication Server Installation Guide. L’accès au commutateur d’interruption du matériel est représenté sur la figure. Accès au commutateur d’interruption du matériel ! Attention Prise d’air Utilisez uniquement un objet non conducteur, comme une pointe en plastique, pour appuyer sur le commutateur d’interruption du matériel. N’utilisez pas la pointe d’un crayon. Les particules en graphite sont susceptibles de produire des décharges électriques et d’endommager des composants sur les cartes de circuit du serveur. • Patientez un instant et appuyez deux ou trois fois sur Entrée (à intervalle de 1 seconde), jusqu’à afficher “3Com Corporation CS/2600 Series Monitor”, suivi de l’invite de commande > sur la console ASCII. • Sur la nouvelle disquette 3½ ”, effectuez une copie de la disquette d’origine. A l’invite >, entrez : co <Enter> Pour afficher la liste des commandes disponibles, à l’invite >, entrez : ? Reportez-vous au besoin aux instructions du manuel CS/2600 Installation Guide. Placez la disquette d’origine en lieu sûr (utilisez désormais la copie). • A l’invite >, entrez ; fc <Enter> Le menu “Firmware Configuration Utility Commands” s’affiche. C - Change parameters D - Display parameters Esc - Exit to monitor. Sélectionnez Change parameters, à l’invite ?, entrez : C Le menu “Change parameters” s’affiche. Modifiez les paramètres comme suit : 5. 6. A. B. Monitor Disabled Initial boot source Local Floppy Boot protocol TFTP Boot Change IP/TFTP parameters Mise en oeuvre des solutions console A-15 Sélectionnez le menu B qui apparaît lorsque vous sélectionnez le protocole d’amorçage TFTP. Modifiez les paramètres comme suit : Addr discover protocol Client Ip address Gateway address Subnet mask value Local Information CS2600 Ethernet address for example 1.0.0.10 for example 1.0.0.10 (if necessary, public network administrator) subnet mask of administration network for example: 255.0.0.0 ”Addr discover protocol” est conforme au protocole utilisé sur votre site. ”Client IP address” spécifie l’adresse IP choisie pour le concentrateur. ”Subnet mask value” spécifie le masque de sous-réseau du réseau LAN d’administration (dédié ou public). • Appuyez plusieurs fois sur Echap pour quitter les menus et revenir à l’invite > du moniteur. • Effectuez une réinitialisation logicielle du concentrateur en appuyant sur le bouton de réinitialisation situé sur le panneau avant. Attendez la fin des autotests (voyants ”autotest” et ”état d’amorçage” éteints – au moins 1 minute). Patientez encore deux minutes, que le voyant disquette s’éteigne. Appuyez plusieurs fois sur Retour, jusqu’à afficher l’invite : Welcome to the 3Com Communication [1] CS> • Pour effectuer des tâches de configuration plus poussées, vous devez passer au niveau de privilège ”Network Manager”. Entrez la commande : [1] CS> set pri = nm <Enter> Le concentrateur demande un mot de passe. Appuyez sur Entré (au départ, aucun mot de passe n’est défini). Une nouvelle invite apparaît, indiquant que vous vous trouvez au niveau de privilège Network Manager (administrateur de réseau) : [2] cs# • A partir de là, vous pouvez configurer les paramètres de base du concentrateur (date, heure, nom système, mot de passe...), comme décrit dans la documentation du serveur de communication multiprotocole CS/2600. Une fois les paramètres définis, mettez à jour la liste des services autorisés, via la commande : cs# set cs = all <Enter> • Une nouvelle invite s’affiche : [3] cs# • Déclarez à nouveau l’adresse IP client affectée (plus haut) au concentrateur, par exemple : cs# setd -ip net = 1.0.0.10 <Enter> (CS/2600 Ethernet address) A-16 EPC et solutions HA – Guide d’installation Configuration des ports du concentrateur de console Vous devez à présent configurer les ports série du concentrateur (J1, J2, J3...) connectés aux ports console S1 ou COM1 des noeuds de grappe. Remarque : Lorsque vous entrez une commande à l’invite cs#, pour désigner un port du concentrateur, vous devez spécifier une expression de la forme !n où n est le numéro du port. Par exemple, l’expression !2 désigne le port série J2 du concentrateur. • Le port J0 du concentrateur doit être configuré comme un port de terminal. Par ailleurs, les ports série (J1, J2, J3...), connectés aux ports S1 ou COM1 des noeuds de grappe ou des unités interconnectées, doivent être définis comme ports hôte. Par défaut, tous les ports sont configurés comme ports de terminal. Vous n’avez qu’à modifier les ports connectées aux noeuds de grappe ou aux unités interconnectées. Par défaut, le paramètre débit est défini à autobaud. Les ports hôte doivent être configurés à 9600 bauds. A titre d’exemple, voici les deux commandes à entrer pour configurer le port J1 comme port hôte, avec le débit en bauds approprié : [3] cs# setd !1 –term dv = host <Enter> [4] cs# setd !1 –term baud = 9600 <Enter> [5] cs# setd !1 –term autd = <x> <Enter> où <x> = 1 à 16 000 minutes. Cette option définit le délai d’inactivité du port au bout duquel il est “auto-déconnecté”. Répétez ces commandes pour les autres ports (!2, !3...) à configurer et achever la configuration. • Affectez une adresse IP à chaque port série connecté à un noeud de grappe ou “switch”. Par exemple, pour affecter à l’adresse IP du port J1 la valeur 1.0.0.11, entrez : [7] cs# setd !1 –tcpappl porm = <@IP1> <Enter> où <@IP1> est l’adresse IP du port J1 connecté au port S1 ou COM1 du noeud 1, par exemple : 1.0.0.11. Répétez cette étape pour chaque port connecté au port console S1 ou COM1 d’un noeud ou d’unités interconnectées. Vérification des paramètres du concentrateur • Pour vérifier les adresses IP affectées aux ports du concentrateur, entrez : [8] cs# sh –tcpappl porm <Enter> • Pour vérifier les paramètres du port hôte J1, entrez : [9] cs# sh !1 dp <Enter> Lancez des commandes similaires pour les autres ports (!2, !3...) dont les paramètres doivent être vérifiés. Vérification de la connexion réseau du concentrateur Pour vérifier que le concentrateur peut communiquer via le réseau, faites appel à la commande ping. Vous pouvez, par exemple, utiliser l’adresse IP de la station PowerConsole comme argument de la commande ping. [10] cs# ping @IP_<nom> <Enter> (par exemple, ping 1.0.0.20) Si la connexion au réseau est OK, la commande ping renvoie le message : pinging... 140.184.33.122 is alive Mise en oeuvre des solutions console A-17 Vérification de l’état LISTEN sur les ports du concentrateur de console Pour vérifier que les ports du concentrateur, connectés à S1 sur les noeuds, sont à l’état LISTEN, entrez : [6] cs# sh -term all <Enter> Le port 0 est à l’état ”command”. Les autres ports, connectés à S1, doivent être à l’état ”LISTEN”. Si ce n’est pas le cas, déconnectez les ports via la commande logout : [10] cs# logout !1 <Enter> pour le port J1, par exemple. Mise à jour du fichier /etc/hosts sur le PowerConsole Sur une station de travail PowerConsole, vous devez mettre à jour le fichier /etc/hosts en y intégrant les adresses IP définies pour le concentrateur. Ces adresses comprennent l’adresse IP du concentrateur lui-même, ainsi que les différentes adresses IP affectées aux différents ports hôte (J1, J2...) du concentrateur, connectés aux noeuds. Par exemple, si vous configurez une grappe HACMP de 3 noeuds (appelés par exemple jazz, java et bebop), vous avez attribué des adresses IP aux ports J1, J2 et J3 du concentrateur, auquel cas vous devez ajouter les entrées appropriées ci–après (en adaptant les noms et les adresses à votre configuration) dans le fichier /etc/hosts : 120.154.33.10 120.154.33.54 120.154.33.51 120.154.33.52 120.154.33.53 concentrator EstrellaLink jazz_console java_console bebop_console Remarque : Suivant votre configuration, vous pouvez être amené à mettre à jour /etc/hosts sur d’autres machines également ou, le cas échéant sur le serveur de noms utilisé sur votre site. Accès aux ports console des noeuds via le concentrateur Une fois les éléments du PowerConsole configurés comme indiqué dans ce chapitre, le PowerConsole peut se connecter aux noeuds via le port console série (au moyen du concentrateur de console). Vous pouvez ainsi accéder aux consoles des noeuds pour effectuer d’autres tâches de configuration. Pour accéder au port console d’un noeud, appelez la commande telnet avec l’adresse IP souhaitée comme argument. Utilisation de Telnet • Par exemple, pour accéder à la console du noeud connecté au port J1 du concentrateur, en supposant que vous avez affecté au port J1 l’adresse IP 120.154.33.51, entrez la commande : telnet 120.154.33.51 <Enter> Une fois cette commande lancée, vous accédez à la console système du noeud, comme vous l’auriez fait à partir d’un terminal ASCII conventionnel directement raccordé au port console S1 du noeud. • Pour fermer une session telnet, appuyez simultanément sur Ctrl et sur ]. Une fois déconnecté, vous revenez à l’invite telnet>. A ce stade, entrez : q <Enter> ou quit <Enter> A-18 EPC et solutions HA – Guide d’installation Configuration et exploitation de l’utilitaire pwcons Présentation de pwcons L’utilitaire pwcons est livré avec le module BullCluster. Cet utilitaire est particulièrement utile pour les configurations équipées d’un seul terminal où les consoles sont gérées par le biais d’une carte multiport (voir exemples de configurations à la section ”Solutions console basées sur une carte multiport”, page A-3, et à la section ”Exemple 1”, page A-8). pwcons est un script shell, résidant dans le répertoire /usr/sbin, qui repose sur des fichiers de configuration que vous devez définir, comme indiqué à la section ”Définition des fichiers de configuration pwcons”, ci-après. Scénario et commentaires Supposons que le noeud A soit relié à un terminal, et que les ports S1 des autres noeuds de la grappe (noeud B, noeud C, etc.) soient connectés à une carte multiport sur le noeud A. Pour accéder aux consoles des autres noeuds : 1. A partir de la console du noeud A, connectez-vous au noeud A. 2. La connexion établie, entrez une commande du type : pwcons -c ttyx où ttyx est le nom de l’unité correspondant au port série (sur la carte multiport le plus souvent) connecté au port S1 du noeud à atteindre. Par exemple, la commande pwcons -c tty4 indique que vous souhaitez utiliser l’unité tty4. Si tty4 correspond au port (sur la carte multiport) auquel est connecté le port S1 du noeud C, cette commande vous connecte au noeud C. Vous pouvez, au lieu du nom d’une unité ttyx, spécifier un nom symbolique (chaîne mnémonique arbitraire, nom de noeud le plus souvent). Ceci suppose, toutefois, de définir le fichier /etc/pwcons.conf pour déclarer la correspondance entre noms d’unité et noms symboliques. Voir plus bas. 3. Supposons que vous avez entré pwcons -c tty4, et que vous êtes donc connecté au port S1 d’un noeud donné, disons le noeud C. A partir de maintenant, tout se passe comme si vous étiez directement connecté à la console système du noeud C : – Vous recevez les messages destinés à la console du noeud C (mais vous n’avez pas accès aux messages reçus avant que vous soyez connecté à la console). – Si le noeud C est actif, sa bannière de connexion est affichée, vous invitant à entrer votre nom et votre mot de passe. Vous pouvez ainsi vous connecter au noeud C si vous le souhaitez. 4. Une fois terminé votre travail sur le noeud C, déconnectez-vous de sa console : – Si vous étiez connecté, déconnectez-vous. – Entrez la séquence ~. (tilde et point), puis Retour, pour mettre fin à la connexion. 5. Une fois la connexion fermée, vous revenez à la console d’origine (noeud A). Si vous le souhaitez, vous pouvez alors relancer la commande pwcons pour vous connecter à un autre noeud. Notez que vous ne pouvez utiliser pwcons qu’à partir du noeud auquel est associée la console (noeud C dans l’exemple). Vous ne pouvez, par exemple, prendre le contrôle de la console du noeud C, puis lancer la commande pwcons pour accéder à la console d’un troisième noeud. Vous devez revenir au noeud A avant d’établir une connexion avec une troisième console. Pour en savoir plus sur la configuration et l’utilisation de pwcons, voir ci-dessous. Mise en oeuvre des solutions console A-19 Définition des fichiers de configuration pwcons Commencez par configurer TTY avec désactivation de la fonction de connexion. Entrez : smit maktty L’ensemble des paramètres tty s’affiche. 1. Spécifiez disable dans le champ Enable LOGIN. 2. Tous les autres champs conservent leur paramètres par défaut. 3. Appuyez sur Entrée pour appliquer les paramètres. Configuration de /etc/uucp/Devices • Si vous avez commandé un Powercluster équipé d’une carte multiport, les ports série (TTY) de cette carte ont été configurés en usine. Le fichier /etc/uucp/Devices a été également défini en usine. Vous pouvez néanmoins lire les paragraphes qui suivent pour vérifier la configuration du fichier /etc/uucp/Devices, ou pour comprendre son fonctionnement. • Pour les autres configurations, consultez les paragraphes qui suivent pour configurer correctement le fichier /etc/uucp/Devices. /etc/uucp/Devices (qui est décrit en détail dans la documentation AIX standard) contient des informations sur les unités du système local susceptibles d’établir une connexion à un système distant via des utilitaires tels que cu. Le script shell pwcons est basé sur cu, et donc sur ce fichier de configuration. Le fichier /etc/uucp/Devices doit contenir une description de chaque unité TTY utilisée pour la connexion aux ports S1 des autres noeuds. Aussi, vérifiez que ce fichier est configuré comme souhaité (créez-le s’il n’existe pas, modifiez-le si nécessaire). Les descriptions TTY doivent être spécifiées par des lignes au format : Direct ttyx - 9600 direct où ttyx est un nom d’unité correspondant à un port série (sur la carte multiport généralement) connecté au port S1 d’un noeud que vous souhaitez atteindre. Notez que le fichier peut comporter des commentaires (lignes introduites par un #) et des lignes vierges (elles sont ignorées). Exemple Supposons que vous implémentiez une grappe 4 noeuds, où noeud A est équipé d’une carte multiport pour la connexion aux ports S1 des trois autres noeuds (comme illustré dans l’exemple 2, page A-3). Supposons également que la carte multiport est configurée de sorte que ses ports connectés aux autres noeuds correspondent aux noms d’unité tty4, tty5 et tty6. Le fichier /etc/uucp/Devices doit également comporter les trois lignes suivantes : Direct tty4 - 9600 direct Direct tty5 - 9600 direct Direct tty6 - 9600 direct A-20 EPC et solutions HA – Guide d’installation Configuration de /etc/pwcons.conf Cette tâche est facultative. Le fichier /etc/pwcons.conf, simple outil de confort, permet de remplacer les noms d’unité (tels que tty4) par des noms symboliques, lors de la connexion à un noeud de console via pwcons. Le fichier /etc/pwcons.conf décrit les correspondances entre noms symboliques et nom d’unité TTY, pour les unités connectées aux ports S1 des autres noeuds. Il doit comporter une ligne par correspondance à définir (créez le fichier s’il n’existe pas, modifiez-le si nécessaire). Chaque ligne est au format : mnémonique ttyx où mnémonique est un nom quelconque que la commande pwcons doit interpréter comme synonyme du nom de l’unité ttyx. Le plus souvent, vous spécifierez un mnémonique correspondant au nom du noeud accessible via ttyx. Notez que le fichier peut comporter des commentaires (introduits par un #). Exemple Supposons que vous implémentiez une grappe 4 noeuds, où alpha est un noeud équipé d’une carte multiport utilisée pour la connexion aux ports S1 des trois autres noeuds. Supposons que la carte multiport est configurée de sorte que ses tty4, tty5 et tty6 soient connectés aux ports S1 des noeuds beta, gamma et delta. Si /etc/pwcons.conf n’existe pas ou n’est pas configuré, vous pouvez vous connecter à la console de beta via la commande pwcons -c tty4. Ce qui suppose de retenir les numéros des tty. Par contre, si vous configurez /etc/pwcons.conf comme suit : beta tty4 gamma tty5 delta tty6 Vous pouvez alors vous connecter à la console de beta avec la commande pwcons -c beta. Ce qui est plus simple, les noms de noeud étant plus aisés à mémoriser que les numéros de tty. Syntaxe de la commande pwcons L’objet de pwcons, expliqué ci-dessus, est supposé connu. Syntaxe /usr/sbin/pwcons [ -c ttyx | mnémonique ] | [ -s ttyx | mnémonique ] | [ -S ] | [ -d ttyx | mnémonique ] | [ -D ] Indicateurs [ -c ttyx | mnémonique ] Etablit la connexion avec un tty spécifique, identifié soit par son nom d’unité ttyx, soit par le mnémonique correspondant, tel que défini dans le fichier /etc/pwcons.conf (décrit plus haut). A l’ouverture d’une connexion, un fichier de verrouillage est créé, qui déclare le tty verrouillé. Le mécanisme de verrouillage de fichier est identique au fichier de verrouillage de cu (cu est un programme de la famille uucp - pour en savoir plus, reportez-vous à la documentation AIX). Une fois connecté, vous pouvez mettre fin à la connexion à tout moment, via la séquence de touches ~. (tilde et point), puis Retour. (Si vous étiez connecté, déconnectez-vous avant de clore la connexion.) Mise en oeuvre des solutions console A-21 [ -s ttyx | mnémonique ] Affiche l’état d’un tty spécifique. Il est soit ouvert, soit fermé. Un tty fermé n’est pas verrouillé : vous pouvez vous y connecter. Un tty ouvert est verrouillé : vous ne pouvez pas vous connecter à un tty verrouillé sauf à forcer une déconnexion à le déverrouiller (voir les indicateurs -d et -D). Si un tty est ouvert, l’indicateur -s affiche les numéros de processus des commandes qui l’ont ouvert. [ -S ] Affiche l’état de tous les tty de la liste /etc/pwcons.conf. [ -d ttyx | mnémonique ] Force la déconnexion d’un tty spécifique, de sorte qu’il devient fermé et déverrouillé. Vous pouvez utiliser cette fonction si la connexion à un tty n’aboutit pas parce qu’il est verrouillé. Normalement, un tty n’est verrouillé que lorsque quelqu’un y est connecté et l’utilise. Toutefois, il peut également être verrouillé parce qu’une session de communication a été interrompue anormalement, sans fermeture correcte de la connexion. [ -D ] A-22 Force la déconnexion de tous les tty de la liste /etc/pwcons.conf. EPC et solutions HA – Guide d’installation Annexe B. Implémentation de la solution console de grappe Cette annexe traite de l’installation du terminal X. Procédure d’installation du terminal X Le terminal X est connecté comme illustré sur la figure. noeud A port S1 Ethernet terminal X S 8 noeud B port S1 S Ethernet N N Légende: = connexion série S N concentrateur N =connexion réseau 8 carte 8 ports ATTENTION : Ne branchez pas les cordons d’alimentation au boîtier du terminal X et à l’avant du moniteur avant d’y être invité. 1. Installez l’extension mémoire et la carte PCMCIA, préalablement configurée pour l’écriture. Reportez-vous au chapitre 5 du manuel ”Installing Your Explora Familly System”. 2. Connectez le câble vidéo entre le boîtier du terminal X et le moniteur. 3. Connectez le terminal X au concentrateur Superstack II Hub 10 via un câble RJ45/RJ45 (CBF5410). 4. Connectez le boîtier du terminal X: au concentrateur de console via des câbles RS232 (CBL 1912, CBLG106–2000), sinon, à la fiche S1 d’un noeud Powercluster via des câbles RS232 (CBL 1912, CBLG105–1800). 5. Connectez le clavier et la souris au boîtier du terminal X. 6. Branchez le câble d’alimentation au boîtier du terminal X et au moniteur. 7. Mettez sous tension le boîtier du terminal X. 8. Mettez sous tension le moniteur (voyant vert allumé). Pour en savoir plus sur les voyants et commutateurs, reportez-vous au manuel ”17 Professional Color Monitor – User’s Guide”. 9. Vous pouvez interrompre le démarrage automatique du terminal X en tapant ESC une fois les tests de mise sous tension terminés. 10.A l’invite >, tapez la commande se et appuyez sur ENTREE pour appeler le menu principal. 11. Sélectionnez « keyboard » pour définir le type de clavier (IBM PS/2 ou N101). Implémentation de la solution console de grappe B-1 12.Sélectionnez « Monitor » pour définir la fréquence de résolution du moniteur. ATTENTION : Sélectionner une résolution inappropriée peut endommager le moniteur. Vérifiez que la résolution adoptée est prise en charge par le moniteur. Reportez-vous au manuel ”17 Professional Color Monitor – User’s Guide”. 13.Sélectionnez « Network », puis définissez les paramètres suivants : Get IP Address from: Terminal IP Address: Subnet Mask: NVRAM @IP of XT Subnet Mask 14.Sélectionnez « Boot », puis définissez les paramètres suivants : TFTP Boot Directory: TFTP Order: NFS Order: MOP Order Local Order /local/ Disabled Disabled Disabled 1 15.Sélectionnez « Done », puis « Reboot ». 16.A l’invite >, si l’amorçage n’est pas automatique, tapez : >BL et appuyez sur ENTREE. 17.Une fois l’amorçage terminé, deux ou trois fenêtres s’affichent : une fenêtre Setup & Configuration (en haut à gauche) une fenêtre telnet une fenêtre console système correspondant à la ligne série RS232 (prise S1 d’un noeud Powercluster), si le terminal X est directement connecté à la prise S1 d’un noeud. 18.Dans la fenêtre Setup & Configuration, sélectionnez « Window Manager » et lancez « NCD Window Manager » en cliquant sur l’icône qui lui est associée. 19.Dans la fenêtre telnet, ou après ouverture de ”New Telnet” dans ”TERMINAL” de la fenêtre de définition : Tapez, dans le champ Service, l’adresse IP d’un autre noeud et cliquez sur OK pour établir la session telnet. Ouvrez autant de fenêtres New Telnet qu’il y a de noeuds restants : passez à la fenêtre Setup & Configuration, sélectionnez Terminal, puis New Telnet et tapez l’adresse IP du noeud dans le champ Service. 20.Pour que l’amorçage à la mise sous tension soit entièrement automatique, sélectionnez le menu SETUP dans la fenêtre Setup and Configuration, puis sélectionnez : Change Setup Parameters Booting Validez « Boot automatically at power-up ». Sauvegardez la configuration en sélectionnant « Apply ». B-2 EPC et solutions HA – Guide d’installation 21.Pour que l’établissement d’autres sessions telnet sur les autres noeuds soit automatique, sélectionnez, dans la fenêtre Setup : SETUP Change Setup Parameter Commands and Startup Puis, pour chaque noeud, indiquez l’adresse IP dans la ligne de commande : term –ctype telnet <@IP> –geometry ...–title <node name>...–n<node abbr>... Sauvegardez la configuration en cliquant sur « Apply ». 22.A la mise sous tension suivante, désactivez la configuration “écriture admise” de la carte PCMCIA. Implémentation de la solution console de grappe B-3 B-4 EPC et solutions HA – Guide d’installation Index Symboles C /.rhosts, 7-4 /etc/hosts, 4-6, 7-4, 11-3, 11-4, 11-17 mise à jour du fichier, A-18 /etc/pwcons.conf, A-21 /etc/snmpd.conf, 11-3 /etc/uucp/Devices, A-20 /usr/sbin/bullcluster/install/samples, 3-2 /usr/sbin/cluster/clusterview, 10-3 /usr/sbin/cluster/events/utils/mailtoroot, 8-4 câblage guide, A-11 montage dans une armoire, A-12 spécifique du hub (concentrateur), A-12 câble, 3-13 câble en Y, 3-13 Cable Type, 7-9 Carte. Voir SCSI carte ID SCSI, 4-7 PCI Fibre Channel, 6-4 SSA, 3-22 carte de secours, 4-5, 7-12 carte de service, 7-12 carte SCSI, 6-2 Cartes PCI Fibre Channel, 6-4, 6-5 SCSI, terminaison simple, 6-3 Cartes pour bus MCA, 6-2 Chapter, title, more information, X-1 clé de licence, 10-28 clsmuxpd, 11-3 cluster configuration (menu), A-13 Cluster ID, 7-9 Cluster Name, 7-9 Cluster Resources Modification, 9-1 cluster topology (menu), A-13 cluster.clvm, 5-1 ClusterWatch, 1-5 commandes maktty, A-20 pwcons, A-21 composant, grappe, 1-4 concentrateur, PCI Fibre Channel, 6-5 concentrateur de console, A-6 configuration et utilisation, A-13 état LISTEN des ports, A-18 concepts, reprise après sinistre, 1-1 concurrent (accès), 1-2 Concurrent Resource Manager (logiciel), 1-4 configuration concentrateur de console, A-13 paramètres du concentrateur de console, A-15 utilitaire pwcons, A-19 configuration AIX, A-13 configuration de la topologie. Voir configuration initiale rapide configuration de reprise après incident, 10-24 configuration HA native simple, partagée, 3-8 configuration HACMP, A-13 A Add a File System to a Resource Group, 9-14 Add a Logical Volume to a Resource Group, 9-11 Add a Resource Group, 9-4 Add a Service IP Label to a Resource Group, 9-17 Add a Volume Group to a Resource Group, 9-8 Add an Adapter (menu), A-13 administration. Voir outil de gestion adresse d’amorçage, 7-12 adresse d’amorçage IP, 4-5 adresse de service IP, 4-5 adresse IP, 4-4 AIX, configuration, A-13 alias d’adresse IP, 10-5 Alternate Hardware Address, 7-10 Apply Configuration Definitions, 7-11 Architecture de stockage en série (SSA). Voir SSA (carte) armoire d’extension disque, 3-7, 3-8 armoire d’extension partagée, 3-9 ArrayGUIde, 10-29 ATF (Application Transparent Failover), 3-12 ATM, 3-3 B basculement d’adresse IP, 4-4, 4-7 ajout d’un label de service IP, 9-17 alias, 10-5 bibliothèques de bandes, 1-11 Boot Address, 7-10 BQ306, A-13 Bull Cluster Easy Configuration, 7-5 BullCluster outil de gestion, 9-1 présentation du module, 1-4 SRB, 5-1 Index X-1 configuration initiale rapide, 7-1 actions exécutées, 7-12 annulation, 7-14 composants LVM (groupes de volumes...), 8-2 configurations acceptées, 7-2 finalisation, 8-1 menu Quick Initial Configuration, 7-5 tâches de préconfiguration (choix de la méthode), 7-1 configuration jumelée (FDDI), 3-5 Configure Adapters (menu), A-13 Configure IP Aliasing? (menu), 10-6 connexion, réseau PowerConsole, A-13 console, grappe, A-6 console ASCII, A-15 console de grappe, A-6 console système, A-5 consoles configurations classiques, A-8 écran graphique, A-6 PowerConsole, A-6 Create and add an Application Server to a Resource Group, 9-19 CRM. Voir Concurrent Resource Manager (logiciel) D Default GATEWAY Address, 7-9 démon timed, 10-27 dépannage, outil de diagnostic, 10-1 diagnostic (outil), 10-1 disque Voir aussi sous-système DAS configuration, 6-6 modèles acceptés, 1-7 Disques de sous–systèmes EMC Symmetrix partagés, Configuration de base avec HACMP, 3-26 DSMIT, 10-28 G Gestion des sous–systèmes DAS, 10-29 grappe, 1-1 Voir aussi outil de gestion noeuds, 1-4 personnalisation du traitement, 10-27 groupe de ressources, ajout, 9-4 groupe de volumes Voir aussi système de fichiers; volume logique brut ajout, 9-8 configuration, 8-2 diffusion générale des définitions, 9-20 sous-système DAS, 8-5 H HA Native, 10-18 HA native, 10-17 implémentation, 10-17 HACMP accès au menu principal, 7-5 configuration, A-13 configuration des serveurs d’application et des ressources, 8-1 généralités, 1-4 interruptions, 11-17 MIB, 11-5, 11-14 SRB, 5-1 HACMP heartbeat, 10-24 haute disponibilité concept, 1-1 duplication du matériel, 1-4 hôte, 4-7, 7-12 hub d’administration, A-6 I E écran graphique, A-6 restriction relative au EPC800, A-6 utilisé avec la fonction de reprise après incident, A-6 Emplacements de disques en grappe, 3-19 Escala Powercluster, consoles, A-5 événement, notification par messagerie électronique, 8-3 événement de grappe, traitement, 10-27 F FDDI, 3-3, 3-4 Fibre Channel carte PCI, 6-4 cartes PCI, 6-4, 6-5 concentrateur, 6-5 configurations, 3-17 fichier de configuration, 7-8 vérification, 7-15 fichier de configuration snmpd, 11-3 fichiers de configuration, pwcons, A-20 X-2 fonction HA native, 3-6 EPC et solutions HA – Guide d’installation iFOR/LS, 10-28 Inactive Takeover Activated, 9-5 Input Configuration File, 7-8 installation, logiciel, 5-1 installation logicielle finalisation, 8-1 finalisation de l’installation matérielle, 6-1 généralités, 2-1 matériel de base, 4-1 méthode de configuration, 7-1 Integrated System Management (ISM), 11-1 intégration procédure, 12-1 tiroir PCI, 12-1 interruption, 11-17 IP (adresse), 4-4 IP Address, 7-10 IP Aliasing Configuration (menu), 10-5 IPAT. Voir basculement d’adresse IP ISM concepts, 11-1 télécontrôle de grappe, 11-1 K kit console, 4-2 L libellé WSA1, 6-2 Logical Volume Disks, 9-12 logiciel ATF, désactivation d’auto-assign, 6-8 LUN, 3-13, 6-7 LVM (composants). Voir groupe de volumes M Mailing List, 8-4 mailtoroot, 8-4 matériel, installation logicielle. Voir installation logicielle MIB, 11-4 mise en miroir, 9-9, 9-15 N Navisphere, 10-29 Network Interface, 7-10 Network MASK, 7-9 Network Type, 7-9 noeud composants d’une grappe, 1-3 nom de noeud, 4-6 nom de noeuds, 7-6 O Outil d’instantané BullCluster, utilisation, 7-15 outil de gestion conseils, 10-1 ressources de grappe, 9-1 télécontrôle de grappe, 11-1 Output Configuration File, 7-8, 7-11 P PCI drawer, Configuration, Example, 12-1 permutation d’adresse, 7-13 planification, 3-1 ports série, 3-2 réseaux, 3-3 stockage partagé HA étendue, 3-20 stockage partagé HA native, 3-6 Planning, Shared EMC Symmetrix Subsystem Disks, 3-25 PORT Number, 7-10 port série, 3-2 ports console des noeuds, accès, A-18 Powercluster, composants, 1-3 PowerConsole, A-6 connexion réseau, A-13 privé, réseau, A-13 procédure d’installation, terminal X, B-1 processeur de stockage, 1-9 Propagate Volume Group Definition on all nodes, 9-9, 9-20 pwcons, A-19 syntaxe de la commande, A-21 R RAID, 3-13, 6-7 Voir aussi sous–système DAS; systèmes de stockage Symmetrix Remove a File System from a Resource Group, 9-16 Remove a Logical Volume from a Resource Group, 9-13 Remove a Resource Group, 9-6 Remove a Service IP Label from a Resource Group, 9-18 Remove a Volume Group from a Resource Group, 9-10 Remove an Application Server from a Resource Group, 9-19 Remove Cluster Configuration, 7-14 Remove hacmp only or all definitions?, 7-14 reprise après incident, A-6 réseau, 3-10, 4-4, 7-13 Voir aussi FDDI; réseau connexion, 6-1 installation logicielle, 4-2 public, 3-3 réseau d’administration, dédié, A-13 réseau de grappe, public, A-14 réseau privé, A-13 réseau public, A-14 Rolling Applications, 10-7 RS-232, 7-13 S SCSI Voir aussi câble adresse (ID), 4-7 cartes à terminaison simple, 6-3 libellé 4-6, 6-2 terminaison interne, 6-3 terminaisons SCSI, 6-2 SCSI (carte), 6-2 Send Mail for Cluster Events Notification, 8-3 Serial Adapter, 7-10 Serial Network Type, 7-9 série, 3-10 serveur, 1-4 serveur d’application, ajout, 9-19 Service Address, 7-10 Service Interface, 7-9 Show Cluster State, 10-3 Show Resources for a Resource Group, 9-7 smit hacmp, 7-5 smit hacmp (menu), A-13 smit quickconf, 7-5 snmpd, 11-3 snmpd.conf, 11-17 snmpinfo -o /usr/sbin/cluster/hacmp.defs -m dump -v clsmuxpd, 11-4 solution console, traditionnelle, A-2 Index X-3 solutions console basées sur une carte multiport, A-3 pour Escala Powerclusters, A-5 solutions console pour solutions HA, A-2 solutions HA composants, 1-3 console, A-2 sous-système DAS, caractéristiques, 1-8 sous-système DAS ArrayGUIde, 10-29 auto-assign et ATF, 6-8 câble, 3-13 configuration, 6-7 groupes de volumes partagés, 8-5 logiciel ATF, 3-12 planification, 3-10 SPOF, 1-4 SRB, 5-1 SSA (carte) ”Serial Storage Architecture”, 1-10 caractéristiques, 1-10 topologie en boucle, 3-22 Standby Address, 7-10 Standby Interface, 7-10 stockage EMC, configuration complémentaire, 6-8 stockage partagé HA étendue, 3-20, 10-24 Symmetrix (EMC), 1-11 Symmetrix CDA (systèmes de stockage), 1-11 synchronisation, 10-27 système, console, A-5 système de fichiers, ajout, 9-14 T Telnet, A-18 template.cfg, 7-6, 7-8 terminal X, A-6 procédure d’installation, B-1 tiroir PCI intégration, 12-1 procédure d’intégration, 12-1 trespass, 8-7 TUXEDO, suppresion de serveurs d’application, 9-19 U unité d’extension disque, HA, 10-19 UPS, 3-2 Utilisation, outil d’instantané BullCluster, 7-15 utilisation concentrateur de console, A-13 pwcons, A-4 Telnet, A-18 utilitaire pwcons, A-19 utilitaire, 10-3 utilitaire, exemple, 3-2 V Verify Configuration Definitions, 7-15 volume logique brut, ajout, 9-11 X X25, suppression de serveurs d’application, 9-19 X-4 EPC et solutions HA – Guide d’installation Vos remarques sur ce document / Technical publication remark form Titre / Title : Bull Escala série EPC EPC et solutions HA - Guide d’installation Nº Reférence / Reference Nº : 86 F2 79HX 05 Daté / Dated : Septembre 1999 ERREURS DETECTEES / ERRORS IN PUBLICATION AMELIORATIONS SUGGEREES / SUGGESTIONS FOR IMPROVEMENT TO PUBLICATION Vos remarques et suggestions seront examinées attentivement. Si vous désirez une réponse écrite, veuillez indiquer ci-après votre adresse postale complète. Your comments will be promptly investigated by qualified technical personnel and action will be taken as required. If you require a written reply, please furnish your complete mailing address below. NOM / NAME : SOCIETE / COMPANY : ADRESSE / ADDRESS : Remettez cet imprimé à un responsable BULL ou envoyez-le directement à : Please give this technical publication remark form to your BULL representative or mail to: BULL ELECTRONICS ANGERS CEDOC 34 rue du Nid de Pie – BP 428 49004 ANGERS CEDEX 01 FRANCE Date : Technical Publications Ordering Form Bon de Commande de Documents Techniques To order additional publications, please fill up a copy of this form and send it via mail to: Pour commander des documents techniques, remplissez une copie de ce formulaire et envoyez-la à : BULL ELECTRONICS ANGERS CEDOC ATTN / MME DUMOULIN 34 rue du Nid de Pie – BP 428 49004 ANGERS CEDEX 01 FRANCE Managers / Gestionnaires : Mrs. / Mme : C. DUMOULIN Mr. / M : L. CHERUBIN +33 (0) 2 41 73 76 65 +33 (0) 2 41 73 63 96 FAX : E–Mail / Courrier Electronique : +33 (0) 2 41 73 60 19 [email protected] Or visit our web site at: / Ou visitez notre site web à: http://www–frec.bull.com (PUBLICATIONS, Technical Literature, Ordering Form) CEDOC Reference # No Référence CEDOC Qty Qté CEDOC Reference # No Référence CEDOC Qty Qté CEDOC Reference # No Référence CEDOC __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] __ __ ____ _ [__] Qty Qté [ _ _ ] : no revision number means latest revision / pas de numéro de révision signifie révision la plus récente NOM / NAME : Date : SOCIETE / COMPANY : ADRESSE / ADDRESS : PHONE / TELEPHONE : FAX : E–MAIL : For Bull Subsidiaries / Pour les Filiales Bull : Identification: For Bull Affiliated Customers / Pour les Clients Affiliés Bull : Customer Code / Code Client : For Bull Internal Customers / Pour les Clients Internes Bull : Budgetary Section / Section Budgétaire : For Others / Pour les Autres : Please ask your Bull representative. / Merci de demander à votre contact Bull. 86 F2 79HX 05 PLACE BAR CODE IN LOWER LEFT CORNER BULL ELECTRONICS ANGERS CEDOC 34 rue du Nid de Pie – BP 428 49004 ANGERS CEDEX 01 FRANCE Utiliser les marques de découpe pour obtenir les étiquettes. Use the cut marks to get the labels. Escala série EPC AIX EPC et solutions HA Guide d’installation 86 F2 79HX 05 Escala série EPC AIX EPC et solutions HA Guide d’installation 86 F2 79HX 05 Escala série EPC AIX EPC et solutions HA Guide d’installation 86 F2 79HX 05