▼
Scroll to page 2
of
76
Dell EMC PowerProtect Data Manager pour Kubernetes Guide de l’utilisateur Version 19.9 Septembre 2021 Rév. 01 Remarques, précautions et avertissements REMARQUE : Une REMARQUE indique des informations importantes qui peuvent vous aider à mieux utiliser votre produit. PRÉCAUTION : ATTENTION vous avertit d’un risque de dommage matériel ou de perte de données et vous indique comment éviter le problème. AVERTISSEMENT : un AVERTISSEMENT signale un risque d’endommagement du matériel, de blessure corporelle, voire de décès. © 2016 - 2021 Dell Inc. ou ses filiales. Tous droits réservés. Dell, EMC et les autres marques commerciales mentionnées sont des marques de Dell Inc. ou de ses filiales. Les autres marques peuvent être des marques commerciales de leurs propriétaires respectifs. Table des matières Préface......................................................................................................................................................................................... 5 Chapitre 1: Présentation de PowerProtect Data Manager pour Kubernetes.......................................... 9 À propos des sources de ressources, des ressources et du stockage........................................................................... 9 À propos des sources de ressources et des ressources d’espaces de nommage du cluster Kubernetes........... 9 À propos des clusters invités Tanzu Kubernetes et des clusters superviseurs......................................................10 Conditions préalables........................................................................................................................................................... 10 Utilisation des ports.............................................................................................................................................................. 11 Sécurité basée sur des rôles............................................................................................................................................... 17 Feuille de route pour la protection du cluster Kubernetes.............................................................................................. 17 Feuille de route pour la protection du cluster invité Tanzu Kubernetes........................................................................17 Mise à jour de PowerProtect Data Manager vers la version 19.9 ou ultérieure dans un environnement Kubernetes........................................................................................................................................................................18 Mise à jour de PowerProtect Data Manager vers la version 19.9 ou ultérieure dans un environnement Kubernetes..................................................................................................................................................................18 Chapitre 2: Activation du cluster Kubernetes...................................................................................20 Ajout d’une source de ressources du cluster Kubernetes..............................................................................................20 Conditions préalables pour la protection de cluster invité Tanzu Kubernetes.............................................................20 Configuration du cluster superviseur.......................................................................................................................... 20 Conditions requises pour la découverte de clusters Kubernetes................................................................................... 21 Activation d’une source de ressources.............................................................................................................................22 Désactivation d’une source de ressources................................................................................................................. 22 Suppression d’une source de ressources......................................................................................................................... 22 Ajout d’un VMware vCenter Server..................................................................................................................................23 Spécifier un vCenter Server en tant qu’hôte PowerProtect Data Manager......................................................... 25 Désactiver la validation de certificat SSL vCenter....................................................................................................26 Ajout d’un cluster Kubernetes........................................................................................................................................... 26 Ajout d’un moteur VM Direct.............................................................................................................................................28 Chapitre 3: Gestion du stockage, des ressources et de la protection des clusters Kubernetes.............. 31 Ajout d’un stockage de protection.....................................................................................................................................31 Ajout d’une règle de protection des espaces de nommage Kubernetes...................................................................... 32 Ajout d’un programme Niveau Cloud à une règle de protection................................................................................... 36 Rétention plus longue..........................................................................................................................................................37 Modification de la période de conservation des copies de sauvegarde....................................................................... 39 Suppression de copies de sauvegarde..............................................................................................................................39 Nouvelle tentative de suppression d’une copie de sauvegarde en échec..............................................................40 Exportation des données des copies de sauvegarde supprimées............................................................................ 41 Suppression de copies de sauvegarde de la base de données PowerProtect Data Manager..............................41 Ajout d’un contrat de niveau de service........................................................................................................................... 42 Chapitre 4: Restauration des espaces de nommage et des PVC Kubernetes........................................46 Afficher les copies de sauvegarde disponibles pour la restauration..............................................................................46 Restauration d’un espace de nommage Kubernetes...................................................................................................... 47 Table des matières 3 Restauration sur l’espace de nommage d’origine...................................................................................................... 48 Restauration sur un nouvel espace de nommage......................................................................................................49 Restauration sur un espace de nommage existant.................................................................................................... 51 Restauration en libre-service des espaces de nommage Kubernetes.......................................................................... 52 Chapitre 5: Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes........... 54 Modifications de configuration requises pour l’utilisation d’un chemin d’accès des données optimisé et de disques de première classe............................................................................................................................................ 54 Recommandations et remarques relatives à l’utilisation d’un cluster Kubernetes...................................................... 55 Prise en charge de l’écrasement root NFS (Network File System)..............................................................................57 Présentation du moteur de protection VM Direct.......................................................................................................... 57 Considérations relatives au mode de transport......................................................................................................... 58 Configuration matérielle requise pour un Moteur VM Direct externe.................................................................... 59 Actions VM Direct supplémentaires............................................................................................................................59 Résolution des problèmes de configuration du réseau....................................................................................................61 Résolution des problèmes liés au cluster Kubernetes......................................................................................................61 Les sauvegardes échouent ou se bloquent sur OpenShift après une nouvelle installation de PowerProtect Data Manager ou une mise à jour à partir de la version 19.8 ou d’une version antérieure..... 64 Les opérations de protection des données pour le cluster Kubernetes haute disponibilité peuvent échouer lorsque le serveur API n’est pas configuré pour envoyer le certificat racine..................................... 64 Considérations relatives aux certificats des clusters Kubernetes sur Amazon Elastic Kubernetes Service......65 Suppression des composants de PowerProtect Data Manager d’un cluster Kubernetes...................................65 Augmentation du nombre de threads de travail dans le pilote de sauvegarde du cluster superviseur en cas d’expiration de Velero........................................................................................................................................ 66 La sauvegarde et la restauration du pod Velero peuvent échouer si l’espace de nommage protégé contient un grand nombre de ressources.............................................................................................................. 66 Extraire des images de Docker Hub en tant qu’utilisateur authentifié si les limites d’extraction de Docker sont atteintes............................................................................................................................................................. 67 Annexe A : Sauvegardes de base de données en cohérence avec l’application dans Kubernetes............ 68 À propos des sauvegardes de base de données en cohérence avec les applications dans Kubernetes..................68 Applications de base de données prises en charge................................................................................................... 68 Conditions préalables.................................................................................................................................................... 69 Obtention et déploiement du package de l’interface de ligne de commande (CLI)................................................... 69 À propos des modèles d’application..................................................................................................................................69 Fichiers de configuration YAML....................................................................................................................................71 Actions d’application...................................................................................................................................................... 71 Actions liées à un pod.....................................................................................................................................................71 Sélecteurs....................................................................................................................................................................... 72 Déploiement de modèles d’application..............................................................................................................................73 Exécution de sauvegardes en cohérence avec l’application.......................................................................................... 74 Vérifiez les sauvegardes en cohérence avec l’application..............................................................................................74 Remarques relatives à la reprise après sinistre................................................................................................................ 75 Remarques relatives à la restauration au niveau granulaire........................................................................................... 75 Remarques relatives à la troncature des journaux...........................................................................................................76 4 Table des matières Préface En vue d’améliorer la qualité de notre ligne de produits, des révisions régulières des matériels et logiciels sont publiées. Par conséquent, il se peut que certaines fonctions décrites dans le présent document ne soient pas prises en charge par l’ensemble des versions des logiciels ou matériels actuellement utilisés. Pour obtenir les informations les plus récentes sur les fonctionnalités des produits, consultez les notes de mise à jour de vos produits. Si un produit ne fonctionne pas correctement ou fonctionne différemment de ce qui est décrit dans ce document, contactez Support Client. REMARQUE : Les informations figurant dans ce document sont exactes à la date de publication. Pour être certain d’utiliser la version la plus récente de ce document, consultez le site Web Support Client. Data Domain (DD) s’appelle désormais PowerProtect DD. Les références aux systèmes Data Domain ou DD indiquées dans cette documentation, dans l’interface utilisateur et ailleurs dans le produit, incluent les systèmes PowerProtect DD et les systèmes Data Domain plus anciens. Dans de nombreux cas, l’interface utilisateur n’a pas encore été mise à jour pour refléter ce changement. Ce document peut contenir des termes qui ne sont pas conformes aux directives actuelles de Dell Technologies. Dell Technologies prévoit de mettre à jour le document dans les prochaines versions afin de modifier ces termes en conséquence. Ce document peut contenir du texte provenant de contenu tiers qui n’est pas sous le contrôle de Dell Technologies et qui n’est pas conforme aux directives actuelles relatives au contenu de Dell Technologies. Lorsque ce contenu tiers sera mis à jour par les tiers concernés, le présent document sera modifié en conséquence. Objectif Ce document explique comment configurer et administrer le logiciel Dell EMC PowerProtect Data Manager pour protéger et restaurer les données des espaces de nommage et des PVC sur le cluster Kubernetes. Le PowerProtect Data ManagerGuide d’administration et de l’utilisateur fournit des informations supplémentaires sur les procédures de configuration et d’utilisation. Public Ce document s’adresse à l’administrateur du système hôte qui est impliqué dans la gestion, la protection et la réutilisation des données dans toute l’entreprise en déployant le logiciel PowerProtect Data Manager. Historique des révisions Le tableau ci-dessous présente l’historique des révisions de ce document. Tableau 1. Historique des révisions Révision Date Description 01 Septembre 2021 Version originale de ce document pour PowerProtect Data Manager version 19.9. Informations sur la compatibilité Des informations sur la compatibilité logicielle du logiciel PowerProtect Data Manager sont fournies dans l’eLab Navigator. Documentation connexe Les publications suivantes sont disponibles sur Support Client et fournissent des informations complémentaires : Préface 5 ● PowerProtect Data Manager Administration and User Guide (Guide de l’utilisateur et de l’administrateur de PowerProtect Data Manager) : explique comment configurer le logiciel. ● PowerProtect Data Manager Deployment Guide (Guide de déploiement de PowerProtect Data Manager) : explique comment déployer le logiciel. ● PowerProtect Data Manager Licensing Guide (Guide d’octroi de licence) : explique comment obtenir une licence pour le logiciel. ● PowerProtect Data Manager Release Notes (Notes de mise à jour de PowerProtect Data Manager) : fournit des informations sur les nouvelles fonctionnalités, les restrictions connues, l’environnement et la configuration matérielle requise pour le logiciel. ● PowerProtect Data Manager Security Configuration Guide (Guide de configuration de la sécurité de PowerProtect Data Manager) : contient des informations sur la sécurité. ● PowerProtect Data Manager AWS Deployment Guide (Guide de déploiement de PowerProtect Data Manager sur AWS) : explique comment déployer le logiciel dans un environnement Amazon Web Services (AWS). ● PowerProtect Data Manager Azure Deployment Guide (Guide de déploiement de PowerProtect Data Manager sur Azure) : explique comment déployer le logiciel sur Microsoft Azure. ● PowerProtect Data Manager GCP Deployment Guide (Guide de déploiement de PowerProtect Data Manager sur GCP) : explique comment déployer le logiciel dans un environnement Google Cloud Platform (GCP). ● PowerProtect Data Manager Cloud Disaster Recovery Administration and User Guide (Guide de l’utilisateur et de l’administrateur de PowerProtect Data Manager Cloud Disaster Recovery) : explique comment déployer la reprise après sinistre dans le Cloud, protéger les machines virtuelles sur le Cloud AWS ou Azure et exécuter des opérations de restauration. ● PowerProtect Data Manager for Cyber Recovery User Guide (Guide de l’utilisateur de PowerProtect Data Manager for Cyber Recovery) : explique comment installer, mettre à jour, corriger et désinstaller le logiciel Dell EMC PowerProtect Cyber Recovery. ● PowerProtect Data Manager for File System Agent User Guide (Guide de l’utilisateur de PowerProtect Data Manager pour l’agent de système de fichiers) : explique comment configurer et utiliser le logiciel avec l’agent de système de fichiers pour la protection des données du système de fichiers. ● PowerProtect Data Manager for Kubernetes User Guide (Guide de l’utilisateur Kubernetes de PowerProtect Data Manager) : explique comment configurer et utiliser le logiciel pour protéger et restaurer les espaces de nommage et les PVC dans un cluster Kubernetes. ● PowerProtect Data Manager for Microsoft Application Agent Exchange Server User Guide (Guide de l’utilisateur de PowerProtect Data Manager pour Exchange Server avec l’agent d’application Microsoft) : explique comment configurer et utiliser le logiciel pour protéger et récupérer les données dans un environnement Microsoft SQL Server. ● PowerProtect Data Manager for Microsoft Application Agent SQL Server User Guide (Guide de l’utilisateur de PowerProtect Data Manager pour SQL Server avec l’agent d’application Microsoft) : explique comment configurer et utiliser le logiciel pour protéger et récupérer les données dans un environnement Microsoft SQL Server. ● PowerProtect Data Manager for Oracle RMAN Agent User Guide (Guide de l’utilisateur de PowerProtect Data Manager pour l’agent Oracle RMAN) : explique comment configurer et utiliser le logiciel pour protéger et récupérer les données dans un environnement de serveur Oracle. ● PowerProtect Data Manager for SAP HANA Agent User Guide (Guide de l’utilisateur de PowerProtect Data Manager pour l’agent SAP HANA) : explique comment configurer et utiliser le logiciel pour protéger et récupérer les données dans un environnement de serveur SAP HANA. ● PowerProtect Data Manager for Storage Direct Agent User Guide (Guide de l’utilisateur de PowerProtect Data Manager avec l’agent Storage Direct) : explique comment configurer et utiliser le logiciel avec l’agent Storage Direct afin de protéger les données sur les baies de stockage VMAX via la technologie de sauvegarde de snapshot. ● PowerProtect Data Manager for Network Attached Storage User Guide (Guide de l’utilisateur de PowerProtect Data Manager pour NAS) : explique comment configurer et utiliser le logiciel pour protéger et restaurer les données sur les partages et appliances NAS (Network Attached Storage). ● PowerProtect Data Manager Public REST API documentation (Documentation PowerProtect Data Manager Public REST API) : contient les API PowerProtect Data Manager et inclut des didacticiels qui expliquent leur utilisation. Conventions typographiques Les conventions typographiques suivantes sont utilisées dans ce document : Tableau 2. Conventions de style Formatage en cours Description Gras Utilisé pour les éléments d’interface que l’utilisateur sélectionne ou sur lesquels il clique, comme les noms de boutons, de champs, d’onglets, de chemins de menus. Également utilisé pour les noms de boîte de dialogue, page, volet, zone d’écran avec titre, libellé de tableau et fenêtre. Italique Utilisé pour les titres complets de publications référencées dans le texte. Monospace Utilisé pour : 6 Préface Tableau 2. Conventions de style (suite) Formatage en cours Description ● ● ● ● code système ; sortie du système, telle qu’un message d’erreur ou un script ; noms de chemin, noms de fichier, extensions de noms de fichier, invites et syntaxe ; commandes et options. Monospace italique Utilisé pour les variables. Monospace gras Utilisé pour les entrées utilisateur. [] Les crochets entourent les valeurs facultatives. | La ligne verticale indique d’autres sélections. La ligne verticale signifie « ou » pour les autres sélections. {} Les accolades entourent le contenu que l’utilisateur doit spécifier, c’est-à-dire x, y ou z. ... Les points de suspension indiquent des informations non essentielles omises dans l’exemple. Vous pouvez utiliser les ressources suivantes pour trouver plus d’informations sur ce produit, obtenir un support et fournir des commentaires. Où trouver la documentation relative aux produits ? ● Le site Web Support Client ● Le site Community Network Où obtenir de l’aide ? Le site Web Support Client permet d’accéder à des informations sur l’octroi de licence du produit, à de la documentation, à des conseils et des téléchargements, ainsi qu’à des procédures pratiques et de dépannage. Ces informations vous aideront à résoudre un problème sur un produit sans avoir recours au Support Client. Pour accéder à une page consacrée à un produit : 1. Rendez-vous sur le site WebSupport Client. 2. Dans la zone de recherche, saisissez un nom de produit, puis sélectionnez le produit dans la liste qui s’affiche. Base de connaissances La base de connaissances (Knowledgebase) contient des solutions pratiques que vous pouvez rechercher par numéro de solution (par exemple, KB000xxxxxx) ou par mot-clé. Pour rechercher dans la base de connaissances : 1. Rendez-vous sur le site WebSupport Client. 2. Dans l’onglet Support, cliquez sur Knowledge Base. 3. Saisissez le numéro de la solution ou des mots-clés dans la zone de recherche. (Facultatif) Limitez la recherche à des produits spécifiques en saisissant un nom de produit dans la zone de recherche et en sélectionnant le produit dans la liste qui s’affiche. Chat en direct Pour participer à un chat interactif en direct avec un agent du support technique : 1. Rendez-vous sur le site WebSupport Client. 2. Dans l’onglet Support, cliquez sur Contact Support. 3. Sur la page Contact Information, cliquez sur la prise en charge correspondante, puis poursuivez. Préface 7 Demandes de service Pour obtenir une aide approfondie d’un agent du support, soumettez une demande de service. Pour soumettre une demande de service : 1. Rendez-vous sur le site WebSupport Client. 2. Dans l’onglet Support, cliquez sur Service Requests. REMARQUE : Pour créer une demande de service, vous devez disposer d’un contrat de support valide. Pour obtenir des renseignements sur un compte ou obtenir un contrat de support valide, contactez un agent commercial. Pour obtenir des renseignements sur une demande de service, saisissez son numéro dans le champ Service Request Number, puis cliquez sur la flèche droite. Pour consulter une demande de service ouverte : 1. Rendez-vous sur le site WebSupport Client. 2. Dans l’onglet Support, cliquez sur Service Requests. 3. Sur la page Service Requests, dans Manage Your Service Requests, cliquez sur View All Dell Service Requests. Communautés en ligne Consultez le site Community Network pour contacter des pairs, discuter, découvrir les solutions et accéder au support produit. Communiquez en ligne et de façon interactive avec des clients, des partenaires et des professionnels certifiés. Comment nous faire part de vos commentaires Vos commentaires nous aident à améliorer la précision, l’organisation et la qualité globale des publications. Vous pouvez envoyer vos commentaires à [email protected]. 8 Préface 1 Présentation de PowerProtect Data Manager pour Kubernetes Sujets : • • • • • • • À propos des sources de ressources, des ressources et du stockage Conditions préalables Utilisation des ports Sécurité basée sur des rôles Feuille de route pour la protection du cluster Kubernetes Feuille de route pour la protection du cluster invité Tanzu Kubernetes Mise à jour de PowerProtect Data Manager vers la version 19.9 ou ultérieure dans un environnement Kubernetes À propos des sources de ressources, des ressources et du stockage Dans PowerProtect Data Manager, les ressources constituent les unités de base protégées par PowerProtect Data Manager. Les sources de ressources sont le mécanisme utilisé par PowerProtect Data Manager pour gérer les ressources et communiquer avec lestockage de protection sur lequel sont stockées les copies de sauvegarde des ressources. PowerProtect Data Manager prend en charge Dell EMC PowerProtect DD Management Center (DDMC) en tant qu’interface de stockage et de programmation pour le contrôle des système de stockage de protection. Les sources de ressources peuvent être un vCenter Server, un cluster Kubernetes, un hôte d’application, un serveur SMIS, ou un client Cloud Snapshot Manager. Les ressources peuvent être des machines virtuelles, des bases de données Exchange, SQL, Oracle ou SAP HANA, des systèmes de fichiers, des espaces de nommage Kubernetes ou des groupes de stockage. Pour pouvoir ajouter une source de ressources, vous devez activer la source dans l’interface utilisateur PowerProtect Data Manager. À propos des sources de ressources et des ressources d’espaces de nommage du cluster Kubernetes Les clusters et conteneurs Kubernetes jouent un rôle important, car ils accélèrent et optimisent le déploiement et le développement des applications. Ils permettent également de réduire les arrêts de service lors de la mise à l’échelle de l’application. Avec PowerProtect Data Manager, vous pouvez protéger l’environnement Kubernetes en ajoutant un cluster Kubernetes en tant que source de ressources et détecter les espaces de nommage en tant que ressources pour les opérations de protection des données. Dans une charge applicative traditionnelle, il se peut que l’environnement comprenne un serveur Web, un serveur d’applications et un serveur de base de données. Dans cette configuration, le serveur Web traite les demandes en amont d’un répartiteur de charge. Pour faire évoluer cette application (en augmentant la couche Web par l’ajout de serveurs, par exemple), vous devrez faire appel à de nombreuses ressources pour modifier la configuration manuellement. Toutefois, dans un cluster Kubernetes, lorsque vous développez le code et écrivez un fichier YAML indiquant les informations requises sur les systèmes et la configuration, Kubernetes déploie ces conteneurs, et l’application peut être démarrée rapidement. En outre, pour redimensionner l’application, il vous suffit de modifier le fichier YAML et de publier le fichier mis à jour sur le cluster. Un cluster Kubernetes classique peut contenir plusieurs systèmes physiques et virtuels. Une fois que les clusters sont en cours d’exécution, les applications, les binaires et le cadre sont regroupés dans un conteneur, qui est ensuite encapsulé dans un pod. Avant d’exécuter le pod dans un cluster Kubernetes, vous devez diviser le cluster en espaces de nommage. Un espace de nommage correspond à un pool de ressources qui sont divisées de manière logique dans le cluster. Ce sont ces espaces de nommage qui sont protégés sous forme de ressources au sein d’interface utilisateur de PowerProtect Data Manager à des fins de sauvegarde et de restauration. Toutefois, comme les pods sont temporaires, Kubernetes utilise des volumes persistants pour conserver les informations sur l’état. Vous pouvez créer des volumes persistants sur des systèmes de stockage externes, puis les rattacher à un pod spécifique à l’aide des Présentation de PowerProtect Data Manager pour Kubernetes 9 revendications de volume persistant (PVC). Les PVC peuvent ensuite être inclus avec d’autres espaces de nommages dans les opérations de sauvegarde et de restauration de PowerProtect Data Manager. À propos des clusters invités Tanzu Kubernetes et des clusters superviseurs Outre la prise en charge de la protection d’un cluster Kubernetes exécuté directement sur la machine virtuelle dans un environnement vSphere, PowerProtect Data Manager prend en charge vSphere avec Kubernetes pour la protection de clusters invités Tanzu. Cette fonctionnalité est fournie par un cluster superviseur qui, contrairement aux clusters Kubernetes standard en amont, agit comme un cluster personnalisé dédié à vCenter qui comprend des services de contrôleur de machine virtuelle, l’API de cluster et le contrôleur de cluster invité. Le cluster invité Tanzu Kubernetes, qui correspond à l’endroit où résident les nœuds Worker et toutes les applications, est contrôlé et exécuté sur le cluster superviseur, et un cluster superviseur existe sur chaque cluster vSphere. Lors de la création d’un cluster invité Tanzu Kubernetes exécutant un cluster superviseur, un fichier de manifeste YAML est utilisé pour spécifier le nombre de nœuds de plan de contrôle et de nœuds Worker que vous souhaitez créer dans le cluster invité. Les services VTK invités utilisent ensuite les services de l’API de cluster pour créer le cluster invité et, en parallèle, utiliser les services d’opérateur de machine virtuelle pour créer les machines virtuelles qui composent le cluster invité. La protection du cluster invité Tanzu Kubernetes implique deux couches d’interaction : ● Un cluster de superviseur s’exécutant sur l’infrastructure vSphere agit en tant qu’autorité de contrôle qui permet de créer les clusters invités. En outre, vous pouvez créer directement des machines virtuelles qui s’exécutent sur un cluster superviseur, auxquelles le cluster superviseur fournit les fonctionnalités Kubernetes natives. ● Vous pouvez créer un cluster Kubernetes en amont et spécifier le nombre de nœuds de plan de contrôle dont vous avez besoin. Notez les différences de comportement suivantes entre la protection des clusters Kubernetes déployés directement sur vSphere et la protection des clusters Kubernetes déployés par vSphere avec Tanzu : ● Les pods qui s’exécutent dans le cluster invité Tanzu Kubernetes ne disposent pas d’un accès direct aux ressources de cluster superviseur. Par conséquent, les composants qui s’exécutent dans le cluster invité (tel que le contrôleur PowerProtect) ne peuvent pas accéder aux ressources de cluster superviseur. ● Un mappage est créé pour les volumes persistants qui sont provisionnés par vSphere CSI sur le cluster invité. Ainsi, les FCD virtuels et les volumes persistants créés sur le cluster invité sont mappés sur le cluster superviseur qui s’exécute directement sur l’infrastructure vSphere STD. ● Étant donné que les pods cProxy qui s’exécutent dans le cluster invité Tanzu Kubernetes n’ont pas accès directement aux FCD, un vProxy est déployé dans vCenter pour protéger le cluster invité. Cette protection nécessite un moteur externe VM Direct dédié aux charges applicatives Kubernetes. Lors de la protection du cluster invité, CNDM localise ce moteur VM Direct et indique au cluster invité d’utiliser ce moteur pour les opérations de sauvegarde et de restauration. La communication est alors établie entre le contrôleur PowerProtect et le plug-in Velero vSphere en cours d’exécution dans le cluster invité. Ainsi, une fois la sauvegarde créée, le plug-in vSphere peut notifier le serveur API du cluster superviseur. Le cluster superviseur effectue le snapshot FCD, renvoie l’ID du snapshot au cluster invité et, une fois que le contrôleur PowerProtect a pris connaissance du snapshot, une session est créée sur la machine virtuelle vProxy et le pod dans l’espace de nommage du cluster superviseur qui a accès aux FCD afin de faciliter le déplacement des données du FCD vers la destination de sauvegarde. Conditions préalables Assurez-vous que votre environnement réponde aux exigences d’un nouveau déploiement ou d’une mise à jour de PowerProtect Data Manager. Exigences requises : REMARQUE : Des informations les plus récentes sur la compatibilité logicielle de PowerProtect Data Manager et des agents d’application sont fournies dans l’eLab Navigator sur https://elabnavigator.emc.com/eln/modernHomeDataProtection. ● Une liste des hôtes qui écrivent des sauvegardes dans les systèmes Data Domain est disponible. ● DDOS version 6.1 ou ultérieure et PowerProtect DD Management Center sont requis. Tous les modèles de systèmes DD sont pris en charge. REMARQUE : PowerProtect DD Management Center est obligatoire avec une version DDOS antérieure à 6.1.2. Avec DDOS version 6.1.2 ou ultérieure, vous pouvez ajouter et utiliser un système DD directement sans PowerProtect DD Management Center. 10 Présentation de PowerProtect Data Manager pour Kubernetes ● Licence : une licence d’évaluation est fournie avec le logiciel PowerProtect Data Manager. Les clients Dell EMC Data Protection Suite Applications, Backup et Enterprise peuvent contacter le support Dell EMC Licensing pour obtenir de l’aide avec une licence PowerProtect Data Manager permanente. ● Les grands environnements nécessitent plusieurs instances PowerProtect Data Manager. Contactez [email protected] pour obtenir de l’aide sur les demandes de dimensionnement. ● Le fichier de téléchargement de PowerProtect Data Manager 19.9 nécessite les éléments suivants : ○ ESXi versions 6.5, 6.7 ou 7.0 ○ 8 processeurs virtuels, 18 Go de RAM, un disque de 100 Go et un disque de 500 Go. ○ La dernière version du navigateur Google Chrome pour accéder à l’interface utilisateur PowerProtect Data Manager. ○ Le port TCP 7000 doit être ouvert entre PowerProtect Data Manager et les hôtes de l’agent d’application. ● Le serveur VMware ESXi qui héberge PowerProtect Data Manager doit répondre à la configuration matérielle minimale suivante : ○ 10 cœurs de processeur ○ 18 Go de RAM pour PowerProtect Data Manager ○ Cinq disques avec les capacités suivantes : ■ Disque 1 : 100 Go ■ Disque 2 : 500 Go ■ Disque 3 : 10 Go ■ Disque 4 : 10 Go ■ Disque 5 : 5 Go ○ Une carte NIC de 1 Go Utilisation des ports Ce tableau récapitule la configuration requise pour les ports pour PowerProtect Data Manager ainsi que les composants ou systèmes internes et externes associés. PowerProtect Data Manager audite et bloque tous les ports qui ne sont pas répertoriés ci-dessous. Le document Guide de configuration de PowerProtect DD Security fournit plus d’informations sur les ports des systèmes DD et les protocoles. Tableau 3. Configuration requise des ports PowerProtect Data Manager Source system Destination system Port Protocole TLS pris en charge Remarques Clients de sauvegardea Système DD 111 TCP Non Détection et mappage des ports dynamiques. Utilisé uniquement pour la vérification des ports, et non pour les données. Clients de sauvegardea Système DD 2049 Propriétaire TLS 1.2 Chiffrement TLS de client DD Boost en option. Clients de sauvegardea Système DD 2052 TCP Non NFS mountd, pas pour les données. Clients de sauvegarde Échelle globale DD 2053 TCP TLS 1.2 Connexion DD Boost. Clients de sauvegardea PowerProtect Data Mana ger 8443 HTTPS TLS 1.2 Service API REST. Clients de sauvegarde Serveur VMAX SE 2707 Propriétaire TLS 1.2 Les clients de sauvegarde ont besoin d’accéder au port 2707 par défaut sur le serveur VMAX SE. S’applique à Storage Direct. Callhome (SupportAssist) PowerProtect Data Mana ger 22 SSH TLS 1.2 SSH à des fins de support et d’administration. Chiffrement par une clé privée ou des certificats en option. Callhome (SupportAssist) PowerProtect Data Mana ger 443 HTTPS TLS 1.2 SSH pour le support à distance. ESXi Système DDb 111 TCP Non Détection et mappage des ports dynamiques. Utilisé uniquement pour la Présentation de PowerProtect Data Manager pour Kubernetes 11 Tableau 3. Configuration requise des ports PowerProtect Data Manager (suite) Source system Destination system Port Protocole TLS pris en charge Remarques vérification des ports, et non pour les données. ESXi Système DDb 2049 Propriétaire TLS 1.2 Magasin de données NFS et DD Boost. NFS n’est pas chiffré. DD Boost est chiffré. ESXi Système DDb 2052 TCP Non NFS mountd, pas pour les données. Cluster Kubernetes Système DD 111 TCP Non Détection et mappage des ports dynamiques. Utilisé uniquement pour la vérification des ports, et non pour les données. Cluster Kubernetes Système DD 2049 Propriétaire TLS 1.2 Chiffrement TLS de client DD Boost en option. Cluster Kubernetes Système DD 2052 TCP TLS 1.2 NFS mountd, pas pour les données. Cluster Kubernetes ESXi 902 TCP TLS 1.2 Accès au client vSphere pour les PVC utilisant VMware CSI. Non requis pour les clusters invités Tanzu Kubernetes. Cluster Kubernetes vCenter 443 HTTPS TLS 1.2 Interface de gestion principale pour vSphere utilisant vCenter Server, y compris le client vSphere pour les PVC utilisant VMware CSI. Non requis pour les clusters invités Tanzu Kubernetes. Moteur de protection NAS Appliance NAS 443 HTTPS TLS 1.2 Accès de gestion pour les appliances Unity et PowerStore. Moteur de protection NAS Appliance NAS 8080 HTTPS TLS 1.2 Accès de gestion pour les appliances PowerScale/Isilon. PowerProtect Data Mana ger Clients de sauvegarde 7 000 HTTPS TLS 1.2 SQL, Oracle, Exchange, SAP HANA et système de fichiers. Cette exigence s’applique à Application Direct et VM Direct PowerProtect Data Mana ger Callhome (SupportAssist) 25 SMTP TLS 1.2 La version du protocole TLS utilisée dépend du serveur de messagerie. Protocole TLS utilisé dans la mesure du possible. PowerProtect Data Mana ger Callhome (SupportAssist) 465 TCP TLS 1.2 PowerProtect Data Mana ger Callhome (SupportAssist) 587 TCP TLS 1.2 PowerProtect Data Mana ger Callhome (SupportAssist) 9443 HTTPS TLS 1.2 API REST pour la notification de service. PowerProtect Data Mana ger Système DD 111 TCP Non Détection et mappage des ports dynamiques. Utilisé uniquement pour la vérification des ports, et non pour les données. PowerProtect Data Mana ger Système DD 2049 Propriétaire Non Connexions NFS en cas de reprise après sinistre du serveur. Utilisé uniquement pour les métadonnées, le nom du client et l’indexation, et non pour les données de sauvegarde. 12 Présentation de PowerProtect Data Manager pour Kubernetes Tableau 3. Configuration requise des ports PowerProtect Data Manager (suite) Source system Destination system Port Protocole TLS pris en charge Remarques PowerProtect Data Mana ger Système DD 2052 TCP/UDP Non NFS mountd, pas pour les données. PowerProtect Data Mana ger Système DD 3009 HTTPS TLS 1.2 Communication avec DDMC pour la configuration et la découverte. PowerProtect Data Mana ger ESXi 443 HTTPS TLS 1.2 Dépend de la configuration et de la version d’ESXi. PowerProtect Data Mana ger Cluster Kubernetes 6443 Propriétaire TLS 1.2 Connexion au serveur API Kubernetes. Le chiffrement dépend de la configuration du cluster Kubernetes. PowerProtect Data Manager prend en charge TLS 1.2. PowerProtect Data Mana ger Cluster Kubernetes 30095 Propriétaire TLS 1.2 Connexion au contrôleur PowerProtect sur le cluster Kubernetes pour extraire les fichiers log du pod du contrôleur. PowerProtect Data Mana ger Serveur LDAP 389 TCP/UDP Non Port LDAP non sécurisé, sortant uniquement. Utilisez le port 636 pour le chiffrement. PowerProtect Data Mana ger Serveur LDAP 636 TCP TLS 1.2 LDAPS, en fonction de la configuration LDAP utilisée. Sortante uniquement. PowerProtect Data Mana ger Appliance NAS 443 HTTPS TLS 1.2 Accès de gestion pour les appliances Unity et PowerStore. PowerProtect Data Mana ger Appliance NAS 8080 HTTPS TLS 1.2 Accès de gestion pour les appliances PowerScale/Isilon. PowerProtect Data Mana ger Partage NAS 139 TCP TLS 1.2 Partages de serveur de fichiers Windows (CIFS). PowerProtect Data Mana ger Partage NAS 443 HTTPS TLS 1.2 Partages NetApp (NFS et CIFS). Également utilisé pour la vérification du partage NAS. PowerProtect Data Mana ger Partage NAS 445 TCP TLS 1.2 Partages de serveur de fichiers Windows (CIFS). PowerProtect Data Mana ger Partage NAS 2049 TCP TLS 1.2 Partages de serveur de fichiers Linux (NFS). PowerProtect Data Mana ger Serveur NTP 123 NTP Non Synchronisation de l’heure. PowerProtect Data Mana ger PowerProtect Data Mana ger - Catalogue 9760 TCP Interne uniquement. Bloqué par le parefeu. PowerProtect Data Mana ger PowerProtect Data Mana ger - Configuration Manager 55555 TCP Interne uniquement. Bloqué par le parefeu. PowerProtect Data Mana ger PowerProtect Data Mana ger - Elastic Search 9200 TCP Interne uniquement. PowerProtect Data Mana ger PowerProtect Data Mana ger - Elastic Search 9300 TCP Interne uniquement. PowerProtect Data Mana ger PowerProtect Data Mana ger - Proxy de VM intégré 9095 TCP Interne uniquement. Bloqué par le parefeu. PowerProtect Data Mana ger PowerProtect Data Mana ger - Quorum Peer 2181 TCP Interne uniquement. Bloqué par le parefeu. Présentation de PowerProtect Data Manager pour Kubernetes 13 Tableau 3. Configuration requise des ports PowerProtect Data Manager (suite) Source system Destination system Port Protocole PowerProtect Data Mana ger PowerProtect Data Mana ger - RabbitMQ 5672 TCP Interne uniquement. Bloqué par le parefeu. PowerProtect Data Mana ger PowerProtect Data Mana ger - Secrets Manager 9092 TCP Interne uniquement. PowerProtect Data Mana ger PowerProtect Data Mana 9097 ger - Gestionnaire d’infrastructure VM Direct TCP Interne uniquement. Bloqué par le parefeu. PowerProtect Data Mana ger PowerProtect Data Mana ger - Orchestration VM Direct 9096 TCP Interne uniquement. Bloqué par le parefeu. PowerProtect Data Mana ger Moteur de protection 22 SSH TLS 1.2 SSH à des fins de support et d’administration. Chiffrement par une clé privée ou des certificats en option. PowerProtect Data Mana ger Moteur de protection 9090 HTTPS TLS 1.2 Service API REST. PowerProtect Data Mana ger Moteur de protection 9613c Propriétaire TLS 1.2 PowerProtect Data Mana ger Cluster de recherche 9613c Propriétaire TLS 1.2 Gestion des nœuds du moteur de recherche par l’agent de nœud d’infrastructure. PowerProtect Data Mana ger Cluster de recherche 14251 Propriétaire TLS 1.2 Point de terminaison de l’API REST de la requête de recherche. PowerProtect Data Mana ger SMI-S 5989 HTTPS TLS 1.2 Communication avec fournisseur SMI-S. Procédez à une découverte. PowerProtect Data Mana ger Système Storage Direct 3009 HTTPS TLS 1.2 Procédez à une découverte. PowerProtect Data Mana ger IU 443 HTTPS TLS 1.2 Entre l’hôte du navigateur et le système PowerProtect Data Manager. PowerProtect Data Mana ger Interface utilisateur Update Manager 14443 HTTPS TLS 1.2 Connecte l’hôte qui contient le package de mise à jour au système PowerProtect Data Manager. PowerProtect Data Mana ger vCenter 443 HTTPS TLS 1.2 API vSphere pour la restauration directe, la découverte, le lancement du mode de transport Hot Add et les restaurations, y compris la restauration Instant Access. Dépend de la configuration de vCenter. PowerProtect Data Mana ger vCenter 7444 Propriétaire TLS 1.2 Authentification unique (SSO) vCenter. PowerProtect Data Mana ger Serveur VMAX Solutions Enabler 2707 Propriétaire TLS 1.2 Fonctionnalités Storage Direct. PowerProtect Data Manager utilise le port de serveur par défaut de Solutions Enabler pour les étapes de la configuration et pour contrôler la gestion active des snapshots pour SnapVX, notamment pour PP-VMAX. Moteur de protection Système DD 111 TCP Non Détection et mappage des ports dynamiques. Utilisé uniquement pour la vérification des ports, et non pour les données. 14 Présentation de PowerProtect Data Manager pour Kubernetes TLS pris en charge Remarques Tableau 3. Configuration requise des ports PowerProtect Data Manager (suite) Source system Destination system Port Protocole TLS pris en charge Remarques Moteur de protection Système DD 2049 Propriétaire TLS 1.2 Chiffrement TLS de client DD Boost en option. Moteur de protection Système DD 2052 TCP Non NFS mountd, pas pour les données. Moteur de protection Système DD 3009 HTTPS TLS 1.2 Service API REST pour DD. Moteur de protection ESXi 443 HTTPS TLS 1.2 Connexions client. Moteur de protection ESXi 902 TCP TLS 1.2 Accès au client vSphere. Moteur de protection Machine virtuelle invitée 9613c Propriétaire TLS 1.2 L’agent VM Direct offre des fonctionnalités de restauration en mode fichier et de protection compatible avec les applications. Moteur de protection Conteneur Docker de l’agent NAS 443 HTTPS TLS 1.2 S’applique uniquement au NAS. Interne uniquement. Bloqué par le pare-feu. Moteur de protection Cluster de recherche 14251 TCP TLS 1.2 Point de terminaison de l’API REST de la requête de recherche. Moteur de protection vCenter 443 HTTPS TLS 1.2 Interface de gestion principale pour vSphere utilisant vCenter Server, y compris le client vSphere. Moteur de protection vCenter 7444 TCP TLS 1.2 Service de token sécurisé. Moteur de protection Moteur de protection RabbitMQ 4369 TCP Interne uniquement. Bloqué par le parefeu. Moteur de protection Moteur de protection RabbitMQ 5672 TCP Interne uniquement. Bloqué par le parefeu. Cluster de recherche Système DD 111 TCP Non Reprise après sinistre du serveur. Détection et mappage des ports dynamiques. Utilisé uniquement pour la vérification des ports, et non pour les données. Cluster de recherche Système DD 2049 Propriétaire Non Connexions NFS en cas de reprise après sinistre du serveur. Utilisé uniquement pour les métadonnées, le nom du client et l’indexation, et non pour les données de sauvegarde. Cluster de recherche Système DD 2052 TCP/UDP Non Reprise après sinistre du serveur. Monté NFS, pas pour les données. Système DD source Système DD cible 111 TCP Non Détection et mappage des ports dynamiques. Utilisé uniquement pour la vérification des ports, et non pour les données. Système DD source Système DD cible 2049 Propriétaire TLS 1.2 Système DD source Système DD cible 2051 Propriétaire TLS 1.2 Système DD source Système DD cible 2052 TCP Non NFS mountd, pas pour les données. Système DD cible Système DD source 111 TCP Non Détection et mappage des ports dynamiques. Utilisé uniquement pour la vérification des ports, et non pour les données. Système DD cible Système DD source 2049 Propriétaire TLS 1.2 Présentation de PowerProtect Data Manager pour Kubernetes 15 Tableau 3. Configuration requise des ports PowerProtect Data Manager (suite) Source system Destination system Port Protocole TLS pris en charge Système DD cible Système DD source 2051 Propriétaire TLS 1.2 Système DD cible Système DD source 2052 TCP Non NFS mountd, pas pour les données. Interface utilisateur Update Manager PowerProtect Data Mana ger 14443 HTTPS TLS 1.2 Connecte l’hôte qui contient le package de mise à jour au système PowerProtect Data Manager. Utilisateur PowerProtect Data Mana ger 22 SSH TLS 1.2 SSH à des fins de support et d’administration. Chiffrement par une clé privée ou des certificats en option. Utilisateur PowerProtect Data Mana ger 80 HTTP Non Redirection vers HTTPS. Utilisateur PowerProtect Data Mana ger 443 HTTPS TLS 1.2 Connecte l’hôte du navigateur au système PowerProtect Data Manager. Utilisateur PowerProtect Data Mana ger 8443 HTTPS TLS 1.2 Service API REST. Utilisateur Cluster de recherche 22 SSH TLS 1.2 SSH à des fins de support et d’administration. Chiffrement par une clé privée ou des certificats en option. Utilisateur Moteur de protection 22 SSH TLS 1.2 SSH à des fins de support et d’administration. Chiffrement par une clé privée ou des certificats en option. vCenter ESXi 443 HTTPS TLS 1.2 Connexion du client vSphere à la gestion de l’hôte ESXi/ESX. vCenter PowerProtect Data Mana ger 443 HTTPS TLS 1.2 Interface utilisateur du plug-in de vCenter. vCenter PowerProtect Data Mana ger 8443 HTTPS TLS 1.2 Service API REST. vCenter PowerProtect Data Mana ger 9009 HTTPS TLS 1.2/1.3 Fournisseur VASA (vSphere APIs for Storage Awareness), service SPBM (Storage Policy Based Management) dans PowerProtect Data Manager. a. b. c. Remarques S’applique à Application Direct, Storage Direct et VM Direct (compatible uniquement avec les applications des machines virtuelles). Restauration Instant Access. Connexion NFS établie sous le contrôle de vSphere par PowerProtect Data Manager à partir du nœud ESXi vers le système DD. Peut être acheminé vers un nœud ESXi quelconque, de sorte que les ports autorisés sont ceux reliant tout nœud ESXi à tout système DD utilisé par PowerProtect Data Manager. Le numéro de port est la valeur par défaut que vous pouvez modifier en fonction de l’agent et qui peut changer de manière dynamique en cas de conflit d’écoute. Le terme « moteur de protection » dans ce tableau fait référence à tous les types de moteur de protection : VM Direct, NAS et Kubernetes, sauf indication contraire. Pour les sauvegardes compatibles avec les applications des machines virtuelles, ouvrez les ports pour le moteur de protection et pour les clients de sauvegarde sur la machine virtuelle invitée. Pour les ressources NAS, ouvrez tous les ports personnalisés entre PowerProtect Data Manager, le Moteur de protection NAS et le NAS qui peuvent être requis pour l’accès à des partages spécifiques. Vous pouvez fournir des informations sur les ports personnalisés pour les connexions aux partages et aux appliances NAS dans le cadre du processus d’ajout de sources de ressources NAS. 16 Présentation de PowerProtect Data Manager pour Kubernetes Sécurité basée sur des rôles PowerProtect Data Manager fournit des rôles d’utilisateur prédéfinis qui contrôlent l’accès aux zones de l’interface utilisateur et aux opérations protégées. Certaines fonctionnalités de ce guide sont réservées à des rôles particuliers et peuvent ne pas être accessibles à partir de chaque compte utilisateur. En utilisant les rôles prédéfinis, vous pouvez limiter l’accès à PowerProtect Data Manager et aux données de sauvegarde en appliquant le principe du privilège minimum. Le PowerProtect Data Manager Security Configuration Guide (Guide de configuration de la sécurité de PowerProtect Data Manager) fournit plus d’informations sur les rôles utilisateur, y compris les privilèges associés et les tâches que chaque rôle peut effectuer. Feuille de route pour la protection du cluster Kubernetes La feuille de route suivante décrit les étapes nécessaires à la configuration du cluster Kubernetes dans PowerProtect Data Manager afin d’exécuter des politiques de protection. Étapes 1. Ajoutez un système de stockage. Ajout d’un stockage de protection , page 31 fournit plus d’informations à ce sujet. 2. Activation d’une source de ressources , page 22 pour le cluster Kubernetes dans l’interface utilisateur de PowerProtect Data Manager. 3. Ajout d’un cluster Kubernetes , page 26 en tant que source de ressources dans l’interface utilisateur de PowerProtect Data Manager. 4. Pour utiliser un chemin de données optimisé et des disques FCD, vous pouvez suivre les étapes décrites dans Modifications de configuration requises pour l’utilisation d’un chemin d’accès des données optimisé et de disques de première classe , page 54 avant d’ajouter une politique de protection Kubernetes. 5. Créez une politique de protection pour protéger les ressources et les PVC de l’espace de nommage du cluster Kubernetes. Ajout d’une règle de protection des espaces de nommage Kubernetes , page 32 fournit plus d’informations à ce sujet. Feuille de route pour la protection du cluster invité Tanzu Kubernetes La feuille de route suivante décrit les étapes nécessaires à la configuration du cluster invité Tanzu Kubernetes dans PowerProtect Data Manager afin d’exécuter des politiques de protection. Étapes 1. Ajoutez un système de stockage. Ajout d’un stockage de protection , page 31 fournit plus d’informations à ce sujet. 2. Remplissez les Configuration du cluster superviseur , page 20 pour effectuer une configuration ponctuelle obligatoire dans le cluster superviseur. 3. Activation d’une source de ressources , page 22 pour vCenter Server et le cluster Kubernetes dans l’interface utilisateur de PowerProtect Data Manager. 4. Ajout d’un VMware vCenter Server , page 23 qui héberge le cluster invité Tanzu Kubernetes en tant que source de ressources dans l’interface utilisateur de PowerProtect Data Manager. 5. Ajout d’un cluster Kubernetes , page 26 en tant que source de ressources dans l’interface utilisateur de PowerProtect Data Manager. Lors de l’ajout d’un cluster invité Tanzu Kubernetes, assurez-vous de créer une association avec vCenter Server. 6. Ajout d’un moteur VM Direct , page 28 dans l’interface utilisateur de PowerProtect Data Manager qui est réservée aux charges applicatives Kubernetes. Il doit y avoir au moins un moteur VM Direct par cluster superviseur. 7. Créez une politique de protection pour protéger les ressources et les PVC de l’espace de nommage du cluster Kubernetes. Ajout d’une règle de protection des espaces de nommage Kubernetes , page 32 fournit plus d’informations à ce sujet. Présentation de PowerProtect Data Manager pour Kubernetes 17 Mise à jour de PowerProtect Data Manager vers la version 19.9 ou ultérieure dans un environnement Kubernetes PowerProtect Data Manager utilise des définitions de ressources personnalisées (CRD) structurelles pour étendre l’API Kubernetes et renforcer la sécurité du système. Toutefois, les versions de PowerProtect Data Manager antérieures à la version 19.9 utilisaient des schémas non structurels qui n’ont pas validé le format cohérent des ressources personnalisées (CR). En cas de mise à jour d’une version de PowerProtect Data Manager antérieure à la version 19.9 qui prenait en charge Kubernetes vers la version 19.9 ou ultérieure, certaines considérations doivent être prises en compte. Pour plus d’informations sur la mise à jour de PowerProtect Data Manager en général, consultez le PowerProtect Data Manager Administration and User Guide (Guide de l’utilisateur et de l’administrateur de PowerProtect Data Manager) ou le PowerProtect Data Manager Deployment Guide (Guide de déploiement de PowerProtect Data Manager) . PRÉCAUTION : Si vous n’utilisez pas le rôle cluster-admin et que vous ne suivez pas la procédure de mise à jour spécifique à Kubernetes, PowerProtect Data Manager ne fonctionnera pas correctement. Restauration en libre-service Au cours de la mise à jour, toutes les CR sont supprimées, y compris la CR backupjobs. Après la mise à jour, la restauration en libre-service de la dernière copie de sauvegarde effectuée avant la mise à jour n’est pas possible. Cette sauvegarde ne peut être restaurée qu’à partir de l’interface utilisateur de PowerProtect Data Manager. Les restaurations en libre-service peuvent être effectuées sur les sauvegardes effectuées après la mise à jour. Privilèges minimaux des rôles de cluster Les rôles de cluster suivants doivent disposer de certains privilèges : ● Le rôle de cluster lié au compte de service fourni à PowerProtect Data Manager doit disposer du privilège Delete pour les ressources customresourcedefinitions. ● Le rôle de cluster lié à ppdm-serviceaccount doit disposer du privilège Patch pour les ressources deployments. Mise à jour de PowerProtect Data Manager vers la version 19.9 ou ultérieure dans un environnement Kubernetes Utilisez cette procédure pour mettre à jour PowerProtect Data Manager vers la version 19.9 ou une version ultérieure. Étapes 1. Si vous n’utilisez pas le rôle cluster-admin, effectuez les actions suivantes : a. À partir d’une ligne de commande PowerProtect Data Manager, saisissez la commande suivante : kubectl edit clusterrole powerprotect:discovery-clusterrole b. Recherchez customresourcedefinitions dans la section rules, puis ajoutez le verbe delete. Le format du nouveau verbe doit correspondre au format des autres verbes. Par exemple : ressources : - customresourcedefinitions verbes : - create - delete - get - list - update c. Enregistrez le fichier modifié. 18 Présentation de PowerProtect Data Manager pour Kubernetes d. Entrez la commande suivante : kubectl edit clusterrole powerprotect:cluster-role e. Recherchez deployments dans la section rules, puis ajoutez le verbe patch. Le format du nouveau verbe doit correspondre au format des autres verbes. Par exemple : ressources : - deployments - deployments/scale verbes : - create - get - patch - list - update f. Si votre environnement inclut OpenShift, recherchez apiGroups et l’entrée networking.k8s.io existante, puis ajoutez en dessous de celle-ci les entrées operators.coreos.com et konveyor.openshift.io correspondant au contenu et au format suivants : - apiGroups : - networking.k8.io ressources : - networkpolicies verbes : - create - delete - get - apiGroups : - operators.coreos.com ressources : - '*' verbes : - '*' - apiGroups : - konveyer.openshift.io ressources : - '*' verbes : - '*' g. Enregistrez le fichier modifié. 2. Suivez la procédure appropriée de mise à jour de PowerProtect Data Manager dans le PowerProtect Data Manager Administration and User Guide (Guide de l’utilisateur et de l’administrateur de PowerProtect Data Manager) ou le PowerProtect Data Manager Deployment Guide (Guide de déploiement de PowerProtect Data Manager). REMARQUE : Si vous n’utilisez pas le rôle cluster-admin et que vous avez déjà mis à jour PowerProtect Data Manager sans avoir d’abord suivi l’étape 1, vous pouvez corriger la mise à jour. Pour ce faire, suivez l’étape 1, réexécutez la mise à jour de PowerProtect Data Manager et enfin suivez l’étape 3. 3. À partir d’une ligne de commande PowerProtect Data Manager, saisissez les commandes suivantes : cd /usr/local/brs/lib/cndm/misc tar -xvzf rbac.tar.gz cd rbac cat README.txt 4. Suivez les instructions affichées à l’écran. Résultats PowerProtect Data Manager a été mis à jour et configuré pour fonctionner avec Kubernetes. Présentation de PowerProtect Data Manager pour Kubernetes 19 2 Activation du cluster Kubernetes Sujets : • • • • • • • • Ajout d’une source de ressources du cluster Kubernetes Conditions préalables pour la protection de cluster invité Tanzu Kubernetes Conditions requises pour la découverte de clusters Kubernetes Activation d’une source de ressources Suppression d’une source de ressources Ajout d’un VMware vCenter Server Ajout d’un cluster Kubernetes Ajout d’un moteur VM Direct Ajout d’une source de ressources du cluster Kubernetes L’ajout d’un cluster Kubernetes en tant que source de ressources dans PowerProtect Data Manager vous permet de protéger les espaces de nommage et les revendications de volume persistant (PVC) au sein du cluster. Vous pouvez utiliser la fenêtre Sources de ressources dans l’interface utilisateur de PowerProtect Data Manager pour ajouter une source de ressource du cluster Kubernetes à l’environnement PowerProtect Data Manager. Conditions préalables pour la protection de cluster invité Tanzu Kubernetes Passez en revue les exigences suivantes avant d’ajouter un cluster invité Tanzu Kubernetes dans PowerProtect Data Manager pour la protection des espaces de nommage et des PVC. ● Vérifiez que la version vSphere minimale requise est installée. Pour plus d’informations, consultez la matrice de compatibilité à l’adresse https://elabnavigator.emc.com/eln/modernHomeDataProtection. ● Seuls les déploiements réseau basés sur NSX-T sont pris en charge. ● Il est recommandé que la communication entre vSphere et le cluster invité Tanzu Kubernetes soit routable. ● Effectuez une configuration ponctuelle pour configurer le cluster superviseur, comme décrit dans la section Configuration du cluster superviseur , page 20. Configuration du cluster superviseur La configuration ponctuelle suivante est requise pour configurer le cluster superviseur : Étapes 1. Activez l’opérateur vSphere dans le cluster superviseur, par exemple, Velero vSphere Operator : a. Dans le volet de gauche de vSphere Client, sélectionnez le cluster de charge applicative, puis cliquez sur l’onglet Configurer dans le volet de droite. b. Dans la fenêtre Cluster de charge applicative, faites défiler la page vers le bas et sélectionnez Services de superviseur. Le volet de droite affiche les services disponibles. c. Sélectionnez le service Velero vSphere Operator, puis cliquez sur Activer. Une fois cette option activée, le nouvel espace de nommage Kubernetes est automatiquement créé avec ses propres pods vSphere exécutés avec affinité avec le superviseur. Cela permet au cluster superviseur d’effectuer des sauvegardes à l’aide du snapshot FCD. 20 Activation du cluster Kubernetes d. Sélectionnez Menu > Gestion des charges applicatives pour afficher les espaces de nommage qui s’exécutent dans le cluster superviseur. Pour un espace de nommage sélectionné, cliquez sur l’onglet Calculer dans le volet de droite pour afficher les clusters invités Tanzu. 2. Ajoutez un espace de nommage superviseur pour l’instance Velero : a. b. c. d. Dans la fenêtre Workload Management de vSphere Client, cliquez sur New Namespace. Après avoir créé cet espace de nommage, sélectionnez-le dans le volet de navigation de gauche. Si l’utilisateur ne dispose pas du rôle VI admin, cliquez sur Add Permissions sous l’onglet Summary dans le volet de droite. Dans la boîte de dialogue Add Permissions, ajoutez l’autorisation Can edit, puis cliquez sur OK. 3. Téléchargez le binaire de la ligne de commande velero-vsphere à partir de l’emplacement suivant : https://github.com/vmware-tanzu/velero-plugin-for-vsphere/releases/download/v1.1.0/velero-vsphere-1.1.0-linux-amd64.tar.gz 4. Connectez-vous au cluster superviseur : kubectl-vsphere login --server=https://IPv4 address:443 --vsphere-username username -insecure-skip-tls-verify 5. Basculez le contexte kubectl sur l’espace de nommage superviseur en exécutant la commande suivante : kubectl config use-context supervisor cluster namespace 6. Utilisez la ligne de commande Velero vSphere pour installer Velero et le plug-in Velero pour vSphere Client : velero-vsphere install --namespace velero --plugins vsphereveleroplugin/velero-plugin-forvsphere:1.1.0 --no-secret --no-default-backup-location --use-volume-snapshots=false 7. À l’aide de la même ligne de commande, activez le suivi CBT (Changed Block Tracking). dans les clusters invités : # velero-vsphere configure --enable-cbt-in-guests Une fois activé, ce paramètre est appliqué au cluster actif et à tous les clusters invités entrants. Conditions requises pour la découverte de clusters Kubernetes Passez en revue les conditions préalables suivantes avant d’ajouter l’activation d’un cluster Kubernetes en tant que source de ressources dans PowerProtect Data Manager. Déploiement manuel d’images à partir de Docker Hub et Quay Par défaut, les images suivantes sont extraites de Docker Hub sur https://hub.docker.com/ et de Quay sur https://quay.io/ après la découverte de la source de ressources du cluster Kubernetes, PowerProtect Data Manager : ● ● ● ● ● ● dellemc/powerprotect-k8s-controller dellemc/powerprotect-cproxy, qui est extrait lors de la première sauvegarde dellemc/powerprotect-velero-dd velero/velero vsphereveleroplugin/velero-plugin-for-vsphere (pour les clusters Kubernetes sur vSphere qui utilisent VMware CSI) quay.io/konveyor/openshift-velero-plugin (pour les clusters OpenShift) Si un cluster Kubernetes n’a pas accès à ces sites à cause d’un pare-feu ou d’une autre restriction, vous pouvez extraire ces images vers un registre local accessible par le cluster. Assurez-vous que les noms des images et les balises de version restent identiques entre le registre local et Docker Hub. Après l’extraction d’images vers un registre local, avant la découverte des clusters Kubernetes, configurez PowerProtect Data Manager pour utiliser le registre local lors de la création des ressources de déploiement : 1. Créez un fichier application.properties (/usr/local/brs/lib/cndm/config/application.properties) sur l’appliance PowerProtect Data Manager avec le contenu suivant : ● k8s.docker.registry=fqdn:port. Par exemple, k8s.docker.registry=artifacts.example.com:8446 ● k8s.image.pullsecrets=secret resource name. Spécifiez cette entrée uniquement si vous avez besoin d’un code secret pour l’extraction de l’image. 2. Exécutez cndm restart pour appliquer les propriétés. Vous pouvez maintenant ajouter la source de ressources Kubernetes dans l’interface utilisateur de PowerProtect Data Manager. Si vous avez déjà ajouté le cluster Kubernetes en tant que source de ressources, effectuez les étapes suivantes, puis lancez une détection Activation du cluster Kubernetes 21 manuelle de la source de ressources du cluster Kubernetes pour mettre à jour le cluster. Les ressources configmap et deployment de l’espace de nommage powerprotect, ainsi que la ressource de déploiement dans l’espace de nommage velero-ppdm sont automatiquement mises à jour afin d’utiliser les nouvelles images lors d’une détection réussie. Activation d’une source de ressources Une source de ressources de cluster Kubernetes doit être activée dans PowerProtect Data Manager pour que vous puissiez ajouter et enregistrer la source de ressources pour la protection des ressources. En outre, une source de ressources vCenter Server doit être activée pour la protection du cluster invité Tanzu Kubernetes. À propos de cette tâche Seul le rôle Administrateur peut gérer les sources de ressources. Dans certaines circonstances, l’activation d’une source de ressources n’est pas nécessaire. Par exemple, lorsque vous effectuez une mise à jour vers la dernière version de PowerProtect Data Manager à partir d’une version antérieure, les sources de ressources précédemment activées s’affichent dans l’interface utilisateur de PowerProtect Data Manager. Toutefois, pour une nouvelle installation, aucune source de ressources n’est activée par défaut. Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Infrastructure > Asset Sources, puis cliquez sur + pour afficher l’onglet New Asset Source. 2. Dans le volet de la source de ressources que vous souhaitez ajouter, cliquez sur Enable Source. La fenêtre Asset Sources est mise à jour pour afficher un onglet correspondant à la nouvelle source de ressources. Résultats Vous pouvez désormais ajouter ou approuver la source de ressources à utiliser dans PowerProtect Data Manager. Dans le cas d’un vCenter Server ou d’un cluster Kubernetes, sélectionnez l’onglet approprié dans cette fenêtre et cliquez sur Add. Désactivation d’une source de ressources Si vous avez activé une source de ressources dont vous n’avez plus besoin et que l’hôte n’a pas été enregistré dans PowerProtect Data Manager, procédez comme suit pour désactiver la source de ressources. À propos de cette tâche REMARQUE : Une source de ressource ne peut pas être désactivée lorsqu’une ou plusieurs sources sont toujours enregistrées ou qu’il existe des copies de sauvegarde des ressources en question. Par exemple, si vous avez enregistré un vCenter Server et créé des sauvegardes de règle pour les machines virtuelles vCenter, vous ne pouvez pas désactiver la source de ressources vCenter. Toutefois, si vous enregistrez un vCenter Server, puis que vous supprimez le vCenter sans créer de sauvegardes, vous pouvez désactiver la source de ressources. Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Infrastructure > Sources de ressources, puis sélectionnez l’onglet de la source de ressources à désactiver. Si aucun enregistrement d’hôte n’est détecté, un bouton Désactivation rouge s’affiche. 2. Cliquez sur Désactiver. Résultats PowerProtect Data Manager supprime l’onglet correspondant à la source de ressources en question. Suppression d’une source de ressources Si vous souhaitez supprimer une source de ressources dont vous n’avez plus besoin, procédez comme suit pour supprimer cette source de ressources dans l’interface utilisateur PowerProtect Data Manager . 22 Activation du cluster Kubernetes À propos de cette tâche Seul le rôle Administrateur peut gérer les sources de ressources. Étapes 1. À partir de l’interface utilisateur PowerProtect Data Manager, sélectionnez Infrastructure > Sources de ressources, puis sélectionnez l’onglet du type de source de ressources à supprimer. 2. Sélectionnez le nom de la source de ressources dans la liste des sources de ressources, puis cliquez sur Supprimer. 3. À l’invite d’avertissement qui s’affiche, cliquez sur Continuer. La source de ressources est supprimée de la liste. Résultats PowerProtect Data Manager supprime la source de ressources spécifiée dans la fenêtre Sources de ressources. Toutes les ressources associées qui sont protégées par la règle de protection sont supprimées de la règle de protection et leur état passe sur supprimé. Ces ressources peuvent être supprimées automatiquement ou manuellement. Le Guide d’administration et d’utilisation de PowerProtect Data Manager fournit des détails sur la récupération des ressources à partir de PowerProtect Data Manager. Les copies des ressources provenant de la source de ressources sont conservées (non supprimées). Vous pouvez supprimer les copies de la page copies, si nécessaire. Étapes suivantes Supprimez manuellement les composants PowerProtect du cluster Kubernetes. Suppression des composants de PowerProtect Data Manager d’un cluster Kubernetes , page 65 fournit plus d’informations à ce sujet. Ajout d’un VMware vCenter Server Effectuez les étapes suivantes pour ajouter un vCenter Server en tant que source de ressources dans l’interface utilisateur PowerProtect Data Manager pour la protection de cluster invité Tanzu Kubernetes. Prérequis ● Assurez-vous que la source de ressources est activée. Activation d’une source de ressources , page 22 fournit des instructions à ce sujet. ● Connectez-vous en tant qu’utilisateur ayant le rôle Administrateur. Seul le rôle Administrateur peut gérer les sources de ressources. ● Par défaut, PowerProtect Data Manager permet d’appliquer les certificats SSL lors de la communication avec vCenter Server. Si un certificat auquel vous faites confiance apparaît, cliquez sur Verify. Notez cependant que l’application d’un certificat SSL exige que le nom commun (cn) du certificat x509 sur vCenter Server corresponde au nom d’hôte de l’URL vCenter. Le nom commun du certificat x509 certificat est généralement le nom de domaine complet du serveur vCenter (FQDN), mais il peut aussi être l’adresse IP du serveur vCenter. Vous pouvez vérifier le certificat SSL du serveur vCenter afin de déterminer si le nom commun du certificat x509 est un FQDN ou une adresse IP. Lorsque vous créez une ressource de source d’actifs, et pour mettre en œuvre un certificat SSL, le nom d’hôte de la ressource de source d’actifs doit correspondre au nom commun du certificat x509 situé sur le serveur vCenter. REMARQUE : Il est vivement recommandé de ne pas modifier l’application de certificat. Si la désactivation du certificat est requise, vérifiez attentivement les instructions de la section Désactiver la validation de certificat SSL vCenter , page 26. Étapes 1. Dans le volet de navigation de gauche, sélectionnez Infrastructure > Sources de ressources. La fenêtre Asset Sources s’affiche. 2. Sélectionnez l’onglet vCenter. 3. Cliquez sur Add. La boîte de dialogue Ajouter vCenter s’affiche. 4. Spécifiez les attributs de la source : a. Dans le champ Name, spécifiez le nom du vCenter Server. b. Dans le champ Adress, spécifiez le nom de domaine complet (FQDN) ou l’adresse IP. Activation du cluster Kubernetes 23 REMARQUE : Pour un vCenter Server, il est recommandé d’utiliser le FQDN au lieu de l’adresse IP. c. Dans le champ Port, spécifiez le port de communication si vous n’utilisez pas le port par défaut 443. 5. Sous Informations d’identification de l’hôte, choisissez une entrée existante dans la liste pour pouvoir utiliser les informations d’identification de l’utilisateur de vCenter. Vous pouvez également cliquer sur Ajouter à partir de cette liste pour ajouter de nouvelles informations d’identification, puis cliquer sur Enregistrer. REMARQUE : Assurez-vous de spécifier les informations d’identification d’un utilisateur dont le rôle est défini au niveau du vCenter, sans être limité à un objet de conteneur de niveau inférieur dans la hiérarchie d’objets vSphere. 6. Si vous souhaitez rendre un sous-ensemble des fonctionnalités de l’interface utilisateur de PowerProtect Data Manager disponible dans vSphere Client, déplacez le curseur du Plug-in vSphere vers la droite. Les fonctionnalités suivantes sont disponibles : ● Surveillance des règles de protection des machines virtuelles/disques VMDK actives ● Options de restauration (Restaurer vers l’emplacement d’origine, Restaurer vers un nouvel emplacement et Accès instantané, par exemple) REMARQUE : Vous pouvez annuler l’enregistrement du plug-in vSphere à tout moment en déplaçant le curseur vers la gauche. 7. Par défaut, la détection vCenter se produit automatiquement après l’ajout du vCenter et des détections ultérieures sont incrémentielles. Si vous souhaitez planifier une détection complète tous les jours à un certain moment de la journée, déplacez le curseur Schedule Discovery vers la droite, puis indiquez une heure. 8. S’il n’y a pas de vCenter hôte et que vous souhaitez en faire le vCenter Server qui héberge PowerProtect Data Manager, sélectionnez Add as hosting vCenter. Si un vCenter Server a déjà été ajouté en tant que vCenter hôte, cette option est grisée. Spécifier un vCenter Server en tant qu’hôte PowerProtect Data Manager , page 25 fournit plus d’informations sur l’ajout d’un vCenter hôte. 9. Si le certificat SSL du serveur vCenter ne peut pas être approuvé automatiquement, une boîte de dialogue demande la validation du certificat. Vérifiez le certificat, puis cliquez sur Verify. 10. Cliquez sur Save. Les informations relatives au vCenter Server que vous avez saisies s’affichent maintenant comme une entrée dans un tableau de la fenêtre Sources de ressources. Vous pouvez cliquer sur l’icône en forme de loupe en regard de l’entrée pour afficher plus de détails et connaître, par exemple, la prochaine découverte planifiée, le nombre de ressources dans le vCenter et si le plug-in vSphere est activé. REMARQUE : Bien que PowerProtect Data Manager se synchronise automatiquement avec le vCenter Server dans la plupart des cas, certaines conditions peuvent vous obliger à lancer une découverte manuelle. Après une détection, PowerProtect Data Manager démarre régulièrement une détection incrémentielle en arrière-plan pour continuer à mettre à jour PowerProtect Data Manager avec les modifications de vCenter. Vous pouvez toujours lancer une détection à la demande. 11. Si vous le souhaitez, vous pouvez définir des seuils d’avertissement et d’échec pour l’espace disponible sur le magasin de données. La définition de ces seuils vous permet de vérifier si l’espace de stockage disponible dans le magasin de données est suffisant pour enregistrer le snapshot de la machine virtuelle durant la sauvegarde. La sauvegarde est exécutée avec un avertissement dans les journaux si l’espace disponible dans le magasin de données est inférieur ou égal au pourcentage indiqué dans Seuil d’avertissement d’espace disponible du magasin de données. La sauvegarde échoue si l’espace disponible dans le magasin de données est inférieur ou égal au pourcentage indiqué dans Seuil d’échec de l’espace disponible du magasin de données. Pour ajouter les seuils d’avertissement et d’échec de l’espace disque du datastore : a. Cliquez sur l’icône en forme d’engrenage pour ouvrir la boîte de dialogue Paramètres vCenter. b. Entrez une valeur en pourcentage pour déterminer quand afficher un message d’avertissement en cas d’espace libre insuffisant dans le magasin de données. c. Entrez une valeur en pourcentage pour déterminer quand afficher un échec de sauvegarde de machine virtuelle en cas d’espace libre insuffisant dans le magasin de données. d. Cliquez sur Save. REMARQUE : Par défaut, les seuils d’espace libre du magasin de données sont désactivés. Résultats Une fois que la source de ressources du serveur vCenter a été correctement détectée, les ressources de vCenter s’affichent dans la fenêtre Infrastructure > Assets. 24 Activation du cluster Kubernetes Vous pouvez modifier les détails de la source de ressources vCenter en sélectionnant le vCenter dans la fenêtre Infrastructure > Asset Sources, puis en cliquant sur Edit. Toutefois, vous ne pouvez pas décocher la case Add as hosting vCenter lors de la modification d’une source de ressources si ce vCenter Server a déjà été ajouté en tant que vCenter hôte. Pour cette opération, utilisez la fenêtre Hosting vCenter comme décrit dans la section Spécifier un vCenter Server en tant qu’hôte PowerProtect Data Manager , page 25. REMARQUE : La durée de la découverte dépend de la bande passante réseau. Les ressources qui sont détectées et les ressources qui exécutent la détection connaissent un ralentissement des performances à chaque fois que vous lancez un processus de détection. Il peut sembler que PowerProtect Data Manager ne mette pas à jour les données des sources de ressources lorsque la découverte est en cours. Étapes suivantes Ajoutez une appliance VM Direct pour faciliter le déplacement des données, puis créez des politiques de protection Tanzu Kubernetes pour sauvegarder ces ressources. Le logiciel PowerProtect Data Manager est fourni avec un moteur VM Direct intégré, qui est automatiquement utilisé comme proxy de secours pour effectuer des sauvegardes et des restaurations lorsque les proxys externes ajoutés échouent ou sont désactivés. Il est recommandé que les proxys externes soient déployés puisque le moteur VM Direct intégré dispose d’une capacité limitée pour l’exécution de flux de sauvegarde. Pour ajouter un moteur VM Direct, sélectionnez Infrastructure > Protection Engines. Spécifier un vCenter Server en tant qu’hôte PowerProtect Data Manager PowerProtect Data Manager fournit une option permettant d’identifier un vCenter Server en tant que vCenter hôte. À propos de cette tâche Lorsqu’un vCenter Server est marqué comme le vCenter Server qui héberge PowerProtect Data Manager, vous pouvez utiliser ce vCenter Server pour les opérations suivantes : ● Exécution d’activités système, comme la configuration au niveau des machines virtuelles. ● Exécution de mises à jour logicielles dans des circonstances nécessitant la création d’un snapshot PowerProtect Data Manager. ● Activation de Cloud Disaster Recovery (CDR), afin d’augmenter le processeur et la mémoire PowerProtect Data Manager requis pour ces opérations. Un hôte vCenter est une condition préalable pour CDR, comme indiqué dans l’onglet Cloud Disaster Recovery de la fenêtre Infrastructure > Sources de ressources de l’interface utilisateur PowerProtect Data Manager. Pour spécifier un vCenter Server en tant que vCenter Server qui héberge PowerProtect Data Manager, vous pouvez : ● Ajouter et découvrir ce vCenter Server en tant que source de ressources dans la fenêtre Infrastructure > Sources de ressources de l’interface utilisateur PowerProtect Data Manager ou ● Saisissez les informations vCenter Server dans la fenêtre Hébergement vCenter, comme indiqué dans la procédure suivante. Étapes 1. Dans l’interface utilisateur PowerProtect Data Manager, cliquez sur , puis sélectionnez Hébergement vCenter. La fenêtre Hébergement vCenter Server s'affiche. 2. Choisissez l'une des options suivantes : ● Saisir le FQDN/IP : sélectionnez cette option pour saisir manuellement le nom de domaine complet ou l’adresse IP du vCenter Server, le numéro de port, ainsi que pour sélectionner les Informations d’identification de l’hôte du vCenter Server. La liste Informations d’identification de l’hôte est renseignée avec les vCenter Servers qui ont déjà été ajoutés et découverts dans PowerProtect Data Manager. Si les informations d’identification vCenter Server de l’hôte n’apparaissent pas dans la liste, sélectionnez Ajouter des informations d’identification pour saisir ces informations. ● Sélectionnrz FQDN/IP à partir de sources de ressources : sélectionnez cette option pour obtenir automatiquement les informations de l’hôte vCenter Server à partir d’une source de ressources vCenter qui a déjà été ajoutée et découverte dans PowerProtect Data Manager. 3. Cliquez sur Save. Résultats Si l’hôte vCenter Server est ajouté en tant que source de ressources dans PowerProtect Data Manager, une vCenter Server dans la fenêtre Infrastructure > Sources de ressources. s’affiche en regard de ce Activation du cluster Kubernetes 25 Désactiver la validation de certificat SSL vCenter Si le certificat SSL de vCenter ne peut pas être approuvé automatiquement, une boîte de dialogue s’affiche lors de l’ajout du vCenter Server en tant que source de ressources dans l’interface utilisateur de PowerProtect Data Manager et demande l’approbation du certificat. Il est vivement recommandé de ne pas modifier l’application de certificat. Si la désactivation du certificat SSL est requise, vous pouvez effectuer la procédure suivante. PRÉCAUTION : Ces étapes doivent uniquement être effectuées si vous connaissez parfaitement la gestion des certificats et les problèmes qui peuvent survenir lors de la désactivation d’un certificat. 1. Créez un fichier nommé cbs_vmware_connection.properties dans le répertoire /home/admin sur l’appliance PowerProtect Data Manager, avec le contenu suivant : cbs.vmware_connection.ignore_vcenter_certificate=true 2. S’il n’est pas déjà créé, créez un fichier application.yml dans le répertoire /usr/local/brs/lib/vmdm/config/. REMARQUE : La structure de ce fichier nécessite de séparer les champs en différentes catégories et sous-catégories, comme indiqué à l’étape suivante. 3. Dans le fichier application.yml, ajoutez le contenu suivant : vmware_connection: ignore_vcenter_cert: true discovery: ignore_vcenter_cert: true 4. Exécutez cbs stop pour arrêter le service cbs, puis cbs start pour redémarrer le service. 5. Exécutez vmdm stop pour arrêter le service vmdm, puis vmdm start pour redémarrer le service. 6. Effectuez un test pour déterminer si la désactivation du certificat SSL a réussi en ajoutant un vCenter Server à l’aide de l’adresse IP du vCenter (si le certificat SSL utilise le FQDN), puis vérifiez que la source de ressources a été ajoutée et que la découverte de la machine virtuelle a réussi. Ajout d’un cluster Kubernetes Procédez comme suit pour ajouter un cluster Kubernetes en tant que source de ressources dans l’interface utilisateur de PowerProtect Data Manager. Lorsqu’il est ajouté, PowerProtect Data Manager déploie automatiquement les ressources sur le cluster qui permet la sauvegarde et la restauration des espaces de nommage. Prérequis ● Vous devez disposer des privilèges administrateur. ● Si votre environnement est doté de pare-feux ou d’autres restrictions empêchant l’extraction des images requises depuis Docker Hub, consultez la procédure décrite dans la section Conditions requises pour la découverte de clusters Kubernetes , page 21. ● En cas d’ajout d’un cluster invité Kubernetes pour des revendications de volume persistant (PVC) basés sur vSphere CSI, ajoutez un moteur de protection VM Direct dans le vCenter où se trouve le cluster invité Tanzu Kubernetes. À propos de cette tâche REMARQUE : La détection d’un cluster Kubernetes permet de détecter les espaces de nommage qui contiennent des volumes à partir de l’interface de stockage de conteneur (CSI), mais aussi des systèmes de stockage non basés sur CSI. Toutefois, la sauvegarde et la restauration sont prises en charge uniquement à partir des systèmes de stockage basés sur CSI. En outre, seuls les PVC pour lesquels VolumeMode est défini sur Filesystem sont pris en charge. Étapes 1. Dans le volet de navigation de gauche, sélectionnez Infrastructure > Sources de ressources. 2. Dans la fenêtre Sources de ressources, sélectionnez l’onglet cluster Kubernetes. 3. Cliquez sur Add. 4. Dans la boîte de dialogue Ajouter un Kubernetes, spécifiez les attributs de la source : 26 Activation du cluster Kubernetes a. Cluster Tanzu : si vous ajoutez un cluster invité Tanzu Kubernetes pour la protection des PVC basés sur vSphere CSI, déplacez le curseur vers la droite. b. Select vCenter REMARQUE : La sélection d’un vCenter Server modifie la méthode utilisée pour la sauvegarde de règle de protection Kubernetes. Un proxy de machine virtuelle (le moteur VM Direct) est utilisé à la place d’un cProxy pour la gestion et le transfert des données de sauvegarde, de façon similaire à la méthode employée pour les règles de protection de machine virtuelle. c. Name : le nom du cluster d. Adress : le nom de domaine qualifié (FQDN) ou l’adresse IP du serveur API Kubernetes. REMARQUE : Il est recommandé d’utiliser le FQDN plutôt que l’adresse IP. e. Port : spécifiez le port à utiliser pour la communication lorsque le port par défaut (443) n’est pas utilisé. REMARQUE : Pour utiliser un port différent du port par défaut (443 ou 6443), vous devez d’abord ouvrir le port sur PowerProtect Data Manager pour activer la communication sortante. Vous trouverez davantage d’informations à ce sujet en consultant la procédure décrite dans la section Recommandations et remarques relatives à l’utilisation d’un cluster Kubernetes , page 55. 5. Sous Informations d’identification de l’hôte, cliquez sur Ajouter pour ajouter le jeton du compte de service pour le cluster Kubernetes, puis cliquez sur Enregistrer. Le compte de service doit être associé aux privilèges suivants : ● Get/Create/Update/List CustomResourceDefinitions ● Get/Create/Update ClusterRoleBinding for 'cluster-admin' role ● Create/Update 'powerprotect' namespace ● Get/List/Create/Update/Delete/List ● Get/List/Create/Update/Delete all kinds of resources inside 'powerprotect' namespace ● Get/List/Watch all namespaces in the cluster as well as PV, PVC, storageclass, deployments and pods in all these namespaces REMARQUE : Le compte de service admin-user dans l’espace de nommage kube-system contient l’ensemble de ces privilèges. Vous pouvez fournir le jeton de ce compte ou d’un compte de service similaire existant. Vous pouvez également créer un compte de service associé à un rôle de cluster qui contient ces privilèges, puis fournir le jeton de ce compte de service. Si vous ne souhaitez pas fournir de compte de service avec des privilèges cluster-admin, les fichiers YAML situés dans /usr/ local/brs/lib/cndm/misc/rbac.tar.gz sur l’appliance PowerProtect Data Manager fournissent la définition du rôle de cluster avec les privilèges obligatoires pour PowerProtect Data Manager. Suivez les instructions de README.txt dans le fichier tar pour créer les clusterroles et les clusterrolebindings obligatoires, et pour fournir le jeton du compte de service créé dans les fichiers YAML. 6. Cliquez sur Verify pour vérifier les informations du certificat et du jeton, puis cliquez sur Accept. Une fois la validation réussie, l’état des nouvelles informations d’identification est mis à jour pour indiquer Accepté. 7. Cliquez sur Save. Les informations du cluster Kubernetes que vous avez saisies s’affichent désormais sous forme d’une entrée dans la fenêtre Sources de ressources, qui affiche l’état de détection Inconnu. REMARQUE : Bien souvent, PowerProtect Data Manager se synchronise automatiquement avec le cluster Kubernetes pour effectuer la détection initiale, mais il se peut que vous deviez lancer une détection manuelle dans certains cas. 8. Si vous souhaitez lancer une détection manuelle, sélectionnez le cluster Kubernetes, puis cliquez sur Détecter (procédure en option). La détection incrémentielle pour un cluster Kubernetes dans PowerProtect Data Manager n’est pas prise en charge. Vous pouvez lancer une détection à la demande (ad hoc) à tout moment ou définir une détection planifiée afin que les modifications apportées au cluster Kubernetes soient mises à jour. REMARQUE : La durée de la découverte dépend de la bande passante réseau. Les ressources impliquées dans le processus de découverte ont un impact sur les performances à chaque fois que vous lancez une découverte. Il peut sembler que PowerProtect Data Manager ne mette pas à jour les données des sources de ressources lorsque la découverte est en cours. 9. Vérifiez que la colonne Discovery Status indique OK, puis accédez à la fenêtre Assets. Activation du cluster Kubernetes 27 Résultats Lors de l’ajout d’un cluster Kubernetes en tant que source de ressources, un contrôleur PowerProtect est installé sur le cluster, lequel est également utilisé pour installer Velero avec le plug-in du magasin d’objets DD et le plug-in vSphere. Les espaces de nommage du cluster Kubernetes s’affichent dans l’onglet Kubernetes de la fenêtre Ressources. Pour afficher plus de détails dans cette fenêtre, cliquez sur l’icône en forme de loupe en regard d’une entrée. Par ailleurs, si un espace de nommage est associé à des PVC que vous souhaitez exclure d’une règle, vous pouvez cliquer sur le lien dans la colonne Exclusion de PVC. REMARQUE : Si les ressources de l’espace de nommage ne sont pas détectées après l’ajout d’une source de ressources au cluster Kubernetes, assurez-vous que le jeton de support fourni pour la source de ressources Kubernetes appartient à un compte de service disposant des privilèges spécifiés à l’étape 5. Étapes suivantes Créez des règles de protection Kubernetes pour sauvegarder les espaces de nommage et les PVC. Ajout d’un moteur VM Direct Effectuez les étapes suivantes dans la fenêtre Protection Engines de l’interface utilisateur PowerProtect Data Manager pour déployer un moteur VM Direct externe, également appelé proxy de machine virtuelle. Le moteur VM Direct facilite le déplacement des données pour les stratégies de protection de machine virtuelle, les stratégies de protection de cluster Kubernetes qui nécessitent un proxy de machine virtuelle à la place du cProxy et les stratégies de protection NAS. Prérequis Étudiez les sections Configuration matérielle requise pour un Moteur VM Direct externe , page 59 et Considérations relatives au mode de transport , page 58. Le cas échéant, exécutez toutes les tâches de configuration de réseau virtuel avant d’attribuer des réseaux virtuels. À propos de cette tâche Le logiciel PowerProtect Data Manager est fourni avec un moteur VM Direct intégré, qui est automatiquement utilisé comme proxy de secours pour effectuer des sauvegardes et des restaurations lorsque les proxys externes ajoutés échouent ou sont désactivés. Dell Technologie vous recommande de déployer des proxys externes en ajoutant un moteur VM Direct pour les raisons suivantes : ● Un moteur VM Direct externe pour la sauvegarde et la restauration du proxy de machine virtuelle peut améliorer les performances et réduire l’utilisation de la bande passante réseau en employant la déduplication côté source. ● Le moteur VM Direct intégré dispose d’une capacité limitée pour les flux de sauvegarde. ● Le moteur VM Direct intégré n’est pas pris en charge pour les opérations de VMware Cloud on AWS. Un moteur VM Direct externe n’est pas requis pour les règles de protection des machines virtuelles qui utilisent le mécanisme de protection TSDM (Transparent Snapshot Data Mover). Pour ces règles, le moteur VM Direct intégré est suffisant. REMARQUE : Les déploiements OVA de PowerProtect Data Manager dans le Cloud ne prennent pas en charge la configuration du routage du trafic de données ou des VLAN. Ces déploiements ignorent la page Configuration des réseaux. Étapes 1. Dans le volet de navigation de gauche, sélectionnez Infrastructure > Protection Engines. La fenêtre Protection Engines s’affiche. 2. Dans le volet Moteurs VM Direct de la fenêtre Moteurs de protection, cliquez sur Ajouter. L’assistant Ajouter un moteur de protection s’affiche. 3. Dans la page Configuration des moteurs VM Direct, renseignez les champs obligatoires qui sont marqués par un astérisque. ● Nom d’hôte, Passerelle, Adresse IP, Masque réseau et DNS principal : notez que seules les adresses IPv4 sont prises en charge. ● vCenter to Deploy : si vous avez ajouté plusieurs instances vCenter Server, sélectionnez le vCenter Server sur lequel déployer le moteur de protection. REMARQUE : Assurez-vous de ne pas sélectionner le vCenter Server interne. ● ESX Host/Cluster : sélectionnez le cluster ou l’hôte ESXi sur lequel déployer le moteur de protection. ● Réseau : affiche tous les réseaux disponibles sous le cluster ou l’hôte ESXi sélectionné. Pour les réseaux virtuels (VLAN), ce réseau achemine le trafic de gestion. 28 Activation du cluster Kubernetes ● Data Store : affiche tous les datastores accessibles par le cluster ou l’hôte ESXi sélectionné en fonction du classement (datastores partagés ou locaux) et de la capacité disponible (le datastore dont la capacité est la plus élevée figure en haut de la liste). Vous pouvez choisir le datastore spécifique sur lequel héberger le moteur de protection ou conserver la sélection par défaut <automatic> afin que PowerProtect Data Manager détermine le meilleur emplacement pour héberger le moteur de protection. ● Transport Mode : sélectionnez Hot Add. ● Supported Protection Type : indiquez si moteur de protection est destiné à la protection des ressources de Virtual Machine, de cluster invité Tanzu Kubernetes ou de NAS. 4. Cliquez sur Next. 5. Sur la page Configuration réseau : S’il s’agit d’un déploiement OVA de PowerProtect Data Manager dans le Cloud, cliquez sur Next et passez à l’étape 7. La page Configuration réseau permet de configurer le réseau virtuel (VLAN) à utiliser pour les données de sauvegarde. Pour continuer sans configuration de réseau virtuel, laissez le champ de sélection de Groupe de ports réseau préféré, puis cliquez sur Suivant. a. Dans la liste Groupe de ports réseau préféré, sélectionnez un réseau VST (balisage de commutateur virtuel) ou VGT (balisage d’invité virtuel). Si vous sélectionnez un groupe de ports VGT, la liste affiche tous les réseaux virtuels au sein de la plage de jonctions. Si vous sélectionnez un groupe de ports VST, la liste affiche uniquement le réseau virtuel pour l’ID de VLAN actuel. b. Sélectionnez un ou plusieurs réseaux virtuels dans la liste. Un moteur de protection a besoin d’une adresse IP du pool d’adresses IP statiques pour chaque réseau virtuel sélectionné. Si un pool ne comporte pas suffisamment d’adresses IP, l’assistant vous invite à fournir des adresses supplémentaires pour ce réseau. c. Si nécessaire, saisissez une adresse IP statique ou une plage d’adresses IP disponibles dans la colonne Adresses IP supplémentaires pour le réseau virtuel indiqué. Pour une utilisation simplifiée de plusieurs réseaux virtuels, vous pouvez également utiliser l’une des options de Développement automatique : ● Développer la dernière adresse IP : l’assistant incrémente la partie hôte de la dernière adresse IP dans le pool d’adresses IP statiques. Cliquez sur Appliquer. ● Même dernier chiffre : l’assistant ajoute la partie réseau de l’adresse IP à la valeur spécifiée. Saisissez la partie hôte de l’adresse IP, puis cliquez sur Appliquer. L’assistant met à jour la valeur dans la colonne Adresses IP supplémentaires pour chaque réseau sélectionné. Vérifiez les adresses IP proposées. d. Cliquez sur Next. 6. Lors de l’ajout d’un moteur VM Direct pour la protection de cluster invité Kubernetes, ajoutez une deuxième carte d’interface réseau (NIC) si le pod du contrôleur PowerProtect qui s’exécute dans le cluster invité ne peut pas accéder à vProxy sur le réseau principal. Fournissez les informations relatives à la deuxième NIC, puis cliquez sur Suivant. 7. Sur la page Résumé, vérifiez les informations, puis cliquez sur Terminer. Le moteur de protection est ajouté au volet VM Direct Engines. Une colonne supplémentaire indique l’objectif du moteur. Notez que l’enregistrement du moteur de protection supplémentaire dans PowerProtect Data Manager peut prendre plusieurs minutes. Le moteur de protection s’affiche aussi dans la fenêtre vSphere Client. Résultats Si un moteur VM Direct externe est déployé et enregistré, il est utilisé par PowerProtect Data Manager (à la place du moteur VM Direct intégré) pour toutes les opérations de protection des données impliquant des stratégies de protection de machine virtuelle. Si tous les moteurs VM Direct externes sont indisponibles, le moteur VM Direct intégré est utilisé par PowerProtect Data Manager en tant que système de secours pour effectuer des sauvegardes et des restaurations à échelle limitée. Si vous ne souhaitez pas utiliser le moteur VM Direct externe, vous pouvez le désactiver. Actions VM Direct supplémentaires , page 59 fournit plus d’informations à ce sujet. REMARQUE : Le moteur VM Direct externe est toujours obligatoire pour les opérations VMware Cloud on AWS, les règles de protection de cluster Kubernetes qui nécessitent un proxy de machine virtuelle à la place du cProxy et les règles de protection NAS. Si aucun moteur VM Direct externe n’est disponible pour ces solutions, les opérations de protection des données échouent. Étapes suivantes Si le déploiement de moteur de protection échoue, vérifiez la configuration réseau de PowerProtect Data Manager dans la fenêtre System Settings pour corriger toute incohérence dans les propriétés réseau. Après avoir correctement terminé la reconfiguration du réseau, supprimez le le moteur de protection en échec, puis ajoutez le moteur de protection dans la fenêtre Protection Engines. Activation du cluster Kubernetes 29 Lors de la configuration du moteur VM Direct dans un environnement VMware Cloud on AWS, si le moteur VM Direct est déployé à la racine du cluster plutôt qu’à l’intérieur du pool de ressources de calcul, vous devez déplacer le moteur VM Direct à l’intérieur du pool de ressources de calcul. 30 Activation du cluster Kubernetes 3 Gestion du stockage, des ressources et de la protection des clusters Kubernetes Sujets : • • • • • • • Ajout d’un stockage de protection Ajout d’une règle de protection des espaces de nommage Kubernetes Ajout d’un programme Niveau Cloud à une règle de protection Rétention plus longue Modification de la période de conservation des copies de sauvegarde Suppression de copies de sauvegarde Ajout d’un contrat de niveau de service Ajout d’un stockage de protection Ajoutez et configurez un système de stockage à utiliser comme cible pour les politiques de protection. Vous devez disposer du rôle d’administrateur pour pouvoir ajouter un système de stockage. Prérequis REMARQUE : Lors de l’ajout d’un système Haute disponibilité PowerProtect DD, observez les points suivants : ● N’ajoutez pas les systèmes DD individuels actifs et en veille à PowerProtect Data Manager. ● Dans le champ Adresse,, utilisez le nom d’hôte correspondant à l’adresse IP flottante du système Haute disponibilité PowerProtect DD. ● Le système Haute disponibilité PowerProtect DD haute disponibilité est vérifié avec le certificat racine. À propos de cette tâche Le PowerProtect Data Manager Administration and User Guide (Guide de l’utilisateur et de l’administrateur de PowerProtect Data Manager) fournit plus d’informations sur stockage de protection, y compris les options telles que la haute disponibilité et les pool système, ainsi que sur la configuration des unités de stockage. Étapes 1. Dans le volet de navigation de gauche, sélectionnez Infrastructure > Storage. La fenêtre Storage s’affiche. 2. Dans l’onglet Stockage de protection, cliquez sur Ajouter. 3. Dans la boîte de dialogue Ajouter du stockage, sélectionnez un système de stockage (Système PowerProtect DD ou PowerProtect DD Management Center). Pour un pool système, sélectionnez DDMC. 4. Pour ajouter un système Haute disponibilité PowerProtect DD, cochez la case. 5. Spécifiez les attributs du système de stockage : a. Dans le champ Nom, spécifiez un nom de stockage. b. Dans le champ Adresse, spécifiez le nom d’hôte, le nom de domaine complet (FQDN) ou l’adresse IP. c. Dans le champ Port, spécifiez le port pour la communication SSL. La valeur par défaut est 3009. 6. Dans Informations d’identification de l’hôte, cliquez sur Ajouter et sélectionnez un mot de passe existant si vous avez déjà configuré des informations d’identification stockage de protection communes à tous les systèmes. Vous pouvez également ajouter de nouvelles informations d’identification, puis cliquer sur Save. Gestion du stockage, des ressources et de la protection des clusters Kubernetes 31 7. Si un certificat de confiance n’existe pas sur le système de stockage, une boîte de dialogue demande l’approbation du certificat. Cliquez sur Verify pour vérifier le certificat, puis cliquez sur Accept. 8. Cliquez sur Save pour fermer la boîte de dialogue Ajouter du stockage et lancer la découverte du système de stockage. Une boîte de dialogue s’affiche pour indiquer que la demande d’ajout de stockage a été lancée. 9. Dans la fenêtre Stockage, cliquez sur Découvrir pour actualiser la fenêtre avec les systèmes de stockage récemment découverts. Une fois la découverte terminée, la colonne État se met à jour sur OK. 10. Pour modifier l’emplacement d’un système de stockage, procédez comme suit : L’emplacement d’un système de stockage est un libellé appliqué à un système de stockage. Pour stocker vos copies dans un emplacement spécifique, l’étiquette permet de sélectionner le système de stockage approprié lors de la création de règles. a. Dans la fenêtre Stockage, sélectionnez le système de stockage dans le tableau. b. Cliquez sur Plus d’actions > Définir l’emplacement. La fenêtre Définir un emplacement s’affiche. c. Cliquez sur Ajouter dans la liste Emplacement. La fenêtre Ajouter un emplacement s’affiche. d. Dans le champ Nom, saisissez un nom d’emplacement pour la ressource, puis cliquez sur Enregistrer. Résultats PowerProtect Data Manager affiche uniquement les systèmes DD externes dans la colonne Name de la fenêtre Storage. PowerProtect Data Manager affiche les types de stockage PowerProtect DD Management Center dans la colonne Managed By. Ajout d’une règle de protection des espaces de nommage Kubernetes Une politique de protection Kubernetes vous permet de sélectionner des espaces de nommage dans le cluster Kubernetes que vous souhaitez sauvegarder. Utilisez l’interface utilisateur de PowerProtect Data Manager pour créer une règle de protection des espaces de nommage Kubernetes. Prérequis REMARQUE : La détection d’un cluster Kubernetes permet de détecter les espaces de nommage qui contiennent des volumes à partir de l’interface de stockage de conteneur (CSI), mais aussi des systèmes de stockage non basés sur CSI. Toutefois, la sauvegarde et la restauration sont prises en charge uniquement à partir des systèmes de stockage basés sur CSI. Si vous sélectionnez un espace de nommage issu d’un stockage non basé sur CSI, la sauvegarde échoue. De plus, si vous souhaitez protéger un espace de nommage qui contient des systèmes de stockage non basés sur CSI, vous pouvez également exclure le PVC non CSI de la sauvegarde. Si vous excluez le PVC, assurez-vous que la règle satisfait toujours vos exigences de protection. Le cas échéant, exécutez toutes les tâches de configuration de réseau virtuel avant d’attribuer des réseaux virtuels à la règle de protection. Le PowerProtect Data Manager Administration and User Guide (Guide de l’utilisateur et de l’administrateur de PowerProtect Data Manager) fournit plus d’informations sur l’utilisation des unités de stockage, y compris les restrictions applicables et les considérations relatives à la sécurité. Avant d’effectuer des sauvegardes hebdomadaires ou mensuelles à partir de la stratégie de protection, assurez-vous que le fuseau horaire PowerProtect Data Manager est défini sur le fuseau horaire local. À propos de cette tâche Lorsque PowerProtect Data Manager sauvegarde un espace de nommage Kubernetes, les éléments suivants sont inclus dans la sauvegarde de la politique de protection : ● Les ressources Kubernetes, en plus du contenu des volumes persistants liés aux PVC de cet espace de nommage. Les ressources Kubernetes sont sauvegardées à l’aide de Velero. Les ressources Kubernetes en amont, telles que les déploiements, les StatefulSets, les DaemonSets, les pods, les secrets, ConfigMap et les ressources personnalisées, sont sauvegardées dans le cadre des ressources Kubernetes. 32 Gestion du stockage, des ressources et de la protection des clusters Kubernetes ● Les ressources de cluster sont automatiquement sauvegardées dans le cadre de la stratégie de protection Kubernetes. Ces ressources comprennent les rôles de cluster, les liaisons de rôles de cluster, les comptes de service et les définitions de ressources personnalisées (CRD) qui sont associées aux ressources relevant de l’espace de nommage. ● Pour OpenShift, les ressources spécifiques à OpenShift telles que DeploymentConfig, BuildConfig et ImageStream sont également protégées à l’aide du plug-in Velero OpenShift. REMARQUE : Les images de conteneur ne sont pas protégées dans le cadre de la ressource ImageStream. Étapes 1. Dans le volet de navigation de gauche, sélectionnez Protection > Règles de protection. 2. Dans la fenêtre Règles de protection, cliquez sur Ajouter. L’assistant Ajouter une politique s’affiche. 3. Sur la page Type, remplissez les champs suivants, puis cliquez sur Suivant : ● Nom : saisissez un nom descriptif pour la règle de protection. ● Description : saisissez une description pour la règle. ● Type : pour le type de règle, sélectionnez Kubernetes. 4. Sur la page Objectif, sélectionnez l’une des options suivantes pour indiquer le but du nouveau groupe de règles de protection, puis cliquez sur Suivant : ● Cohérence après sinistre : sélectionnez ce type pour une sauvegarde des espaces de nommage à un point dans le temps. ● Exclusion : sélectionnez ce type s’il existe des ressources dans la règle de protection que vous envisagez d’exclure des opérations de protection des données. 5. Sur la page Ressources, sélectionnez un ou plusieurs espaces de nommage non protégés que vous souhaitez sauvegarder dans le cadre de cette règle de protection. Si l’espace de nommage que vous souhaitez protéger n’est pas répertorié, effectuez l’une des opérations suivantes : ● Cliquez sur Rechercher plus de ressources pour mettre à jour la détection du cluster Kubernetes. ● Utilisez la zone Rechercher pour effectuer une recherche par nom de ressource. 6. (En option) Pour les espaces de nommage sélectionnés, cliquez sur le lien dans la colonne PVC exclus (le cas échéant) pour effacer tous les PVC que vous souhaitez exclure de la sauvegarde. Par défaut, tous les PVC sont sélectionnés et seront inclus. 7. Cliquez sur Next. La page Objectives s’affiche. 8. Sur la page Objectives, sélectionnez un contrat de niveau de service (SLA) au niveau de la stratégie dans la liste Set Policy Level SLA, ou sélectionnez Add pour ouvrir l’assistant Add Service Level Agreement et créer un SLA au niveau de la stratégie. Ajout d’un contrat de niveau de service , page 42 fournit des instructions à ce sujet. 9. Cliquez sur Add sous Primary Backup. La boîte de dialogue Ajouter une sauvegarde principale s’affiche. 10. Dans le volet Schedules de la boîte de dialogue Add Primary Backup : a. Renseignez les champs suivants pour programmer une sauvegarde complète synthétique de la stratégie de protection : ● Create a Synthetic Full... : indiquez la fréquence de création d’une sauvegarde complète synthétique. Pour les revendications de volume persistant (PVC) sur disques FCD (First Class Disk) VMware, Synthetic Full ne sauvegarde que les blocs modifiés depuis la dernière sauvegarde, afin de créer une nouvelle sauvegarde complète. En outre, les métadonnées de l’espace de nommage sont sauvegardées intégralement sur chaque sauvegarde. ● Retain For : déterminez la période de conservation de la sauvegarde complète synthétique. Vous pouvez allonger la période de conservation pour la dernière copie de sauvegarde principale en ajoutant une sauvegarde Extend Retention. Par exemple, le programme de sauvegarde quotidienne régulière peut inclure une période de conservation de 30 jours, mais vous pouvez appliquer des sauvegardes de conservation prolongée de sorte à conserver les sauvegardes complètes effectuées le lundi durant 10 semaines. L’étape 13 , page 34 indique des consignes. REMARQUE : Pour les sauvegardes de base de données, PowerProtect Data Manager chaîne ensemble les sauvegardes dépendantes. Par exemple, les sauvegardes complètes synthétiques ou les sauvegardes de journaux de transactions sont chaînées à leurs sauvegardes complètes de base. Les sauvegardes n’expirent pas jusqu’à ce que la dernière sauvegarde de la chaîne expire. Le chaînage des sauvegardes permet de garantir la restauration de toutes les sauvegardes complètes synthétiques et les sauvegardes de fichier log des transactions jusqu’à leur expiration. ● Start et End : pour la fenêtre Activity, indiquez l’heure de début de la sauvegarde complète synthétique, ainsi que l’heure de fin à partir de laquelle les sauvegardes ne peuvent plus être démarrées. REMARQUE : Toutes les sauvegardes démarrées avant l’Heure de fin se poursuivent jusqu’à la fin. Gestion du stockage, des ressources et de la protection des clusters Kubernetes 33 ● Cliquez sur Save pour enregistrer et réduire le programme de sauvegarde. b. Cliquez sur Add Backup pour forcer une sauvegarde complète (niveau 0) périodique, puis renseignez les champs suivants pour programmer la sauvegarde complète de la stratégie de protection : REMARQUE : Lorsque vous sélectionnez cette option, la chaîne de sauvegarde est réinitialisée. ● Create a Full... : indiquez si vous souhaitez créer une sauvegarde complète hebdomadaire ou mensuelle. ● Repeat on : en fonction de la fréquence du programme de sauvegarde complète, spécifiez le jour de la semaine ou du mois auquel lancer la sauvegarde complète. ● Retain For : déterminez la période de conservation de la sauvegarde complète. Il peut s’agir de la même valeur que la planification de sauvegarde complète synthétique ou d’une autre valeur. ● Start et End : pour la fenêtre Activity, indiquez l’heure de début de la sauvegarde complète, ainsi que l’heure de fin à partir de laquelle les sauvegardes ne peuvent plus être démarrées. REMARQUE : Toutes les sauvegardes démarrées avant l’Heure de fin se poursuivent jusqu’à la fin. ● Cliquez sur Save pour enregistrer et réduire le programme de sauvegarde. 11. Dans le volet Target de la boîte de dialogue Add Primary Backup, renseignez les champs suivants : a. Storage Name : sélectionnez une destination de sauvegarde dans la liste des système de stockage de protection existants, ou sélectionnez Add pour ajouter un système, puis renseignez les informations dans la fenêtre Storage Target. REMARQUE : Le champ Space indique le volume d’espace total, ainsi que le pourcentage d’espace disponible sur le système de stockage de protection. b. Storage Unit : indiquez si la politique de protection doit utiliser une unité de stockage New sur le système de stockage de protection sélectionné, ou sélectionnez une unité de stockage existante dans la liste. Placez le curseur de la souris sur une unité de stockage pour afficher le nom complet et les statistiques de capacité disponible/totale, par exemple, testvmplc-ppdmdaily-123ab (300 GB/1 TB). Lorsque vous sélectionnez New, une nouvelle unité de stockage au format policy name host name unique identifier est créée dans le système de stockage lorsque l’exécution de la stratégie se termine. Par exemple, testvmplc-ppdm-daily-123cd. c. Network Interface : sélectionnez une interface réseau dans la liste, le cas échéant. d. Retention Lock : déplacez le curseur Retention Lock vers la droite pour activer le verrouillage de la conservation pour les sauvegardes sur le système sélectionné. PowerProtect Data Manager utilise le mode gouvernance pour le verrouillage pour conservation, ce qui signifie que le verrou peut être rétabli à tout moment, si nécessaire. Activer ou désactiver le curseur Retention Lock concerne uniquement la copie de sauvegarde actuelle et n’affecte pas le paramètre de verrouillage pour conservation des copies de sauvegarde existantes. REMARQUE : Une période de verrouillage de conservation par défaut de 14 jours est attribuée aux sauvegardes principales. Néanmoins, aucune période de verrouillage de conservation par défaut n’est attribuée aux sauvegardes répliquées. Si vous activez le curseur Retention Lock pour une sauvegarde répliquée, veillez à définir le champ Retain For dans la boîte de dialogue du programme de sauvegarde Add Replication sur au moins 14 jours afin que la sauvegarde répliquée n’expire pas avant la sauvegarde principale. e. SLA : sélectionnez le contrat de niveau de service existant que vous souhaitez appliquer au programme ou sélectionnez Add pour créer un SLA dans l’assistant Add Service Level Agreement. Ajout d’un contrat de niveau de service , page 42 fournit des instructions à ce sujet. 12. Cliquez sur Save pour enregistrer vos modifications et revenir à la page Objectives. La page Objectives se met à jour pour afficher le nom et l’emplacement du système de stockage cible sous Primary Backup. REMARQUE : Après avoir terminé un programme de sauvegarde, vous pouvez en modifier les détails en cliquant sur Edit. 13. Vous pouvez prolonger la période de conservation de la dernière copie de sauvegarde principale (en option). Rétention plus longue , page 37 fournit plus d’informations sur la fonctionnalité Extend Retention. a. Cliquez sur Extend Retention en regard de Primary Backup. Une entrée associée à Extend Retention est créée sous Primary Backup. b. Sous Extend Retention, cliquez sur Add. La boîte de dialogue Add Extended Retention s’affiche. c. Retain the next scheduled full copy every... : spécifiez une récurrence hebdomadaire, mensuelle ou annuelle pour le programme de sauvegarde de conservation prolongée. d. Repeat on : en fonction de la fréquence du programme de sauvegarde complète, spécifiez le jour de la semaine, du mois ou de l’année auquel lancer la sauvegarde de conservation prolongée. e. Retain For : déterminez la période de conservation de la sauvegarde. Vous pouvez garder une sauvegarde de conservation prolongée pendant une durée maximale de 70 ans. 34 Gestion du stockage, des ressources et de la protection des clusters Kubernetes f. Cliquez sur Save pour enregistrer vos modifications et revenir à la page Objectives. 14. Vous pouvez répliquer ces sauvegardes vers un système de stockage distant (en option) : a. Cliquez sur Replicate en regard de Primary Backup ou de Extend Retention. Une entrée associée à Replicate est créée à droite de la sauvegarde principale/de conservation prolongée. REMARQUE : PowerProtect Data Manager prend en charge la réplication d’une sauvegarde de conservation prolongée uniquement si la sauvegarde principale a déjà une ou plusieurs phases de réplication. En outre, pour la réplication d’une sauvegarde de conservation prolongée, vous pouvez uniquement sélectionner les système de stockage de protection utilisés par les phases de réplication, en fonction de la phase principale. Par exemple, si 6 système de stockage de protection sont disponibles (DD001-DD006) et que la sauvegarde principale est sur DD0001 : ● La réplication 1 basée sur la sauvegarde principale est répliquée sur DD002 ● La réplication 2 basée sur la sauvegarde principale est répliquée sur DD003 ● La sauvegarde de conservation prolongée est sauvegardée sur DD001 ● La réplication 3 basée sur la sauvegarde de conservation prolongée doit être répliquée sur DD002 ou DD003. b. Sous Replicate, cliquez sur Add. La boîte de dialogue Add Replication apparaît. REMARQUE : Pour activer la réplication, veillez à ajouter un stockage de protection distant en tant qu’emplacement de réplication. Ajout d’un stockage de protection , page 31 fournit des instructions détaillées sur l’ajout d’un stockage de protection distant. c. Renseignez les détails du programme dans la boîte de dialogue Add Replication, puis cliquez sur Save pour enregistrer vos modifications et revenir à la page Objectives. La fréquence du programme peut être quotidienne, hebdomadaire, mensuelle ou horaire (de x heures) pour la réplication de la sauvegarde principale, et quotidienne, hebdomadaire, mensuelle, annuelle ou horaire (x heures) pour la réplication de la sauvegarde de conservation prolongée. Pour les programmes quotidiens, hebdomadaires et mensuels, la valeur numérique ne peut pas être modifiée. Toutefois, pour les programmes horaires, vous pouvez modifier la valeur numérique. Par exemple, si vous sélectionnez Create a Full backup every 4 hours, vous pouvez définir une valeur comprise entre 1 et 12 heures. Toutes les copies de réplication de la planification de sauvegarde principale utiliseront la même période de conservation et, par défaut, cette période est héritée de la valeur Retain For de la planification de sauvegarde complète synthétique. Pour spécifier une période de conservation différente pour toutes les copies de réplication de cette planification de sauvegarde principale, cliquez sur Edit, modifiez la valeur dans le champ Retain For et cliquez sur Save. Cette période de conservation sera appliquée à toutes les copies répliquées (complètes et complètes synthétiques) de cette planification de sauvegarde principale. En cas de création de plusieurs copies de réplication d’une même politique de protection, Dell Technologies recommande de sélectionner un système de stockage différent pour chaque copie. 15. Pour déplacer des sauvegardes d’un stockage DD vers Niveau Cloud, vous pouvez ajouter une phase Cloud pour une planification de sauvegarde principale, de réplication ou avec conservation prolongée (en option) : a. Cliquez sur Cloud Tier en regard de Primary Backup ou de Extend Retention ou, si vous ajoutez une phase Cloud pour un programme de réplication que vous avez ajouté, cliquez sur Cloud Tier sous Replicate. Une entrée associée à Cloud Tier est créée à droite du programme de sauvegarde principale/de conservation prolongée, ou en dessous du programme de réplication. b. Sous l’entrée pour Cloud Tier, cliquez sur Add. La boîte de dialogue Add Cloud Tier Backup s’affiche avec des informations de planification récapitulative pour le nœud parent et indique que vous ajoutez une phase Niveau Cloud pour la planification de sauvegarde principale, de réplication ou avec conservation prolongée. c. Renseignez les détails du programme dans la boîte de dialogue Add Cloud Tier Backup, puis cliquez sur Save pour enregistrer vos modifications et revenir à la page Objectives. Ajout d’un programme Niveau Cloud à une règle de protection , page 36 fournit des instructions détaillées sur l’ajout d’une phase Cloud pour un programme de sauvegarde principale, de réplication ou de conservation prolongée. REMARQUE : Pour déplacer une sauvegarde ou un réplica vers Niveau Cloud, les planifications doivent être définies avec une durée de conservation d’au moins 14 jours. De plus, la découverte d’un stockage de protection configuré avec une unité Cloud est requise. 16. Cliquez sur Next. La page Résumé s’affiche. 17. Vérifiez les détails de la configuration du groupe de règles de protection, puis cliquez sur Terminer. Excepté pour le type de règle de protection, vous pouvez cliquer sur Modifier à côté des informations de la règle pour les modifier. Gestion du stockage, des ressources et de la protection des clusters Kubernetes 35 Un message d’information s’affiche pour confirmer que PowerProtect Data Manager a enregistré la règle de protection. Lors de la création de la nouvelle règle de protection et de l’ajout de ressources à la règle de protection, PowerProtect Data Manager effectue les sauvegardes en fonction de la planification de sauvegarde. 18. Cliquez sur OK pour quitter la fenêtre ou sur Accéder aux tâches pour ouvrir la fenêtre Tâches. Dans la fenêtre Sous-tâches, vous pouvez surveiller la progression de la nouvelle sauvegarde de la règle de protection du cluster Kubernetes et des sous-tâches associées. Vous pouvez également annuler toutes les sous-tâches en cours ou mises en file d’attente. REMARQUE : Si un cluster Kubernetes est en cours d’exécution sur vSphere et utilise un stockage CSI vSphere, les détails de la tâche indiquent que le chemin d’accès des données optimisé est utilisé pour la sauvegarde. Étapes suivantes Si la sauvegarde échoue avec l’erreur Failed to create Proxy Pods. Creating Pod exceeds safeguard limit of 10 minutes, vérifiez que le pilote CSI fonctionne correctement. Il doit être capable de créer des snapshots et un PVC à partir de la source de données VolumeSnapshot. De plus, assurez-vous d’effacer toutes les ressources VolumeSnapshot orphelines qui existent encore dans l’espace de nommage. Ajout d’un programme Niveau Cloud à une règle de protection Pour certains types de politiques de protection, vous pouvez ajouter un programme Niveau Cloud à une règle de protection afin d’effectuer des sauvegardes vers Niveau Cloud. Prérequis Assurez-vous que système de stockage de protection est configuré pour Hiérarchisation sur le Cloud. À propos de cette tâche Vous pouvez créer le programme Niveau Cloud à partir des phases Primary Backup, Replicate et Extend Retention. Les programmes font l’objet d’une durée de conservation d’au moins 14 jours. Hiérarchisation sur le Cloud se produit à 00 h 00 UTC chaque jour. En fonction de votre fuseau horaire, cette heure peut survenir pendant les heures de bureau. Hiérarchisation sur le Cloud peut donc affecter la bande passante réseau disponible. Hiérarchisation sur le Cloud s’applique à la fois aux règles de protection centralisées et en libre-service. Étapes 1. Connectez-vous à l’interface utilisateur PowerProtect Data Manager en tant qu’utilisateur doté du rôle Administrateur. 2. À partir de l’ PowerProtect Data Manager interface utilisateur, sélectionnez Protection > Règles de protection, puis cliquez sur Ajouter. L’assistant Ajouter une politique s’affiche. 3. Dans la page Type, saisissez un nom et une description, sélectionnez le type de système à sauvegarder, puis cliquez sur Suivant. Les types de règle de protection suivants prennent en charge Hiérarchisation sur le Cloud : ● ● ● ● ● ● ● machine virtuelle SQL Exchange Oracle SAP HANA Système de fichiers Kubernetes 4. Sur la page Objectifs, sélectionnez l’une des options disponibles pour indiquer le but de la nouvelle politique de protection, puis cliquez sur Suivant. 5. Sur la page Ressource, sélectionnez les ressources à protéger à l’aide de cette politique, puis cliquez sur Suivant. 6. Sur la page Objectives, cliquez sur Add sous Primary Backup si le programme de sauvegarde principale n’a pas déjà été créé et renseignez les champs dans les volets Target et Schedules de la boîte de dialogue Add Primary Backup. 36 Gestion du stockage, des ressources et de la protection des clusters Kubernetes REMARQUE : Il n’existe aucune récurrence minimale obligatoire pour la phase Cloud. Toutefois, le programme de Niveau Cloud nécessite de définir une période de conservation d’au moins 14 jours dans le champ Retain for. 7. Cliquez sur Cloud Tier en regard de Primary Backup ou de Extend Retention ou, si vous ajoutez une phase Cloud pour un programme de réplication que vous avez ajouté, cliquez sur Cloud Tier sous Replicate. Une entrée associée à Cloud Tier est créée à droite du programme de sauvegarde principale/de conservation prolongée, ou en dessous du programme de réplication. 8. Sous l’entrée pour Cloud Tier, cliquez sur Add. La boîte de dialogue Add Cloud Tier Backup s’affiche, avec des informations de programme récapitulatives pour le nœud parent. Ces informations indiquent que vous ajoutez cette étape de Niveau Cloud pour la planification de la sauvegarde principale, la planification de la conservation prolongée ou la planification de la réplication. 9. Dans la boîte de dialogue Add Cloud Tier Backup, définissez les paramètres suivants, puis cliquez sur Save : ● Sélectionnez l’unité de stockage appropriée dans la liste Cloud Target. ● Pour Tier After, définissez une durée d’au moins 14 jours. La nouvelle règle de protection est désormais activée avec Hiérarchisation sur le Cloud. 10. Cliquez sur Next pour continuer avec les pages restantes de l’assistant Add Policy, vérifiez les informations, puis cliquez sur Finish. Une nouvelle tâche est créée, que vous pouvez afficher sous l’onglet Tâches une fois la tâche terminée. Rétention plus longue Vous pouvez allonger la période de conservation pour la copie de sauvegarde principale pour une conservation à long terme. Par exemple, la planification de sauvegardes quotidiennes régulières peut inclure une période de conservation de 30 jours, mais vous pouvez étendre la période de conservation pour garder les sauvegardes complètes effectuées le lundi durant 10 semaines. Les règles de protection centralisées et en libre-service prennent en charge des planifications de récurrence hebdomadaires, mensuelles et annuelles afin de répondre aux besoins de vos objectifs de conformité. Par exemple, vous pouvez conserver la dernière sauvegarde complète contenant la dernière transaction d’un exercice fiscal pendant 10 ans. Lorsque vous étendez la période de conservation d’une sauvegarde dans une règle de protection, vous pouvez conserver les sauvegardes complètes planifiées à l’aide d’un modèle de répétition pour une durée spécifiée. Par exemple : ● Conservez les sauvegardes annuelles complètes qui sont configurées pour se répéter le premier jour du mois de janvier pendant 5 ans. ● Conservez les sauvegardes mensuelles complètes qui sont configurées pour se répéter le dernier jour de chaque mois pendant 1 an. ● Conservez les sauvegardes annuelles complètes qui sont configurées pour se répéter le troisième lundi de décembre pendant 7 ans. Alternatives privilégiées Lorsque vous définissez une phase de conservation étendue pour une règle de protection, vous définissez un ensemble de critères de correspondance qui sélectionnent les sauvegardes privilégiées à conserver. Si les critères correspondants n’identifient pas une sauvegarde correspondante, PowerProtect Data Manager conserve automatiquement la sauvegarde alternative privilégiée en suivant l’une des méthodes suivantes : ● Look-back : conservez la dernière sauvegarde complète disponible qui a été effectuée avant les critères de correspondance. ● Look-forward : conservez la prochaine sauvegarde complète disponible qui a été effectuée après les critères de correspondance. Prenons l’exemple d’une situation dans laquelle vous avez configuré une règle de protection pour conserver la sauvegarde quotidienne du dernier jour du mois pour la conservation étendue. Toutefois, un problème de réseau a provoqué l’échec de la sauvegarde. Dans ce cas, la correspondance Look-back conserve la sauvegarde qui a été réalisée le jour précédent, tandis que la correspondance Look-forward conserve la sauvegarde qui a été réalisée le jour suivant. Par défaut, PowerProtect Data Manager utilise la correspondance Look-back pour sélectionner la sauvegarde alternative privilégiée. Un délai de grâce définit jusqu’où PowerProtect Data Manager peut aller dans la direction configurée pour une sauvegarde alternative. Si PowerProtect Data Manager ne parvient pas à trouver une sauvegarde alternative pendant la période de grâce, la conservation étendue échoue. Vous pouvez utiliser l’API REST pour modifier la méthode de correspondance ou la période de grâce pour la correspondance Look-forward. La section PowerProtect Data Manager Public REST API documentation (Documentation PowerProtect Data Manager Public REST API) contient des instructions à ce sujet. Si aucune sauvegarde n’est disponible pour la période de correspondance définie, vous pouvez remplacer la méthode de correspondance par une autre sauvegarde. Dans le cas d’une correspondance Look-forward, la sauvegarde suivante disponible peut être une sauvegarde ad hoc ou la prochaine sauvegarde planifiée. Gestion du stockage, des ressources et de la protection des clusters Kubernetes 37 Sélection des sauvegardes par jour de la semaine Cette section s’applique aux règles de protection centralisées. Les règles de protection en libre-service n’ont pas de configuration de planification de sauvegarde principale. Lorsque vous configurez la conservation étendue pour faire correspondre les sauvegardes par jour de la semaine, PowerProtect Data Manager peut identifier une sauvegarde qui a été effectuée un jour de la semaine comme ayant été effectuée un autre jour de la semaine. Ce comportement se produit lorsque la fenêtre de sauvegarde ne correspond pas au début du jour concerné. PowerProtect Data Manager identifie les sauvegardes en fonction du jour de démarrage de la fenêtre de sauvegarde correspondante, plutôt que du début de la sauvegarde elle-même. Prenons, par exemple, une planification de sauvegarde avec une fenêtre de sauvegarde comprise entre 20 h 00 et 6 h 00 : ● Les sauvegardes qui commencent à 00 h 00 le dimanche et qui se terminent à 6 h 00 le dimanche sont identifiées en tant que sauvegardes du samedi, puisque la fenêtre de sauvegarde a démarré le samedi. ● Les sauvegardes qui commencent à 20 h 01 le dimanche et qui se terminent à 00 h 00 le lundi sont identifiées en tant que sauvegardes du dimanche, puisque la fenêtre de sauvegarde a démarré le dimanche. ● Les sauvegardes qui commencent à 00 h 00 le lundi et qui se terminent à 6 h 00 le lundi sont identifiées en tant que sauvegardes du dimanche, puisque la fenêtre de sauvegarde a démarré le dimanche. Dans cet exemple, lorsque vous sélectionnez des sauvegardes du dimanche pour la conservation étendue, PowerProtect Data Manager ne conserve pas les sauvegardes qui ont été effectuées entre 00 h 00 et 20 h 00. Ce comportement se produit même si les sauvegardes ont eu lieu le dimanche. PowerProtect Data Manager sélectionne à la place la première sauvegarde disponible qui a démarré après 20 h 00 le dimanche pour la conservation étendue. Si aucune sauvegarde n’a été créée entre 20 h 01 le dimanche et 6 h 00 le lundi, PowerProtect Data Manager conserve la prochaine alternative à la conservation étendue. Dans cet exemple, la sauvegarde alternative a été effectuée après 6 h 00 le lundi. Comportement de la sauvegarde de conservation étendue Lorsque PowerProtect Data Manager identifie une sauvegarde correspondante, la conservation automatique étendue crée une tâche au début de la fenêtre de sauvegarde pour l’étape principale. Cette tâche reste en file d’attente jusqu’à la fin de la fenêtre de sauvegarde, puis elle démarre. Les exemples suivants décrivent le comportement des sauvegardes avec conservation étendue pour la protection centralisée et en libre-service. Protection centralisée Pour une planification de sauvegarde principale définie par des heures qui commence le dimanche à 20 h 00 et se termine le lundi à 18 h 00 avec une planification de conservation étendue hebdomadaire qui est configurée pour se répéter chaque dimanche, PowerProtect Data Manager sélectionne la première sauvegarde disponible commençant après 20 h 00 le dimanche pour une rétention à long terme. Le schéma suivant illustre le comportement des sauvegardes avec conservation étendue pour une règle de protection configurée. Dans cet exemple, les sauvegardes quotidiennes complètes qui commencent à 22 h 00 et se terminent à 6 h 00 sont conservées pendant 1 semaine. Des sauvegardes complètes hebdomadaires sont configurées pour se répéter tous les dimanches et sont conservées pendant 1 mois. Figure 1. Comportement d’extension de la sauvegarde de conservation 38 Gestion du stockage, des ressources et de la protection des clusters Kubernetes Protection en libre-service : Pour les sauvegardes en libre-service, PowerProtect Data Manager utilise une fenêtre de sauvegarde par défaut de 24 heures. Dans le cas d’une planification de sauvegarde qui commence le dimanche à 12 h 00 et se termine le lundi à 12 h 00 avec une planification de conservation étendue hebdomadaire qui est configurée pour se répéter chaque dimanche, PowerProtect Data Manager sélectionne la première sauvegarde disponible qui est effectuée entre 12 h 00 le dimanche et 12 h 00 le lundi pour une rétention sà long terme. Modification de la période de conservation des copies de sauvegarde Vous pouvez modifier la période de conservation d’une ou de plusieurs copies de sauvegarde afin d’étendre ou de réduire la durée pendant laquelle les sauvegardes sont conservées. À propos de cette tâche Vous pouvez modifier la conservation pour tous les types de ressources et tous les types de sauvegardes. Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Infrastructure > Assets. 2. Dans la fenêtre Ressources, sélectionnez l’onglet correspondant au type de ressources dont vous souhaitez modifier la conservation. Si une règle a été attribuée, le tableau répertorie les ressources qui ont été découvertes, ainsi que la règle de protection associée. REMARQUE : Pour les ressources de machine virtuelle, vous pouvez cliquer sur le lien de la colonne Disques exclus en regard d’une ressource de machine virtuelle pour afficher les disques VMDK qui ont été exclus de la règle de protection. Toutefois, vous ne pouvez pas modifier les disques inclus ou exclus à partir de cette fenêtre. Pour modifier les disques exclus d’une ressource protégée, sélectionnez la règle dans la fenêtre Règles de protection, puis cliquez sur Modifier. 3. Sélectionnez une ressource protégée dans le tableau, puis cliquez sur View Copies. Le volet Copy Locations identifie l’emplacement de stockage des sauvegardes. 4. Dans le volet de gauche, cliquez sur l’icône de stockage à droite de l’icône de la ressource, par exemple, DD. Le tableau situé dans le volet de droite répertorie les copies de sauvegarde. 5. Sélectionnez une ou plusieurs copies de sauvegarde dans la liste et cliquez sur Modifier la conservation. 6. Procédez de l’une des manières suivantes : ● Pour sélectionner une date du calendrier pour l’expiration des sauvegardes, sélectionnez Date de conservation. ● Pour définir une période de conservation fixe en jours, en semaines, en mois ou en années après l’exécution de la sauvegarde, sélectionnez Valeur de conservation. Par exemple, vous pouvez indiquer que les sauvegardes doivent expirer après 6 mois. REMARQUE : Lorsque vous modifiez la période de conservation des copies verrouillées pour conservation, vous pouvez uniquement étendre cette période. 7. Lorsque vous êtes satisfait des modifications, cliquez sur Enregistrer. La ressource s’affiche dans la liste avec les modifications. La colonne Conservation affiche à la fois la période de conservation d’origine et la nouvelle ; elle indique si la période de conservation a été étendue ou réduite. Suppression de copies de sauvegarde Outre la suppression des sauvegardes à expiration de la période de conservation, PowerProtect Data Manager permet de supprimer manuellement des copies de sauvegarde à partir du stockage de protection. À propos de cette tâche Si vous n’avez plus besoin d’une copie de sauvegarde et que le verrouillage pour conservation n’est pas activé, vous pouvez supprimer les copies de sauvegarde avant leur date d’expiration. Vous pouvez désormais effectuer une suppression de copie de sauvegarde de sorte à supprimer uniquement une partie spécifique d’une chaîne de copies de sauvegarde, sans que cela n’affecte la possibilité de restaurer les autres copies de sauvegarde de la chaîne. Lorsque vous sélectionnez une copie de sauvegarde spécifique pour la supprimer, seules la copie de sauvegarde sélectionnée et les copies de Gestion du stockage, des ressources et de la protection des clusters Kubernetes 39 sauvegarde qui en dépendent sont supprimées. Par exemple, lorsque vous choisissez de supprimer une copie de sauvegarde complète, toutes les autres copies de sauvegarde qui en dépendent sont également supprimées. Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Infrastructure > Assets. 2. Dans la fenêtre Assets, sélectionnez l’onglet correspondant au type de ressources dont vous souhaitez supprimer des copies. Si une règle a été attribuée, le tableau répertorie les ressources qui ont été découvertes, ainsi que la règle de protection associée. 3. Sélectionnez une ressource protégée dans le tableau, puis cliquez sur View Copies. Le volet Copy Locations identifie l’emplacement de stockage des sauvegardes. 4. Dans le volet de gauche, cliquez sur l’icône de stockage à droite de l’icône de la ressource, par exemple, DD. Le tableau situé dans le volet de droite répertorie les copies de sauvegarde. 5. Dans le tableau, sélectionnez une ou plusieurs copies que vous souhaitez supprimer du système DD, puis cliquez sur Supprimer. Une fenêtre d’aperçu s’ouvre et affiche les copies de sauvegarde sélectionnées. REMARQUE : Pour les ressources avec des copies de sauvegarde chaînées ensemble (telles que les bases de données Microsoft SQL, Oracle et SAP HANA, et les machines virtuelles compatibles multiapplications), la fenêtre Aperçu répertorie toutes les copies de sauvegarde qui dépendent de la copie de sauvegarde spécifiée. Si vous supprimez une copie de sauvegarde, PowerProtect Data Manager supprime la copie de sauvegarde spécifiée et toutes les copies de sauvegarde qui en dépendent. 6. Pour tous les types de ressources, vous pouvez choisir de conserver les dernières copies de sauvegarde ou de les supprimer. Par défaut, PowerProtect Data Manager conserve les dernières copies de sauvegarde. Pour supprimer les dernières copies de sauvegarde, décochez la case en regard de l’option Inclure les copies les plus récentes. Pour les copies de sauvegarde des groupes de stockage VMAX, vous pouvez choisir de supprimer les copies regroupées dans la même transaction de protection ou de supprimer uniquement les copies sélectionnées. Par défaut, PowerProtect Data Manager supprime les copies regroupées dans la même transaction de protection. Pour supprimer uniquement les copies sélectionnées, décochez la case en regard de l’option Inclure les copies de la même transaction de protection. 7. Pour supprimer les copies de sauvegarde, dans la fenêtre Aperçu, cliquez sur Delete. REMARQUE : L’opération de suppression peut prendre quelques minutes et ne peut pas être annulée. Une boîte de dialogue d’informations s’affiche pour confirmer la suppression des copies. Pour surveiller la progression de l’opération, cliquez sur Go to Jobs. Pour afficher la liste des copies de sauvegarde et leur état, cliquez sur OK. Une fois la tâche terminée, le récapitulatif des sous-tâches fournit des informations détaillées sur chaque copie de sauvegarde supprimée (y compris l’heure de création, le niveau de sauvegarde et la durée de conservation de chaque copie). L’heure de création de la copie et la durée de conservation s’affichent en UTC. Un journal d’audit est également généré et fournit des informations détaillées sur chaque copie de sauvegarde supprimée (y compris l’heure de création, le niveau de sauvegarde et la durée de conservation de chaque copie). L’heure de création de la copie et la durée de conservation s’affichent en UTC. Accédez à Alerts > Audit Logs pour afficher le journal d’audit. 8. Vérifiez que les copies sont bien supprimées du stockage de protection. Si la suppression réussit, les copies supprimées n’apparaissent plus dans le tableau. Nouvelle tentative de suppression d’une copie de sauvegarde en échec Si la suppression d’une copie de sauvegarde échoue, vous pouvez relancer l’opération manuellement. Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Infrastructure > Ressources. 2. Dans la fenêtre Assets, sélectionnez l’onglet correspondant au type de ressources dont vous souhaitez supprimer des copies. Si une règle a été attribuée, le tableau répertorie les ressources qui ont été découvertes, ainsi que la règle de protection associée. 3. Sélectionnez une ressource protégée dans le tableau, puis cliquez sur View Copies. Le volet Copy Locations identifie l’emplacement de stockage des sauvegardes. 4. Dans le volet de gauche, cliquez sur l’icône de stockage à droite de l’icône de la ressource, par exemple, DD. Le tableau situé dans le volet de droite répertorie les copies de sauvegarde. 40 Gestion du stockage, des ressources et de la protection des clusters Kubernetes 5. Sélectionnez une ou plusieurs copies de sauvegarde associées à l’état Échec de suppression dans le tableau, puis cliquez sur Supprimer. Vous pouvez également filtrer et trier la liste des copies de sauvegarde par état dans la colonne État de la copie. Le système affiche un message d’avertissement pour que vous confirmiez que vous souhaitez supprimer la copie de sauvegarde sélectionnée. 6. Cliquez sur OK. Une boîte de dialogue d’information s’ouvre pour confirmer que les copies sont en cours de suppression. Pour surveiller la progression de l’opération, cliquez sur Go to Jobs. Pour afficher la liste des copies de sauvegarde et leur état, cliquez sur OK. 7. Assurez-vous que les copies ont été supprimées avec succès du stockage de protection. Si la suppression réussit, les copies supprimées n’apparaissent plus dans le tableau. Exportation des données des copies de sauvegarde supprimées Cette option vous permet d’exporter les résultats des copies de sauvegarde supprimées vers un fichier CSV afin de pouvoir télécharger un fichier Excel de données. Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Infrastructure > Ressources. 2. Dans la fenêtre Assets, sélectionnez l’onglet correspondant au type de ressource pour lequel vous souhaitez exporter les résultats des copies de sauvegarde supprimées. Si une règle a été attribuée, le tableau répertorie les ressources qui ont été découvertes, ainsi que la règle de protection associée. 3. Sélectionnez une ou plusieurs ressources protégées dans le tableau, puis cliquez sur More Actions > Export Deleted Copies. Si vous ne sélectionnez pas de ressource, PowerProtect Data Manager exporte les données des copies de sauvegarde supprimées pour toutes les ressources du type de ressources spécifique. 4. Renseignez les champs suivants pour l’exportation : a. Période La valeur par défaut est Last 24 Hours. b. État de la copie Afin d’exporter les données des copies de sauvegarde supprimées, les copies de sauvegarde doivent se trouver dans l’un des états suivants : ● Deleted : la copie est supprimée avec succès de stockage de protection et, le cas échéant, la suppression du catalogue de l’agent a réussi à partir de l’hôte de l’agent. ● Deleting : la suppression de la copie est en cours. ● Deletion Failed : la suppression de la copie de stockage de protection a échoué. ● Deletion Failed (Agent Catalog) : la copie est supprimée avec succès de stockage de protection, mais elle n’est pas supprimée de l’hôte de l’agent. REMARQUE : Cet état ne s’applique pas aux copies de sauvegarde de machine virtuelle et de Kubernetes. REMARQUE : Vous ne pouvez pas exporter les données des copies de sauvegarde qui se trouvent dans l’état Available. 5. Cliquez sur Download. Le cas échéant, la fenêtre de navigation s’affiche pour vous permettre de sélectionner l’emplacement d’enregistrement du fichier CSV. 6. Enregistrez le fichier CSV à l’emplacement souhaité et cliquez sur Save. Suppression de copies de sauvegarde de la base de données PowerProtect Data Manager Cette option permet de supprimer les enregistrements de copie de sauvegarde de la base de données PowerProtect Data Manager, tout en conservant les copies de sauvegarde dans stockage de protection. À propos de cette tâche Pour les copies de sauvegarde qui n’ont pas pu être supprimées de stockage de protection, vous pouvez supprimer les copies de sauvegarde de la base de données PowerProtect Data Manager. Si vous supprimez des copies de sauvegarde de PowerProtect Data Manager, les copies ne sont pas supprimées dans stockage de protection. Gestion du stockage, des ressources et de la protection des clusters Kubernetes 41 Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Infrastructure > Ressources. 2. Dans la fenêtre Assets, sélectionnez l’onglet correspondant au type de ressources dont vous souhaitez supprimer des copies. Si une règle a été attribuée, le tableau répertorie les ressources qui ont été découvertes, ainsi que la règle de protection associée. 3. Sélectionnez une ressource protégée dans le tableau, puis cliquez sur View Copies. Le volet Copy Locations identifie l’emplacement de stockage des sauvegardes. 4. Dans le volet de gauche, cliquez sur l’icône de stockage à droite de l’icône de la ressource, par exemple, DD. Le tableau situé dans le volet de droite répertorie les copies de sauvegarde. 5. Sélectionnez une ou plusieurs copies de sauvegarde associées à l’état Échec de suppression ou Échec de suppression (catalogue d’agents) dans le tableau, puis cliquez sur Supprimer de PowerProtect. Pour les copies de sauvegarde à l’état Échec de suppression (catalogue d’agents), cliquez sur Supprimer de PowerProtect pour supprimer les informations de PowerProtect Data Manager pour les copies de sauvegarde correctement supprimées de stockage de protection, mais pour lesquelles le catalogue d’agents n’a pas été supprimé de l’hôte de l’agent. Le système affiche un message d’avertissement pour que vous confirmiez que vous souhaitez supprimer la copie de sauvegarde sélectionnée. 6. Cliquez sur OK. Une boîte de dialogue d’information s’ouvre pour confirmer que les copies sont en cours de suppression. Pour surveiller la progression de l’opération, cliquez sur Go to Jobs. Pour afficher la liste des copies de sauvegarde et leur état, cliquez sur OK. 7. Vérifiez que les copies sont supprimées de la base de données PowerProtect Data Manager. Si la suppression réussit, les copies supprimées n’apparaissent plus dans le tableau. Les copies de sauvegarde restent dans stockage de protection. Ajout d’un contrat de niveau de service La fenêtre SLA Compliance de l’interface utilisateur de PowerProtect Data Manager vous permet d’ajouter un contrat de niveau de service (SLA) qui identifie vos objectifs de niveau de service (SLO). Vous utilisez les SLO pour vérifier que vos ressources protégées respectent les contrats de niveau de service (SLA). À propos de cette tâche REMARQUE : Lorsque vous créez un contrat SLA pour Niveau Cloud, vous pouvez uniquement y inclure des sauvegardes complètes. Étapes 1. À partir de l’interface utilisateur PowerProtect Data Manager, sélectionnez ProtectionSLA Compliance. La fenêtre SLA Compliance s’affiche. 2. Cliquez sur Add ou, si les ressources auxquelles vous souhaitez appliquer le contrat de niveau de service sont répertoriées, sélectionnez ces ressources, puis cliquez sur Add. L’assistant Add Service Level Agreement s’ouvre. 3. Sélectionnez le type de contrat SLA que vous souhaitez ajouter, puis cliquez sur Next. ● Policy. Si vous choisissez ce type, passez à l’étape 4. ● Backup. Si vous choisissez ce type, passez à l’étape 5. ● Extended Retention. Si vous choisissez ce type, passez à l’étape 6. ● Replication. Si vous choisissez ce type, passez à l’étape 7. ● Cloud Tier. Si vous choisissez ce type, passez à l’étape 8. Vous ne pouvez sélectionner qu’un seul type de contrat de niveau de service. 4. Si vous avez sélectionné Policy, renseignez les champs suivants concernant l’objet du nouveau contrat SLA Policy : a. Le nom du SLA. b. Le cas échéant, sélectionnez Minimum Copies, puis spécifiez le nombre de copies de sauvegarde, de réplication et de Niveau Cloud. c. Le cas échéant, sélectionnez Maximum Copies, puis spécifiez le nombre de copies de sauvegarde, de réplication et de Niveau Cloud. d. Le cas échéant, sélectionnez Available Location ainsi que les emplacements applicables. Pour ajouter un emplacement, cliquez sur Add Location. Les options disponibles sont les suivantes : 42 Gestion du stockage, des ressources et de la protection des clusters Kubernetes ● In : insérez les emplacements de toutes les copies dans les emplacements SLO. Si vous sélectionnez cette option, il n’est pas nécessaire que chaque emplacement SLO ait une copie. ● Must In : insérez les emplacements de toutes les copies dans les emplacements SLO. Si vous sélectionnez cette option, chaque emplacement SLO doit avoir au moins une copie. ● Exclude : les emplacements de toutes les copies ne peuvent pas être des emplacements SLO. e. Le cas échéant, sélectionnez Allowed in Cloud through Cloud Tier/Cloud DR. f. Cliquez sur Finish, puis passez à l’étape 9. 5. Si vous avez sélectionné Backup, renseignez les champs suivants concernant l’objet du nouveau contrat SLA Backup : a. Le nom du SLA. b. Le cas échéant, sélectionnez Recovery Point Objective required (RPO), puis définissez la durée. Un objectif RPO a pour but de planifier la continuité d’activité. Il indique la période ciblée maximale pendant laquelle les données (transactions) peuvent être perdues à partir d’un service IT en raison d’un incident majeur. REMARQUE : Vous ne pouvez sélectionner que Recovery Point Objective required à configurer en tant qu’objectif indépendant dans le contrat SLA ou sélectionner à la fois Recovery Point Objective required et Compliance Window for copy type. Si vous sélectionnez les deux options, le paramètre RPO doit avoir l’une des valeurs suivantes : ● Supérieure à 24 heures ou plus par rapport à la durée de la fenêtre Compliance. Dans ce cas, la validation de l’objectif RPO se produit indépendamment de la fenêtre Compliance. ● Inférieure ou égale à la durée indiquée dans la fenêtre Compliance. Dans ce cas, la validation de l’objectif RPO se produit au sein de la fenêtre Compliance. c. Le cas échéant, sélectionnez Compliance Window for copy type, puis sélectionnez un niveau de planification dans la liste (par exemple, All, Full ou Cumulative) et définissez la durée. Duration indique le temps nécessaire à la création de la copie de sauvegarde. Assurez-vous que les heures Start Time et End Time de création d’une copie de sauvegarde se situent dans la durée spécifiée dans la fenêtre Compliance. Cette fenêtre indique les heures auxquelles vous pouvez vous attendre à ce que l’activité spécifiée ait lieu. Toute activité spécifiée qui se produit en dehors de ces heures Start Time et End Time déclenche une alerte. d. Le cas échéant, sélectionnez l’option Verify expired copies are deleted. L’option Verify expired copies are deleted est une vérification de conformité pour voir si PowerProtect Data Manager supprime les copies ayant expiré. Cette option est désactivée par défaut. e. Le cas échéant, sélectionnez Retention Time Objective et spécifiez le nombre de jours, de mois, de semaines ou d’années. REMARQUE : Pour que la validation de la conformité aboutisse, la valeur définie pour Retention Time Objective doit correspondre à la valeur de rétention la plus basse définie pour les niveaux de sauvegarde des objectifs cibles de cette règle. Par exemple, si vous définissez la sauvegarde complète synthétique Retain For sur 30 jours, mais que la sauvegarde complète Retain For est définie sur 60 jours, l’objectif de durée de rétention doit être défini sur la valeur inférieure, dans ce cas, 30 jours. f. Le cas échéant, sélectionnez l’option Verify Retention Lock is enabled for all copies. Cette option est désactivée par défaut. g. Cliquez sur Finish, puis passez à l’étape 9. La fenêtre SLA Compliance s’affiche avec le nouveau contrat de niveau de service (SLA). 6. Si vous avez sélectionné Extended Retention, renseignez les champs suivants concernant l’objet du nouveau contrat de niveau de service (SLA) de conservation étendue. a. Le nom du SLA. b. Le cas échéant, sélectionnez Recovery Point Objective required (RPO), puis définissez la durée. Un objectif RPO a pour but de planifier la continuité d’activité. Il indique la période ciblée maximale pendant laquelle les données (transactions) peuvent être perdues à partir d’un service IT en raison d’un incident majeur. REMARQUE : Par défaut, le RPO fournit un délai de grâce de 1 jour pour la vérification de la conformité SLA. Par exemple, avec une planification de rétention étendue hebdomadaire, PowerProtect Data Manager fournit 8 jours pour que le RPO fasse aboutir la vérification de la conformité du contrat de niveau de service. c. Le cas échéant, sélectionnez l’option Verify expired copies are deleted. L’option Verify expired copies are deleted est une vérification de conformité pour voir si PowerProtect Data Manager supprime les copies ayant expiré. Cette option est désactivée par défaut. d. Le cas échéant, sélectionnez Retention Time Objective et spécifiez le nombre de jours, de mois, de semaines ou d’années. e. Le cas échéant, sélectionnez l’option Verify Retention Lock is enabled for all copies. Cette option est désactivée par défaut. f. Cliquez sur Finish, puis passez à l’étape 9. La fenêtre SLA Compliance s’affiche avec le nouveau contrat SLA ajouté. 7. Si vous avez sélectionné Replication, renseignez les champs suivants concernant l’objet du nouveau contrat SLA Replication : Gestion du stockage, des ressources et de la protection des clusters Kubernetes 43 a. Le nom du SLA. b. Le cas échéant, sélectionnez Compliance Window et spécifiez les heures Start Time et End Time. Cette fenêtre spécifie les périodes autorisées et dans lesquelles vous pouvez vous attendre à ce que l’activité spécifiée ait lieu. Toute activité spécifiée qui se produit en dehors de cette heure de début et de fin déclenche une alerte. c. Le cas échéant, sélectionnez l’option Verify expired copies are deleted. L’option Verify expired copies are deleted est une vérification de conformité pour voir si PowerProtect Data Manager supprime les copies ayant expiré. Cette option est désactivée par défaut. d. Le cas échéant, sélectionnez Retention Time Objective et spécifiez le nombre de jours, de mois, de semaines ou d’années. REMARQUE : Pour que la validation de la conformité aboutisse, la valeur définie pour Retention Time Objective doit correspondre à la valeur de rétention la plus basse définie pour les niveaux de sauvegarde des objectifs cibles de cette règle. e. Le cas échéant, sélectionnez l’option Verify Retention Lock is enabled for all copies. Cette option est désactivée par défaut. f. Cliquez sur Finish, puis passez à l’étape 9. La fenêtre SLA Compliance s’affiche avec le nouveau contrat SLA ajouté. 8. Si vous avez sélectionné un contrat SLA de type Niveau Cloud, renseignez les champs suivants concernant l’objet du nouveau contrat SLA Niveau Cloud : a. Le nom du SLA. b. Le cas échéant, sélectionnez l’option Verify expired copies are deleted. Cette option est une vérification de conformité pour déterminer si PowerProtect Data Manager supprime les copies ayant expiré. Cette option est désactivée par défaut. c. Le cas échéant, sélectionnez Retention Time Objective et spécifiez le nombre de jours, de mois, de semaines ou d’années. REMARQUE : Pour que la validation de la conformité aboutisse, la valeur définie pour Retention Time Objective doit correspondre à la valeur de rétention la plus basse définie pour les niveaux de sauvegarde des objectifs cibles de cette règle. d. Le cas échéant, sélectionnez l’option Verify Retention Lock is enabled for all copies. Cette option est désactivée par défaut. e. Cliquez sur Finish. 9. Si le SLA n’a pas déjà été appliqué à une règle de protection : a. Accédez à Protection > Protection Policies. b. Sélectionnez la règle, puis cliquez sur Edit. 10. Sur la ligne Objectives de la fenêtre Summary, cliquez sur Edit. 11. Sélectionnez l’une des options suivantes, puis cliquez sur Next : ● Sélectionnez le contrat SLA au niveau de la politique que vous avez ajouté dans la liste Set Policy Level SLA. ● Créez et ajoutez le contrat de niveau de service (SLA) au niveau de la règle à partir de la liste Set Policy Level SLA. La fenêtre Summary apparaît. 12. Cliquez sur Finish. Un message d’information s’affiche pour confirmer que PowerProtect Data Manager a enregistré la règle de protection. 13. Cliquez sur Go to Jobs pour ouvrir la fenêtre Jobs afin de surveiller les résultats de sauvegarde et de conformité, ou cliquez sur OK pour quitter. REMARQUE : Les contrôles de conformité se produisent automatiquement tous les jours à 2 h. Temps universel coordonné (UTC). Si des objectifs sont non conformes, une alerte est générée à 2 h du matin. UTC. La tâche Valider dans la fenêtre System Jobs indique les résultats de la vérification quotidienne de la conformité. Pour un contrat de niveau de service de sauvegarde avec un paramètre RPO obligatoire inférieur à 24 heures, PowerProtect Data Manager effectue des vérifications de conformité en temps réel. Si vous avez sélectionné Compliance Window for copy type et défini le niveau de sauvegarde sur All, la vérification de conformité en temps réel se produit toutes les 15 minutes uniquement dans la fenêtre de conformité. Si le niveau de sauvegarde n’est pas All ou si aucune fenêtre de conformité n’est spécifiée, la vérification de conformité en temps réel se produit toutes les 15 minutes sans interruption. REMARQUE : Si le SLA de sauvegarde présente un paramètre RPO obligatoire de 24 heures ou plus, les contrôles de conformité ont lieu tous les jours à 2 h du matin. UTC. Les contrôles de conformité en temps réel n’ont pas lieu pour les SLA de sauvegarde avec un paramètre RPO de 24 heures ou plus. Comportement de la vérification de la conformité en temps réel Si l’intervalle entre la sauvegarde la plus récente de la ressource et la vérification de conformité est supérieur à l’exigence de RPO, une alerte indique que le RPO de la ressource n’est pas conforme. Cette alerte est générée une seule fois au cours d’une période de RPO. Si la même copie de sauvegarde est manquée lors de la prochaine vérification de conformité, aucune autre alerte n’est générée. Si l’intervalle entre la sauvegarde la plus récente de la ressource et la vérification de conformité est inférieur à l’exigence de RPO, le RPO de la ressource est conforme. 44 Gestion du stockage, des ressources et de la protection des clusters Kubernetes Si plusieurs ressources d’une règle sont non conformes en même temps qu’une vérification de conformité, une seule alerte est générée et inclut des informations pour toutes les ressources qui ne sont pas conformes à la règle. Dans la fenêtre Alertes, le nombre de ressources en regard du récapitulatif des alertes indique le nombre de ressources qui ne sont pas conformes à la règle. 14. Dans la fenêtre Jobs, cliquez sur l’ de service (SLA). en regard d’une entrée pour afficher les détails du résultat de la conformité du contrat de niveau Gestion du stockage, des ressources et de la protection des clusters Kubernetes 45 4 Restauration des espaces de nommage et des PVC Kubernetes Sujets : • • • Afficher les copies de sauvegarde disponibles pour la restauration Restauration d’un espace de nommage Kubernetes Restauration en libre-service des espaces de nommage Kubernetes Afficher les copies de sauvegarde disponibles pour la restauration Lorsqu’une règle de protection est correctement sauvegardée, PowerProtect Data Manager affiche des détails tels que le nom du système de stockage contenant la sauvegarde des ressources, l’emplacement, la date de création et d’expiration, ainsi que la taille. Pour afficher un récapitulatif des sauvegardes : Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Infrastructure > Ressources ou Restauration > Ressources. 2. Sélectionnez l'onglet correspondant au type de ressources à afficher. Par exemple, pour des ressources de machines virtuelles vCenter, cliquez sur Virtual Machine. Les ressources qui sont associées à des copies de protection de ce type sont répertoriées. Par défaut, seules les ressources dont l’état est Disponible ou Non détecté s’affichent. Vous pouvez aussi rechercher des ressources par leur nom. Pour les machines virtuelles, vous pouvez également cliquer sur le bouton Rechercher des fichiers pour effectuer une recherche à l’aide de critères spécifiques. REMARQUE : La fenêtre Restauration > Ressources affiche uniquement les onglets des types de ressources pris en charge pour la restauration dans PowerProtect Data Manager. Principaux types de ressources prises en charge : ● Machines virtuelles ● Système de fichiers ● Groupe de stockage ● Kubernetes 3. Pour afficher des détails supplémentaires, sélectionnez une ressource et cliquez sur Afficher les copies. La carte des copies comprend le nœud racine et ses nœuds enfants. Dans le volet de gauche, le nœud root représente une ressource. Par ailleurs, des informations sur les emplacements de copie sont affichées dans le volet de droite. Les nœuds enfants représentent des systèmes de stockage. Lorsque vous cliquez sur un nœud enfant, le volet de droite affiche les informations suivantes : ● ● ● ● 46 Système de stockage hébergeant la copie Nombre de copies Informations sur chaque copie (heure de création, niveau de cohérence, taille, type de sauvegarde, état et durée de conservation) État d’indexation de chaque copie au moment de la création de la copie : ○ Réussie signifie que tous les fichiers ou disques ont été indexés avec succès. ○ Partiellement réussie indique que seuls certains disques ou fichiers sont indexés et peuvent renvoyer des résultats partiels lors de la recherche de fichiers. ○ En échec indique que tous les fichiers ou disques ne sont pas indexés. ○ En cours indique que la tâche d’indexation est en cours. Restauration des espaces de nommage et des PVC Kubernetes Si l’indexation n’a pas été configurée pour une copie de sauvegarde, ou si l’expiration globale a été configurée et que des disques ou des fichiers indexés ont été supprimés avant la date d’expiration de la copie de sauvegarde, la colonne Indexation de fichiers affiche S/O. L’état d’indexation est régulièrement mis à jour, ce qui vous permet d’afficher l’état le plus récent. ● Pour les sauvegardes de machines virtuelles, la colonne Disques exclus vous permet d’afficher les disques virtuels (VMDK) qui ont été exclus de la sauvegarde Restauration d’un espace de nommage Kubernetes Une fois que les contenus de l’espace de nommage sont sauvegardés dans le cadre d’une politique de protection d’un cluster Kubernetes dans l’interface utilisateur de PowerProtect Data Manager, vous pouvez effectuer des restaurations à partir de sauvegardes d’espaces de nommage individuelles. Tous les types de restaurations sont effectués dans la fenêtre Restore > Assets. Les options de restauration sont les suivantes : ● Restore to Original : effectuer la restauration sur l’espace de nommage d’origine sur le cluster d’origine. ● Restore to New : créer un espace de nommage et effectuer une restauration dans cet emplacement sur le cluster d’origine ou un autre cluster. ● Restore to Existing : effectuer la restauration sur un espace de nommage existant dans le cluster d’origine ou un autre cluster. Le bouton Restore, qui lance l’assistant Restore, est désactivé tant que vous n’avez pas sélectionné un espace de nommage dans la fenêtre Restore > Assets. Sélectionnez un espace de nommage, puis cliquez sur Restore pour démarrer l’assistant Restore. Vous pouvez également sélectionner un espace de nommage, puis cliquer sur View Copies. Dans les deux cas, vous devez sélectionner une sauvegarde sur la première page de l’assistant Restore avant d’accéder à la page Purpose, qui présente les options de restauration disponibles. REMARQUE : La réplication manuelle de sauvegardes sur un stockage DD ne crée pas d’enregistrements PCS dans PowerProtect Data Manager. Il est recommandé d’effectuer ces sauvegardes au niveau local, car une sauvegarde Niveau Cloud implique une opération de rappel. Considérations relatives à la restauration Passez en revue les informations et considérations suivantes à prendre en compte avant d’effectuer une restauration de l’espace de nommage Kubernetes. Politiques de sécurité restreintes Si le cluster applique une politique de sécurité restreinte à l’espace de nommage en cours de restauration, vous devez utiliser une politique de sécurité pour laquelle readOnlyRootFilesystem est défini sur false et runAsUser sur RunAsAny. REMARQUE : Si vous effectuez une restauration vers un volume CSI non-VMware ou vers un volume qui ne dispose pas d’un compte de service ppdm-serviceaccount dans l’espace de nommage cible, le compte de service default sera utilisé. Si vous ne souhaitez pas lier le compte de service default à une politique de sécurité avec readOnlyRootFilesystem défini sur false et runAsUser sur RunAsAny, créez un compte de service ppdm-serviceaccount à cette fin. Ressources personnalisées exclues Pour les clusters Kubernetes sur vSphere, les ressources personnalisées répertoriées dans https://github.com/vmware-tanzu/veleroplugin-for-vsphere/blob/main/docs/supervisor-notes.md sont exclues lors de la restauration. Lors de la restauration de PVC vers l’espace de nommage d’origine ou un espace de nommage existant, PowerProtect Data Manager réduit les pods utilisant le PVC en cours de restauration. Si l’application exécutée dans l’espace de nommage en cours de restauration est gérée par un opérateur, celui-ci peut interférer avec l’opération de réduction de PowerProtect Data Manager. Dans de tels scénarios, réduisez manuellement les opérateurs avant d’effectuer la restauration, puis rétablissez-les une fois la restauration terminée. Restauration des espaces de nommage et des PVC Kubernetes 47 Mappage des classes de stockage Lorsque vous exécutez une restauration vers un nouvel espace de nommage dans l’interface utilisateur PowerProtect Data Manager, vous pouvez choisir une classe de stockage différente pour certains PVC en cours de restauration, en fonction du provisionneur. Par exemple, vous pouvez restaurer un PVC à partir d’une classe de stockage CSI CEPH vers une classe de stockage CSI PowerFlex. La modification de la classe de stockage peut être utile dans les cas suivants : ● Lors de la restauration des PVC et des espaces de nommage d’un cluster vers un autre cluster qui utilise un stockage différent. ● Lors de la migration des données d’une classe de stockage vers une autre, par exemple, lorsque vous procédez au retrait du stockage arrière. ● Lors de la migration de données entre le stockage sur site et le stockage dans le Cloud. Lors de la sélection d’une classe de stockage, certaines classes de stockage non CSI qui ne sont pas prises en charge peuvent être proposées à la sélection, à l’instar des volumes vSphere. REMARQUE : Si le PVC en cours de restauration existe déjà dans le cluster cible, la classe de stockage du PVC existant n’est pas modifiée lors de la restauration. En outre, la restauration à partir d’une classe de stockage CSI vSPhere vers d’autres classes de stockage CSI n’est pas prise en charge. Restauration sur l’espace de nommage d’origine Pour effectuer la restauration d’une sauvegarde de règle de protection Kubernetes sur l’espace de nommage d’origine au sein d’un cluster Kubernetes, procédez comme suit : Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Restauration > Assets, puis l’onglet Kubernetes. La fenêtre Restauration affiche tous les espaces de nommage protégés et non protégés. 2. Sélectionnez la case à cocher en regard d’un espace de nommage protégé, puis cliquez sur Restaurer. Vous pouvez également utiliser le filtre dans la colonne Nom pour rechercher un espace de nommage spécifique, ou utiliser le champ Recherche pour appliquer des critères spécifiques. L’assistant Restauration s’affiche. 3. Sur la page Sélectionner une copie : a. Sélectionnez la case d’option en regard d’une copie de sauvegarde. b. Cliquez sur Next. REMARQUE : Si vous cliquez sur Next sans choisir une copie, la copie de sauvegarde la plus récente est utilisée. 4. Sur la page Type de configuration, sélectionnez Restore to Original Cluster, puis cliquez sur Next. 5. Sur la page Objectif, sélectionnez l’une des options suivantes : ● Restore Namespace and Select PVCs pour restaurer les ressources de l’espace de nommage et les revendications de volume persistant sélectionnées (PVC). Si vous le souhaitez, vous pouvez également sélectionner Include cluster scoped resources pour restaurer les ressources de cluster qui ont été sauvegardées automatiquement dans le cadre de la règle de protection Kubernetes. Cette option est uniquement disponible pour les sauvegardes de règle de protection Kubernetes PowerProtect Data Manager 19.6 et versions ultérieures. REMARQUE : Sélectionner Include cluster scoped resources permet de restaurer toutes les instances et les liaisons de rôles du cluster, ainsi que les définitions de ressources personnalisées (CRD) présentes au moment de la sauvegarde. ● Restore Only PVCs permet de restaurer les PVC sans ressources d’espace de nommage ni de cluster. 6. Cliquez sur Next. La page Type de restauration s’affiche. 7. Sur la page Type de configuration, sélectionnez Restore to Original Namespace, puis cliquez sur Next. La page PVC apparaît et affiche les PVC de l’espace de nommage que vous prévoyez de restaurer, ainsi que la configuration des PVC dans l’espace de nommage cible d’origine. 8. Sur la page PVC, si la configuration de l’espace de nommage que vous souhaitez restaurer est différente de celle de l’espace de nommage cible : ● Sélectionnez Overwrite content of existing PVCs pour remplacer les PVC existants du site cible par les PCV en cours de restauration lorsque les PVC ont le même nom. ● Sélectionnez Ignorer la restauration des PVC existants pour restaurer les PVC sélectionnés sans écraser les PVC existants dans l’emplacement cible si leur nom est identique. 9. Si vous souhaitez procéder au retrait de la classe de stockage sur le cluster d’origine (en option) : 48 Restauration des espaces de nommage et des PVC Kubernetes a. Sélectionnez Change storage class for PVCs to compatible storage class. PVC qui font partie de l’affichage de restauration. b. Cochez la case en regard des PVC dont vous souhaitez modifier la classe de stockage sur le cluster cible. REMARQUE : La classe de stockage n’est pas modifiée pour les PCV existants en cours d’écrasement. 10. Cliquez sur Next. Si vous avez sélectionné Change storage class for PVCs to compatible storage class dans la page précédente, la page Storage Class s’affiche avec la liste des classes de stockage prises en charge sur le cluster cible. Si vous n’avez pas sélectionné cette option, la page Summary s’affiche avec un message de confirmation qui indique que les ressources de l’espace de nommage (notamment les pods, les services, les codes secrets et les déploiements) ne seront pas écrasées lors de la restauration et que toutes les ressources qui n’existent pas actuellement dans l’espace de nommage seront restaurées. Passez à l’étape 12. 11. Sur la page Storage Class : a. Cochez la case en regard du PVC dont vous souhaitez modifier la classe de stockage sur le cluster cible, ou sélectionnez plusieurs PVC pour remplacer toutes les sélections par la même classe de stockage. REMARQUE : Lors de la modification de la classe de stockage de PVC sur le cluster Kubernetes cible et si vous sélectionnez plus d’un PVC à la fois sur cette page, seules les classes de stockage qui s’appliquent à tous les PVC sélectionnés s’affichent. Pour afficher et sélectionner l’une des classes de stockage disponibles, sélectionnez un PVC à la fois. b. Cliquez sur la Target Storage Class pour effectuer une sélection parmi les classes de stockage disponibles. La boîte de dialogue Select Storage Class s’affiche. c. Sélectionnez l’une des classes de stockage disponibles, puis cliquez sur Save pour enregistrer vos modifications et revenir à la page Storage Class. REMARQUE : Les PVC sauvegardés à l’aide du chemin d’accès des données des disques de première classe (FCD) peuvent uniquement être restaurés vers des classes de stockage FCD. Les PVC basés sur CSI peuvent toutefois être restaurés vers des classes de stockage FCD ou CSI. d. Si vous modifiez la classe de stockage d’un PVC à la fois, répétez les étapes a à c. e. Cliquez sur Next. PowerProtect Data Manager crée un mappage entre la classe de stockage d’origine et la nouvelle classe de stockage. 12. Sur la page Résumé, cliquez sur Restaurer. Une boîte de dialogue d’information s’affiche et indique que la restauration a démarré. 13. Accédez à la fenêtre Tâches pour surveiller la restauration. Une tâche de restauration s’affiche avec une barre de progression et une heure de début. Restauration sur un nouvel espace de nommage Procédez comme suit pour restaurer une sauvegarde de règle de protection Kubernetes sur un nouvel espace de nommage au sein d’un cluster Kubernetes : Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Restauration > Assets, puis l’onglet Kubernetes. La fenêtre Restauration affiche tous les espaces de nommage protégés et non protégés. 2. Sélectionnez la case à cocher en regard d’un espace de nommage protégé, puis cliquez sur Restore. Vous pouvez également utiliser le filtre dans la colonne Name pour rechercher un espace de nommage spécifique, ou utiliser le champ Recherche pour appliquer des critères spécifiques. L’assistant Restauration s’affiche. 3. Sur la page Sélectionner une copie : a. Sélectionnez la case d’option en regard d’une copie de sauvegarde. b. Cliquez sur Next. REMARQUE : Si vous cliquez sur Next sans choisir une copie, la copie de sauvegarde la plus récente est utilisée. 4. Sur la page Cluster, sélectionnez l’une des options suivantes, puis cliquez sur Next. ● Restore to Original Cluster : sélectionnez cette option pour effectuer une restauration dans un nouvel espace de nommage sur le cluster d’origine. Restauration des espaces de nommage et des PVC Kubernetes 49 ● Restore to an Alternate Cluster : sélectionnez cette option pour effectuer une restauration sur un autre espace de nommage sur un autre cluster, puis sélectionnez le cluster dans la liste. Une restauration vers un autre cluster peut être utile dans les cas suivants : ○ Migration des espaces de nommage d’un cluster sur site vers un cluster dans le Cloud. ○ Déplacement des espaces de nommage d’une version antérieure vers une version ultérieure du cluster. ○ Déplacement d’un environnement à un autre (par exemple, d’un environnement de test vers un environnement de production). REMARQUE : Lors d’une restauration vers un autre cluster, vérifiez que ce cluster Kubernetes a été ajouté et détecté dans la fenêtre Sources de ressources de l’interface utilisateur PowerProtect Data Manager. 5. Sur la page Objectif : a. Sélectionnez Restore Namespace and Select PVCs pour restaurer les ressources d’espace de nommage et les revendications de volume persistant sélectionnées (PVC). Si vous le souhaitez, vous pouvez également sélectionner Include cluster scoped resources pour restaurer toutes les instances et les liaisons de rôles du cluster, ainsi que les définitions de ressources personnalisées (CRD) qui ont été sauvegardées automatiquement dans le cadre de la stratégie de protection Kubernetes. Cette option est uniquement disponible pour les sauvegardes de règle de protection Kubernetes PowerProtect Data Manager 19.6 et versions ultérieures. b. Cliquez sur Next. La page Type de restauration s’affiche. 6. Sur la page Type de restauration, sélectionnez Restaurer vers un nouvel espace de nommage, puis saisissez un nom pour le nouvel espace de nommage. Cliquez sur Next. La page PVCs apparaît et affiche les PVC de l’espace de nommage qui sont disponibles pour la restauration. 7. Sur la page PVC : a. Décochez la case en regard de chaque PVC que vous ne souhaitez pas restaurer. b. Sélectionnez Change storage class for PVCs to compatible storage class si vous souhaitez procéder au retrait de la classe de stockage sur le cluster d’origine et utilisez la classe de stockage sur le cluster cible pour les PVC en cours de restauration (en option). 8. Cliquez sur Next. Si vous avez sélectionné Change storage class for PVCs to compatible storage class dans la page précédente, la page Storage Class s’affiche avec une liste des PVC de l’espace de nommage qui sont disponibles pour la restauration, ainsi que leur classe de stockage actuelle. Si vous n’avez pas sélectionné cette option, la page Summary s’affiche avec un message de confirmation qui indique que les ressources de l’espace de nommage (notamment les pods, les services, les codes secrets et les déploiements) ne seront pas écrasées lors de la restauration et que toutes les ressources qui n’existent pas actuellement dans l’espace de nommage seront restaurées. Passez à l'étape 11. 9. Sur la page Storage Class : a. Cochez la case en regard du PVC dont vous souhaitez modifier la classe de stockage sur le cluster cible, ou sélectionnez plusieurs PVC pour remplacer toutes les sélections par la même classe de stockage. REMARQUE : Lors de la modification de la classe de stockage de PVC sur le cluster Kubernetes cible et si vous sélectionnez plus d’un PVC à la fois sur cette page, seules les classes de stockage qui s’appliquent à tous les PVC sélectionnés s’affichent. Pour afficher et sélectionner l’une des classes de stockage disponibles, sélectionnez un PVC à la fois. b. Cliquez sur la Target Storage Class pour effectuer une sélection parmi les classes de stockage disponibles. La boîte de dialogue Select Storage Class s’affiche. c. Sélectionnez l’une des classes de stockage disponibles, puis cliquez sur Save pour enregistrer vos modifications et revenir à la page Storage Class. REMARQUE : Les PVC sauvegardés à l’aide du chemin d’accès des données des disques de première classe (FCD) peuvent uniquement être restaurés vers des classes de stockage FCD. Les PVC basés sur CSI peuvent toutefois être restaurés vers des classes de stockage FCD ou CSI. d. Si vous modifiez la classe de stockage d’un PVC à la fois, répétez les étapes a à c. e. Cliquez sur Next. PowerProtect Data Manager crée un mappage entre la classe de stockage d’origine et la nouvelle classe de stockage. 10. Sur la page Résumé, cliquez sur Restaurer. Une boîte de dialogue d’information s’affiche et indique que la restauration a démarré. 11. Accédez à la fenêtre Tâches pour surveiller la restauration. Une tâche de restauration s’affiche avec une barre de progression et une heure de début. 50 Restauration des espaces de nommage et des PVC Kubernetes Étapes suivantes Pour afficher le nouvel espace de nommage en tant que ressource dans l’interface utilisateur de PowerProtect Data Manager, lancez une détection complète du cluster Kubernetes à partir de la fenêtre Sources de ressources. Restauration sur un espace de nommage existant Procédez comme suit pour restaurer une sauvegarde de règle de protection Kubernetes sur un espace de nommage existant au sein d’un cluster Kubernetes : Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Restauration > Assets, puis l’onglet Kubernetes. La fenêtre Restauration affiche tous les espaces de nommage protégés et non protégés. 2. Sélectionnez la case à cocher en regard d’un espace de nommage protégé, puis cliquez sur Restaurer. Vous pouvez également utiliser le filtre dans la colonne Nom pour rechercher un espace de nommage spécifique, ou utiliser le champ Recherche pour appliquer des critères spécifiques. L’assistant Restauration s’affiche. 3. Sur la page Sélectionner une copie : a. Sélectionnez la case d’option en regard d’une copie de sauvegarde. b. Cliquez sur Next. REMARQUE : Si vous cliquez sur Next sans choisir une copie, la copie de sauvegarde la plus récente est utilisée. 4. Sur la page Cluster, sélectionnez l’une des options suivantes, puis cliquez sur Next. ● Restaurer vers le cluster d’origine : sélectionnez cette option pour effectuer une restauration dans un espace de nommage existant sur le cluster d’origine. ● Restaurer vers un autre cluster : sélectionnez cette option pour effectuer une restauration sur un espace de nommage existtant sur un autre cluster, puis sélectionnez le cluster dans la liste. Une restauration vers un autre cluster peut être utile lors de la migration d’espaces de nommage d’un cluster sur site vers un cluster dans le Cloud, lors du déplacement d’espaces de nommage d’une version de cluster à une autre supérieure, ou lors du transfert d’un environnement vers un autre (par exemple, d’un environnement de test à un environnement de production). REMARQUE : Lors d’une restauration vers un autre cluster, vérifiez que ce cluster Kubernetes a été ajouté et détecté dans la fenêtre Sources de ressources de l’interface utilisateur PowerProtect Data Manager. 5. Sur la page Objectif, sélectionnez l’une des options suivantes : ● Restaurer les espaces de nommage et les PVC sélectionnés pour restaurer les ressources de l’espace de nommage et les revendications de volume persistant sélectionnées (PVC). Si vous le souhaitez, vous pouvez également sélectionner Include cluster scoped resources pour restaurer toutes les instances et les liaisons de rôles du cluster, ainsi que les définitions de ressources personnalisées (CRD) qui ont été sauvegardées automatiquement dans le cadre de la stratégie de protection Kubernetes. Cette option est uniquement disponible pour les sauvegardes de règle de protection Kubernetes PowerProtect Data Manager 19.6 et versions ultérieures. ● Restaurer uniquement les PVC pour restaurer les PVC sans ressources d’espace de nommage. 6. Cliquez sur Next. La page Type de restauration s’affiche. 7. Sur la page Type de restauration, sélectionnez Restaurer vers un espace de nommage existant, puis choisissez un espace de nommage dans la liste Sélectionner un espace de nommage. Cliquez sur Next. La page PVC apparaît et affiche les PVC de l’espace de nommage que vous prévoyez de restaurer, ainsi que la configuration des PVC dans l’espace de nommage cible d’origine. 8. Sur la page PVC, si la configuration de l’espace de nommage que vous souhaitez restaurer est différente de celle de l’espace de nommage cible : ● Sélectionnez Écraser le contenu des PVC existants pour restaurer les PVC sélectionnés et écraser les PVC existants dans l’emplacement cible si leur nom est identique. ● Sélectionnez Ignorer la restauration des PVC existants pour restaurer les PVC sélectionnés sans écraser les PVC existants dans l’emplacement cible si leur nom est identique. 9. Si vous souhaitez procéder au retrait de la classe de stockage sur le cluster d’origine (en option) : a. Sélectionnez Change storage class for PVCs to compatible storage class. PVC qui font partie de l’affichage de restauration. b. Cochez la case en regard des PVC dont vous souhaitez modifier la classe de stockage sur le cluster cible. Restauration des espaces de nommage et des PVC Kubernetes 51 REMARQUE : La classe de stockage n’est pas modifiée pour les PCV existants en cours d’écrasement. 10. Cliquez sur Next. Si vous avez sélectionné Change storage class for PVCs to compatible storage class, la page Storage Class s’affiche avec la liste des classes de stockage prises en charge sur le cluster cible. Si vous n’avez pas sélectionné cette option, la page Summary s’affiche avec un message de confirmation qui indique que les ressources de l’espace de nommage (notamment les pods, les services, les codes secrets et les déploiements) ne seront pas écrasées lors de la restauration et que toutes les ressources qui n’existent pas actuellement dans l’espace de nommage seront restaurées. Passez à l’étape 12. 11. Sur la page Storage Class : a. Cochez la case en regard du PVC dont vous souhaitez modifier la classe de stockage sur le cluster cible, ou sélectionnez plusieurs PVC pour remplacer toutes les sélections par la même classe de stockage. REMARQUE : Lors de la modification de la classe de stockage de PVC sur le cluster Kubernetes cible et si vous sélectionnez plus d’un PVC à la fois sur cette page, seules les classes de stockage qui s’appliquent à tous les PVC sélectionnés s’affichent. Pour afficher et sélectionner l’une des classes de stockage disponibles, sélectionnez un PVC à la fois. b. Cliquez sur la Target Storage Class pour effectuer une sélection parmi les classes de stockage disponibles. La boîte de dialogue Select Storage Class s’affiche. c. Sélectionnez l’une des classes de stockage disponibles, puis cliquez sur Save pour enregistrer vos modifications et revenir à la page Storage Class. REMARQUE : Les PVC sauvegardés à l’aide du chemin d’accès des données des disques de première classe (FCD) peuvent uniquement être restaurés vers des classes de stockage FCD. Les PVC basés sur CSI peuvent toutefois être restaurés vers des classes de stockage FCD ou CSI. d. Si vous modifiez la classe de stockage d’un PVC à la fois, répétez les étapes a à c. e. Cliquez sur Next. PowerProtect Data Manager crée un mappage entre la classe de stockage d’origine et la nouvelle classe de stockage. 12. Sur la page Résumé, cliquez sur Restaurer. Une boîte de dialogue d’information s’affiche et indique que la restauration a démarré. 13. Accédez à la fenêtre Tâches pour surveiller la restauration. Une tâche de restauration s’affiche avec une barre de progression et une heure de début. Restauration en libre-service des espaces de nommage Kubernetes PowerProtect Data Manager prend en charge la restauration d’espaces de nommage en libre-service à partir du cluster Kubernetes. La procédure suivante explique comment effectuer une restauration en libre-service : Prérequis REMARQUE : Un administrateur Kubernetes peut répertorier les 100 sauvegardes PowerProtect Data Manager les plus récentes effectuées dans le cluster au cours des 30 derniers jours. En outre, la dernière sauvegarde de tous les espaces de nommage sauvegardés au cours des 30 derniers jours avec PowerProtect Data Manager est répertoriée. Toutes les sauvegardes non répertoriées doivent être restaurées à partir de l’interface utilisateur PowerProtect Data Manager. Étapes 1. Exécutez la commande suivante pour répertorier les sauvegardes PowerProtect Data Manager effectuées au cours des 30 derniers jours sur le cluster : kubectl get backupjob -n powerprotect L’exécution de la commande affiche la liste de toutes les ressources personnalisées backupJob de PowerProtect Data Manager, sous la forme <namespace name><yyyy-mm-dd-hh-mm-ss>. Par exemple : admin@method:~> ~/k8s/kubectl get backupjob -n powerprotect NAME AGE 52 Restauration des espaces de nommage et des PVC Kubernetes testapp1-2019-11-16-14-15-47 testapp1-2019-11-16-17-00-49 3d9h 3d7h 2. Dans la liste, sélectionnez la sauvegarde que vous souhaitez restaurer, puis créez un fichier yaml RestoreJob au format suivant : apiVersion: "powerprotect.dell.com/v1beta1" kind: RestoreJob metadata: name: <name for restore job> namespace: powerprotect spec: recoverType: RestoreToNew #Default is RestoreToOriginal backupJobName: <Name of the backupjob> # For e.g. testapp1-2019-11-16-14-15-47 namespaces: - name: <namespace that needs to be recovered> alternateNamespace: <new namespace name> # Name for the recovered namespace. Needed only for RestoreToNew. Should not be specified for RestoreToOriginal persistentVolumeClaims: - name: "*" #volumes to be recovered. By default all volumes backed up will be recovered 3. Exécutez la commande suivante pour appliquer le fichier yaml : kubectl apply -f <restorejob yaml file name> -n powerprotect 4. Exécutez la commande suivante pour suivre la progression de la restauration : kubectl get restorejob <restorejob name provided in yaml file> -n powerprotect -o yaml -w 5. Une fois que la restauration est correctement terminée, exécutez la commande suivante pour supprimer le RestoreJob : kubectl delete restorejob <restorejob name provided in yaml file> -n powerprotect Restauration des espaces de nommage et des PVC Kubernetes 53 5 Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes Sujets : • • • • • • Modifications de configuration requises pour l’utilisation d’un chemin d’accès des données optimisé et de disques de première classe Recommandations et remarques relatives à l’utilisation d’un cluster Kubernetes Prise en charge de l’écrasement root NFS (Network File System) Présentation du moteur de protection VM Direct Résolution des problèmes de configuration du réseau Résolution des problèmes liés au cluster Kubernetes Modifications de configuration requises pour l’utilisation d’un chemin d’accès des données optimisé et de disques de première classe Lorsque le cluster Kubernetes est en cours d’exécution sur vSphere et que vous utilisez le stockage CNS vSphere, les opérations de sauvegarde et de restauration utilisent le chemin d’accès des données optimisé, où les volumes persistants sur le stockage géré par vSphere sont sauvegardés par des VMDK appelés disques virtuels improvisés ou disques de première classe (FCD). Ces FCD sont créés sur le back-end et affectées à un identifiant universel unique à chaque fois que des volumes persistants sont provisionnés de manière dynamique par le stockage CSI vSphere dans Kubernetes. Étant donné que les FCD ne sont pas associés à une machine virtuelle spécifique, ils peuvent être gérés indépendamment. PowerProtect Data Manager détecte qu’un volume persistant est sauvegardé par un FCD lorsque le provisioneur de storageclass du volume persistant est CSI.vSphere.VMware.com. Lorsque cela se produit, PowerProtect Data Manager utilise le chemin d’accès des données optimisé. Le chemin d’accès des données optimisé diffère du chemin de la gestion CSI, pour deux raisons principales : ● FCD utilise l’API VADP VMware pour capturer le snapshot au lieu d’utiliser le pilote CSI. ● Il prend en charge les sauvegardes incrémentielles et complètes, en utilisant la fonction de suivi des blocs modifiés (CBT, Changed Block Tracking). Pour utiliser le chemin d’accès des données optimisé, vous devez effectuer les modifications de configuration suivantes avant d’exécuter la politique de protection Kubernetes : ● CSI FCD est uniquement pris en charge à partir de la version 6.7 U3 de vCenter. ● Activez la fonction de suivi des blocs modifiés (CBT) sur les machines virtuelles de nœuds Worker Kubernetes avant que les pods (application) commencent à utiliser des PVC provisionnés de manière dynamique. Pour activer la fonction CBT sur les nœuds, exécutez la commande source /opt/emc/vproxy/unit/vproxy.env PowerProtect Data Manager sur l’hôte, puis exécutez la commande suivante pour chaque nœud : /opt/emc/vproxy/bin/vmconfig -u vCenter user with administrator privileges -p user password -v vCenter host FQDN or IP -l ip -k Kubernetes node IP -c “enable-cbt" Si VMWare Tools n’est pas installé sur vos nœuds de cluster Kubernetes, vous ne pourrez peut-être pas utiliser l’adresse IP comme l’une des entrées de l’outil. Dans ce cas, utilisez l’identifiant Moref des machines virtuelles : /opt/emc/vproxy/bin/vmconfig -u vCenter user with administrator privileges -p user password -v vCenter host FQDN or IP -l moref -k Kubernetes VM node moref -c “enable-cbt" ● Les pods de proxy PowerProtect Data Manager utilisent le protocole NBD pour lire le contenu des volumes persistants basés sur FCD et les sauvegarder. Vérifiez que le port 902 par défaut NBD est ouvert sur tous les nœuds Kubernetes et que les nœuds d’opérateur peuvent atteindre le serveur vCenter. Vous pouvez vérifier que la sauvegarde ou la restauration d’une règle de protection Kubernetes utilise le chemin d’accès des données optimisé en affichant les détails de l’opération dans la fenêtre Tâches de l’interface utilisateur de PowerProtect Data Manager. De plus, le 54 Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes volet Sous-tâches récentes de vSphere Client affiche le message Create a virtual disk object lors de l’ajout d’un nouveau PVC. Recommandations et remarques relatives à l’utilisation d’un cluster Kubernetes Vérifiez les informations suivantes concernant le déploiement, la configuration et l’utilisation du cluster Kubernetes en tant que source de ressources dans PowerProtect Data Manager : Le port 30095 est obligatoire pour le service NodePort PowerProtect Data Manager crée un service NodePort sur le cluster Kubernetes afin de télécharger les logs à partir du pod powerprotect-k8s-controller. Le service NodePort est ouvert sur le port 30095. Assurez-vous qu’aucun pare-feu ne bloque ce port entre l’appliance PowerProtect Data Manager et le cluster Kubernetes. Pour un cluster Kubernetes dans un Cloud public, consultez la documentation de votre fournisseur de Cloud pour obtenir les instructions relatives à l’ouverture de ce port. Par défaut, PowerProtect Data Manager se connecte au nœud sur lequel le pod powerprotect-k8s-controller est en cours d’exécution pour télécharger le journal. Ajoutez une ligne au fichier custom-ports lorsque le port 443 ou 6443 n’est pas utilisé pour le serveur d’API Kubernetes Si un serveur d’API Kubernetes écoute sur un port différent du port 443 ou 6443, vous devez mettre à jour le pare-feu PowerProtect Data Manager afin d’autoriser la communication sortante sur le port utilisé. Avant d’ajouter le cluster Kubernetes en tant que source de ressources, assurez-vous que le port est ouvert en procédant comme suit : 1. Connectez-vous à PowerProtect Data Manager et passez sur l’utilisateur root. 2. Ajoutez une ligne au fichier /etc/sysconfig/scripts/custom-ports qui contient le numéro du port que vous souhaitez ouvrir. 3. Exécutez la commande service SuSEfirewall2 restart. Cette procédure doit être effectuée après une mise à jour de PowerProtect Data Manager, un redémarrage ou la reprise après sinistre du serveur. Emplacements des journaux pour les opérations de sauvegarde et de restauration des ressources Kubernetes et la mise en réseau des pods Tous les journaux de sessions des opérations de protection des ressources Kubernetes sont extraits dans le dossier /logs/externalcomponents/k8s sur l’hôte PowerProtect Data Manager. Si vous ne parvenez pas à localiser les journaux à cet emplacement, assurez-vous que le pare-feu ne bloque pas le port de service NodePort 30095 PowerProtect Data Manager et que celui-ci est accessible à partir de tous les nœuds de traitement et de plan de contrôle Kubernetes. Si vous utilisez la mise en réseau de pods Calico, assurez-vous que le bloc CIDR du cluster correspond au bloc CIDR Calico. Obtention de journaux à partir du cluster invité Tanzu Kubernetes lors de l’utilisation d’un réseau privé Les fichiers journaux Kubernetes sont généralement extraits automatiquement, que ce soit à l’aide d’un réseau public ou privé. Lors de l’utilisation d’un réseau privé pour un cluster invité Tanzu Kubernetes, si les journaux ne sont pas extraits automatiquement, procédez comme suit sur chaque cluster invité afin de permettre au service CNDM d’extraire les fichiers journaux : 1. Exécutez la commande suivante pour modifier le service en cours d’exécution dans l’espace de nommage PowerProtect : # kubectl edit service powerprotect-controller -n powerprotect ● Modifiez le type de service NodePort en LoadBalancer. Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes 55 ● Mettez à jour spec.ports.port pour écouter sur le port 30095. 2. Pour vérifier l’état du service, exécutez la commande suivante : # kubectl get service powerprotect-controller -n powerprotect Dans la sortie, prenez note de l’adresse IP externe. Par exemple : NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE powerprotect-controller LoadBalancer 198.xx.xx.xx 10.xx.xx.xx 30095:30095/TCP 22h 3. Dans l’espace de nommage PowerProtect, créez un mappage de configuration nommé ppdm-custom-config et utilisez l’adresse IP externe du service comme hôte et port. Par exemple : #kubectl create configmap ppdm-custom-config -n powerprotect --fromliteral=k8s.ppdm.service.host=10.xx.xx.xx --from-literal=k8s.ppdm.service.port=30095 Considérations relatives aux performances de sauvegarde et de restauration parallèles du PVC Pour réguler les performances du système, PowerProtect Data Manager ne peut prendre en charge que cinq sauvegardes d’espaces de nommage parallèles et deux restaurations d’espaces de nommage parallèles par cluster Kubernetes. Les PVC au sein d’un espace de nommage sont sauvegardés et restaurés de manière séquentielle. Vous pouvez mettre jusqu’à 100 sauvegardes d’espace de nommage en file d’attente parmi les politiques de protection dans PowerProtect Data Manager. Temps système des composants de PowerProtect Data Manager sur le cluster Kubernetes À tout moment au cours de la sauvegarde, les composants de PowerProtect Data Manager (Velero, contrôleur PowerProtect, cProxy) offrent un encombrement classique inférieur à 2 Go de mémoire RAM et 4 cœurs de processeur. Ce type d’utilisation n’est pas durable et est uniquement visible pendant la fenêtre de sauvegarde. Les limites de ressources suivantes sont définies sur les pods PowerProtect, qui font partie de la pile PowerProtect Data Manager : ● Utilisation maximale des ressources Velero : 1 cœur de processeur, 256 MiB de mémoire ● Utilisation maximale des ressources des contrôleurs PowerProtect : 1 cœur de processeur, 256 MiB de mémoire ● POD PowerProtect cProxy (5 par cluster maximum) : chaque pod cProxy utilise généralement moins de 300 Mo de mémoire et moins de 0,8 cœur de processeur. Ces pods sont créés et terminés dans la procédure de sauvegarde. Seuls les volumes persistants avec un système de fichiers VolumeMode sont pris en charge La sauvegarde et la restauration des ressources du cluster Kubernetes dans PowerProtect Data Manager sont prises en charge uniquement pour les volumes persistants avec le Filesystem VolumeMode. Objets utilisant la réduction PVC avant le démarrage de la restauration Les activités suivantes se produisent avant une restauration de PVC vers l’espace de nommage d’origine ou un espace de nommage existant lorsque PowerProtect Data Manager détecte que le PVC est utilisé par un pod, un déploiement, un StatefulSet, un DaemonSet, un ReplicaSet ou un contrôleur de réplication : ● PowerProtect Data Manager réduit tous les objets utilisant le PVC. ● PowerProtect Data Manager supprime le daemonSet et tous les pods utilisant des PVC. Une fois la restauration PVC terminée, tous les objets dont la taille a été réduite sont rétablis et tous les objets qui ont été supprimés sont recréés. Arrêtez toutes les tâches Kubernetes qui utilisent activement le PVC avant d’exécuter une restauration. 56 Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes REMARQUE : Si PowerProtect Data Manager ne parvient pas à réinitialiser les modifications de configuration à cause d’une panne d’un contrôleur, il est recommandé de supprimer le pod, déploiement, StatefulSet, DaemonSet, ReplicaSet ou contrôleur de réplication à partir de l’espace de nommage, puis d’effectuer une restauration de type « Restaurer vers l’emplacement d’origine » sur le même espace de nommage. La restauration vers un autre espace de nommage qui existe déjà peut entraîner une non-correspondance entre l’UID du pod et l’UID des fichiers de volume persistant Une restauration de fichiers PowerProtect Data Manager dans des volumes persistants restaure l’UID et le GID, ainsi que le contenu. En cas d’exécution d’une restauration vers un autre espace de nommage qui existe déjà, et si le pod qui consomme le volume persistant s’exécute avec des contraintes de contexte de sécurité (SCC) limitées sur OpenShift, l’UID attribué au pod lors de la restauration peut ne pas correspondre à l’UID des fichiers dans les volumes persistants. Cette non-correspondance des UID peut entraîner l’échec du démarrage du pod. Pour les espaces de nommage avec des pods s’exécutant avec des SCC limitées, Dell Technologies recommande l’une des options de restauration suivantes : ● Restauration vers un nouvel espace de nommage où PowerProtect Data Manager restaure également la ressource de l’espace de nommage ● Restauration vers l’espace de nommage d’origine si celui-ci existe toujours Prise en charge de l’écrasement root NFS (Network File System) L’utilisation de l’écrasement root sur un volume NFS (Network File System) empêche les utilisateurs root distants d’avoir un accès root au volume. Sans configuration supplémentaire pour prendre en charge l’écrasement root NFS, ces volumes ne peuvent pas être sauvegardés ni restaurés. Prérequis Tous les fichiers et dossiers du volume NFS doivent être détenus par le même propriétaire et le même groupe. Si un fichier ou un dossier utilise un identifiant utilisateur (UID) ou un identifiant de groupe (GID) différent de celui des autres, les sauvegardes échouent. Étapes 1. Créez une classe de stockage avec l’accès root client activé. Par exemple, définissez la propriété RootClientEnabled lors de la création d’une classe de stockage Isilon. 2. Créez un ConfigMap nommé ppdm-root-access-storage-class-mapping dans l’espace de nommage PowerProtect. 3. Dans la section des données du ConfigMap, ajoutez un mappage de classe de stockage au format suivant : nom de la classe de stockage avec l’accès root client désactivé : nom de la classe de stockage avec l’accès root client activé Par exemple, pour mapper isilon-root-squashing-sc à isilon-allow-backups-sc, saisissez : isilon-root-squashing-sc : isilon-allow-backups-sc Présentation du moteur de protection VM Direct Le moteur de protection VM Direct fournit deux fonctions dans PowerProtect Data Manager : ● Une solution de protection des données de machine virtuelle : permet de déployer un moteur VM Direct dans l’environnement vSphere afin d’effectuer des sauvegardes de snapshots de machine virtuelle, ce qui améliore les performances et réduit l’utilisation de la bande passante réseau avec la déduplication côté source du stockage de protection. ● Une solution de protection des données de cluster invité Kubernetes : permet de déployer un moteur VM Direct dans l’environnement vSphere pour la protection des volumes persistants basés sur vSphere CSI, pour lesquels il est nécessaire d’utiliser un proxy de machine virtuelle (à la place d’un cProxy), pour la gestion et le transfert des données de sauvegarde. Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes 57 Le moteur de protection VM Direct est activé une fois que vous avez ajouté un vCenter Server dans la fenêtre Sources de ressources, qui vous permet de collecter des informations sur les entités VMware à partir du vCenter Server et d’enregistrer les machines virtuelles VMware, les espaces de nommage de cluster invité Tanzu Kubernetes et les PVC en tant que ressources PowerProtect Data Manager à des fins de sauvegarde et restauration. Pour afficher les statistiques du moteur VM Direct, gérer et surveiller les appliances VM Direct, et ajouter une appliance externe VM Direct afin de faciliter le déplacement des données, sélectionnez Infrastructure > Moteurs de protection. Ajout d’un moteur VM Direct , page 28 fournit plus d’informations à ce sujet. REMARQUE : Dans le volet Moteurs VM Direct, VM protégées désigne le nombre de ressources protégées par PowerProtect Data Manager. Ce nombre n’indique pas que toutes les machines virtuelles ont été protégées avec succès. Pour déterminer le succès ou l’échec de la protection des ressources, utilisez la fenêtre Tâches. Si vous ajoutez une appliance externe VM Direct, le volet Moteurs VM Direct contient les informations suivantes : ● L’adresse IP, le nom, la passerelle, le DNS, le réseau et la version de l’appliance VM Direct. Ces informations sont utiles pour le dépannage des problèmes liés au réseau. ● Le nom d’hôte de vCenter et ESXi. ● L’état de l’appliance VM Direct (coche verte si l’appliance VM Direct est prête, croix rouge si elle n’est pas entièrement opérationnelle). L’état comprend une brève explication pour vous aider à dépanner le moteur VM Direct si l’appliance VM Direct n’est pas entièrement opérationnelle. ● Le mode de transport que vous avez sélectionné lorsque vous avez ajouté l’appliance VM Direct (Ajout à chaud, Appareil bloc en réseau ou le paramètre par défaut Ajout à chaud avec restauration automatique sur l’appareil bloc en réseau). Considérations relatives au mode de transport Passez en revue les informations suivantes pour obtenir les recommandations et les pratiques d’excellence relatives à la sélection d’un mode de transport à utiliser pour les opérations de protection des données de machine virtuelle et pour la protection des clusters invité Tanzu Kubernetes dans PowerProtect Data Manager. Mode de transport Ajout à chaud recommandé pour les charges applicatives volumineuses Pour les charges applicatives qui exécutent des sauvegardes complètes de machines virtuelles de grande taille ou des sauvegardes de machines virtuelles avec un taux de modification des données élevé, le mode de transport Ajout à chaud offre des performances accrues par rapport aux autres modes. Avec le mode de transport Ajout à chaud, un Moteur VM Direct doit être déployé sur le même cluster ou le même hôte ESXi que celui qui héberge les machines virtuelles de production. Au cours des opérations de protection des données, il est recommandé d’utiliser un Moteur VM Direct capable d’effectuer des sauvegardes en mode Ajout à chaud. Les critères de sélection suivants sont utilisés lors des opérations de protection des données : ● Lorsqu’il est configuré en mode Ajout à chaud uniquement, un Moteur VM Direct est utilisé pour effectuer des sauvegardes de machine virtuelle en mode Ajout à chaud. Si une ou plusieurs machines virtuelles sont occupées, la sauvegarde est mise en file d’attente jusqu’à ce que la machine virtuelle soit disponible. ● Si une machine virtuelle se trouve dans un cluster où le Moteur VM Direct n’est pas configuré en mode Ajout à chaud ou dans lequel le Moteur VM Direct présente un mode Ajout à chaud configuré qui est désactivé ou en échec, PowerProtect Data Manager sélectionne un Moteur VM Direct dans le cluster pouvant exécuter des opérations de protection des données en mode NBD. Les Moteur VM Direct configurés en mode Ajout à chaud qui ne se trouvent pas dans le cluster ne sont pas utilisés. ● Les Moteur VM Direct qui sont configurés en mode NBD uniquement ou en mode Ajout à chaud avec restauration automatique sur le NBD sont utilisés pour effectuer les sauvegardes de machine virtuelle en mode NBD. Si chaque Moteur VM Direct configuré en mode NBD est occupé, la sauvegarde est mise en file d’attente jusqu’à ce que l’un de ces moteurs soit disponible. ● S’il n’existe aucun Moteur VM Direct configuré en mode NBD ou si le Moteur VM Direct présente un mode NBD configuré qui est désactivé ou en échec, le moteur VM Direct intégré à PowerProtect Data Manager est utilisé pour effectuer la sauvegarde NBD. Autres recommandations relatives au mode de transport Passez en revue les recommandations suivantes relatives au mode de transport supplémentaire : ● Utilisez le mode Ajout à chaud pour bénéficier de sauvegardes et de restaurations plus rapides et pour réduire les expositions aux problèmes de routage réseau, de pare-feu et de certificat SSL. Pour prendre en charge le mode Ajout à chaud, déployez le Moteur VM Direct sur un hôte ESXi doté d’un chemin vers le système de stockage hébergeant les disques virtuels cibles destinés à la sauvegarde. 58 Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes REMARQUE : Le mode Ajout à chaud nécessite VMware versions matérielles 7 ou ultérieures. Assurez-vous que toutes les machines virtuelles que vous souhaitez sauvegarder utilisent la version matérielle 7 ou ultérieure. ● Pour que les opérations de sauvegarde et de restauration utilisent le mode Ajout à chaud sur un datastore VMware Virtual Volume (vVol), le proxy VM Direct doit résider sur le même vVol que la machine virtuelle. ● Si vous disposez de disques compatibles vFlash et que vous utilisez le mode Ajout à chaud, veillez à configurer la ressource vFlash pour l’hôte VM Direct avec suffisamment de ressources (supérieures ou égales à celles de la machine virtuelle), ou migrez le Moteur VM Direct vers un hôte sur lequel vFlash est déjà configuré. Dans le cas contraire, la sauvegarde des disques compatibles vFlash échoue avec l’erreur VDDK Error: 13: You do not have access rights to this file et l’erreur The available virtual flash resource '0' MB ('0' bytes) is not sufficient for the requested operation sur le serveur vCenter. ● Le mode de transport NBD (Network Block Device) est utilisé pour les sites qui contiennent de nombreuses machines virtuelles qui ne sont pas compatibles avec les exigences Ajout à chaud. Ce mode peut entraîner une congestion sur le réseau de gestion de l’hôte ESXi. Planifiez votre réseau de sauvegarde avec soin pour les installations NBD à grande échelle. Par exemple, vous pouvez envisager l’une des options de configuration suivantes : ○ Configuration de la redondance du réseau de gestion. ○ La configuration du réseau de sauvegarde vers ESXi pour NBD. ○ Configuration des pulsations de stockage. Voir https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/vmw-vsphere-high-availabilitywhitepaper.pdf pour plus d’informations. ● Si vous effectuez des sauvegardes NBD, assurez-vous que votre réseau dispose d’une bande passante de 10 Gbit/s ou plus. Configuration matérielle requise pour un Moteur VM Direct externe Lors de l’ajout d’un Moteur VM Direct externe, prenez note de la configuration matérielle suivante : ● ● ● ● ● ● Processeurs : 4 x 2 GHz (4 sockets virtuels, 1 cœur pour chaque socket) Mémoire : mémoire RAM de 8 Go Disques : 2 disques (59 Go et 98 Go) Protocole Internet : IPv4 uniquement Contrôleur SCSI : 4 au plus Carte NIC : une carte NIC vmxnet3 avec un port Actions VM Direct supplémentaires Pour les actions VM Direct supplémentaires telles que l’activation, la désactivation, le redéploiement ou la suppression du moteur VM Direct ou pour le changement de configuration réseau, utilisez la fenêtre Protection Engines dans l’interface utilisateur PowerProtect Data Manager. Pour réguler la capacité des moteurs VM Direct, utilisez un outil de ligne de commande sur PowerProtect Data Manager. Pour obtenir les informations d’identification d’un moteur VM Direct externe, reportez-vous à la procédure décrite dans PowerProtect Data Manager Security Configuration Guide (Guide de configuration de la sécurité de PowerProtect Data Manager). Désactivation d’un moteur VM Direct Engine Vous pouvez désactiver un moteur VM Direct Engine ajouté lorsque vous n’en avez pas besoin actuellement pour la sauvegarde et la restauration de machines virtuelles. Pour désactiver un moteur VM Direct Engine : 1. Dans la fenêtre Moteurs de protection, sélectionnez le moteur VM Direct que vous voulez désactiver à partir du tableau dans le volet Moteurs VM Direct. 2. Tout à droite du volet Moteurs VM Direct, cliquez sur les trois points verticaux. 3. Dans le menu, sélectionnez Désactiver. REMARQUE : Un moteur VM Direct désactivé n’est pas utilisé pour de nouvelles activités de protection et n’est pas mis à jour automatiquement pendant une mise à jour de PowerProtect Data Manager. Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes 59 Suppression d’un moteur VM Direct Engine Lorsque vous désactivez un moteur VM Direct, le bouton Supprimer est activé. Si vous n’avez plus besoin du moteur VM Direct Engine, procédez comme suit pour le supprimer : 1. Dans la fenêtre Moteurs de protection, sélectionnez le moteur VM Direct que vous voulez supprimer du tableau dans le volet Moteurs VM Direct. 2. Tout à droite du volet Moteurs VM Direct, cliquez sur les trois points verticaux. 3. Dans le menu, sélectionnez Désactiver. 4. Cliquez sur Supprimer. Activation d’un moteur VM Direct Engine désactivé Pour réactiver un moteur VM Direct Engine désactivé afin d’exécuter de nouvelles activités de protection, procédez comme suit pour réactiver le moteur VM Direct Engine. 1. Dans la fenêtre Moteurs de protection, sélectionnez le moteur VM Direct que vous voulez réactiver à partir du tableau dans le volet Moteurs VM Direct. 2. Tout à droite du volet Moteurs VM Direct, cliquez sur les trois points verticaux. 3. Dans le menu, sélectionnez Activer. REMARQUE : Si une mise à jour de la version de PowerProtect Data Manager s’est produite alors que le moteur VM Direct était désactivé, un redéploiement manuel du moteur VM Direct est également nécessaire. Redéploiement d’un moteur VM Direct Engine Si une mise à jour logicielle de PowerProtect Data Manager s’est produite alors qu’un moteur VM Direct était désactivé, ou si une mise à jour automatique du moteur VM Direct ne s’est pas produite en raison d’une inaccessibilité du réseau ou d’une erreur d’environnement, l’option Redeploy vous permet de mettre à jour le moteur VM Direct manuellement vers la version actuellement utilisée par le logiciel PowerProtect Data Manager. Procédez comme suit pour redéployer manuellement le moteur VM Direct Engine. 1. Dans la fenêtre Moteurs de protection, sélectionnez le moteur VM Direct que vous voulez redéployer à partir du tableau dans le volet Moteurs VM Direct. 2. Tout à droite du volet Moteurs VM Direct, cliquez sur les trois points verticaux. 3. Si le moteur VM Direct n’est pas encore activé, sélectionnez Activer dans le menu. 4. Lorsque le moteur VM Direct Engine est activé, sélectionnez Redéployer dans le menu. Le moteur VM Direct Engine sera redéployé avec les détails de sa configuration précédente. Mettre à jour le DNS ou la passerelle lors du redéploiement Si vous souhaitez mettre à jour le DNS et/ou la passerelle lors du redéploiement du moteur VM Direct Engine, vous pouvez utiliser l’une des commandes suivantes : ● Pour mettre à jour la passerelle et le DNS, exécutez ./vproxymgmt redeploy -vproxy_id VM Direct Engine ID -updateDns DNS IPv4 address -updateGateway Gateway IPv4 address ● Pour mettre à jour la passerelle uniquement, exécutez ./vproxymgmt redeploy -vproxy_id VM Direct Engine ID -updateGateway Gateway IPv4 address ● Pour mettre à jour DNS uniquement, exécutez ./vproxymgmt redeploy -vproxy_id VM Direct Engine ID -updateDns DNS IPv4 address Modification de la configuration réseau d’un moteur VM Direct Si le déploiement d’un moteur VM Direct échoue en raison d’un problème de configuration du réseau virtuel, vous pouvez mettre à jour la configuration pour ajouter des adresses IP supplémentaires au pool d’adresses IP statiques. Vous pouvez également ajouter le moteur VM Direct à un réseau virtuel dans le même groupe de ports VGT. Pour modifier la configuration réseau, procédez comme suit : 1. Dans la fenêtre Moteurs de protection, sélectionnez le moteur VM Direct à partir du tableau dans le volet Moteurs VM Direct. 2. Cliquez sur Modifier. 60 Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes 3. Sélectionnez la ligne qui correspond au réseau virtuel présentant l’erreur de configuration, ou au réseau virtuel auquel vous souhaitez ajouter le moteur VM Direct. 4. Saisissez une adresse IP statique ou une plage d’adresses IP disponibles dans la colonne Adresses IP supplémentaires. 5. Cliquez sur Next. 6. Sur la page Résumé, vérifiez les paramètres réseau, puis cliquez sur Suivant. Pour modifier d’autres paramètres de configuration réseau, supprimez le moteur VM Direct et déployez un nouveau moteur VM Direct. Limitation de la capacité d’un moteur VM Direct Engine Dans les environnements à performances limitées, vous pouvez utiliser un outil de ligne de commande sur PowerProtect Data Manager pour réduire la capacité maximale des moteurs VM Direct. ● La valeur par défaut pour les unités de capacité configurées pour la machine virtuelle d’un moteur VM Direct externe est 100. La valeur minimale est 4. ● Un moteur VM Direct peut sauvegarder un disque avec 4 unités de capacité à la fois. Procédez comme suit pour réguler la capacité d’un ou de plusieurs moteurs VM Direct : 1. 2. 3. 4. Connectez-vous à la console PowerProtect Data Manager et passez à l’utilisateur root. Type : source /opt/emc/vmdirect/unit/vmdirect.env Pour afficher la liste des moteursVM Direct et leurs ID, saisissez : /opt/emc/vmdirect/bin/vproxymgmt get -list Pour modifier la capacité d’un moteur VM Direct, saisissez (une fois par moteur) : /opt/emc/vmdirect/bin/vproxymgmt modify -vproxy_id [VProxy ID] -capacity [pourcentage] 5. Pour vérifier la modification dans les unités de capacité configurées pour la machine virtuelle, saisissez :/opt/emc/ vmdirect/bin/vproxymgmt get -list Résolution des problèmes de configuration du réseau L’enregistrement vCenter et le déploiement du proxy échouent si le serveur PowerProtect Data Manager est déployé dans le même réseau privé que le réseau de la station d’accueil interne. PowerProtect Data Manager utilise un réseau interne de la station d’accueil privée. Si le serveur PowerProtect Data Manager est déployé dans le même réseau privé que le réseau de la station d’accueil interne, ou si des sources de données ont déjà été déployées dans le réseau privé, PowerProtect Data Manager n’est pas en mesure de protéger les sources de données. Pour résoudre ce problème, déployez le serveur PowerProtect Data Manager et les autres sources de données sur un autre réseau. Si vous ne pouvez pas modifier le réseau déployé, exécutez un outil de script dans PowerProtect Data Manager pour basculer le réseau de la station d’accueil privée vers un autre réseau. Pour basculer le réseau de la station d’accueil privée sur un autre réseau : 1. Connectez-vous à la console PowerProtect Data Manager et passez à l’utilisateur root. 2. Changez le réseau de la station d’accueil en exécutant la commande suivante : /usr/local/brs/puppet/scripts/docker_network_switch.sh subnet gateway Où : ● subnet décrit le nouveau réseau au format 172.25.0.0/24. ● gateway est la passerelle du réseau privé. Par exemple : 172.25.0.1 Veillez à définir un sous-réseau et une passerelle qui ne sont pas en cours d’utilisation. Résolution des problèmes liés au cluster Kubernetes Consultez les informations suivantes relatives à la résolution des problèmes liés au cluster Kubernetes dans PowerProtect Data Manager : Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes 61 Seule la protection des ressources Kubernetes natives est prise en charge dans PowerProtect Data Manager PowerProtect Data Manager prend uniquement en charge la protection des ressources Kubernetes natives. Si un espace de nommage contient une ressource spécifique à une distribution Kubernetes ou un autre type de ressources personnalisées, les opérations de sauvegarde et de restauration peuvent échouer. Par conséquent, assurez-vous de ne pas intégrer ces espaces de nommage dans les règles de protection Kubernetes PowerProtect Data Manager. Lors d’une restauration vers un nouvel espace de nommage avec un nom différent, les pods d’application peuvent ne pas apparaître en état d’exécution post-restauration Lors d’une restauration Kubernetes vers un nouvel espace de nommage avec un nom différent de celui à partir duquel la copie de sauvegarde a été créée, les pods d’application peuvent ne pas apparaître en état d’exécution post-restauration dans certains scénarios. Par exemple, cela peut se produire si l’application comporte des variables d’environnement ou des éléments de configuration qui adhèrent à l’espace de nommage à partir duquel la copie de sauvegarde a été créée (comme des variables qui pointent vers des services qui utilisent un FQDN sous la forme my-svc.my-namespace.svc.cluster-domain.example ou des services « sans tête » qui utilisent un FQDN sous la forme pod-name.my-headless-svc.my-namespace.svc.cluster-domain.example). Si ce problème se produit, modifiez manuellement les déploiements après la restauration. Les sauvegardes de volumes persistants sur FCD échouent lorsque le pilote et la classe de stockage VMware CSI sont installés après l’ajout d’une source de ressources du cluster Kubernetes Le contrôleur PowerProtect se configure et configure Velero pour la protection des volumes persistants sur les disques de première classe (FCD) s’il détecte une classe de stockage avec le provisionneur VMware CSI csi.vsphere.vmware.com. Si le pilote et la classe de stockage CSI Vmware sont installés après l’ajout du cluster Kubernetes en tant que source de ressources dans PowerProtect Data Manager, les sauvegardes sur FCD échouent avec une erreur failed to create backup job. Pour résoudre ce problème, redémarrez le contrôleur PowerProtect en exécutant les commandes suivantes : kubectl get pod -n powerprotect kubectl delete pod pod name obtained above -n powerprotect Considérations relatives au modèle d’application lors de l’exécution d’une reprise après sinistre du cluster Kubernetes Lors de l’exécution d’une reprise après sinistre du cluster Kubernetes, si des modifications ont été apportées à ApplicationTemplate, l’administrateur Kubernetes devra recréer ApplicationTemplate dans l’espace de nommage PowerProtect Data Manager. Pour plus d’informations, reportez-vous à la section Remarques relatives à la reprise après sinistre , page 75. Les pods ayant l’état en attente en raison d’un PVC manquant entraînent l’échec des sauvegardes d’espace de nommage Si un espace de nommage Kubernetes contient un pod ayant l’état en attente parce que le pod fait référence à un PVC absent, la sauvegarde de cet espace de nommage échoue. Pour résoudre ce problème, effectuez l’une des actions suivantes : ● Créez le PVC manquant ou ● Supprimez le pod si vous n’en avez plus besoin. 62 Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes Dépannage des problèmes de pod Velero ou Controller Il se peut que le pod Velero ou Controller de PowerProtect Data Manager ne parvienne pas à démarrer, notamment en cas d’échec du déploiement ou d’une URI d’image incorrecte. Si l’un de ces pods ne parvient pas à démarrer, une alerte s’affiche indiquant que le pod n’est pas en cours d’exécution sur le cluster. Si le pod Controller de PowerProtect Data Manager n’est pas en cours d’exécution, exécutez la commande suivante : kubectl describe pod -n powerprotect Si le pod Velero de PowerProtect Data Manager n’est pas en cours d’exécution, exécutez la commande suivante : kubectl describe pod -n velero-ppdm Les erreurs ou les événements de la sortie de commande vous permettent de déterminer la cause de l’échec. Vérifiez que le pilote CSI fonctionne correctement si l’erreur « Failed to Create proxy pods » s’affiche lors de la restauration Si la restauration échoue avec l’erreur Failed to create Proxy Pods. Creating Pod exceeds safeguard limit of 10 minutes, vérifiez que le pilote CSI fonctionne correctement et qu’il peut provisionner les volumes de manière dynamique. Ajout d’un mappage de classe de stockage alternatif en cas de noncorrespondance entre le cluster d’origine et le cluster cible pour la restauration (restauration via l’API uniquement) Lors d’une restauration vers un autre cluster à l’aide de l’API, il se peut que la classe de stockage du cluster cible ne possède pas le même nom et le même fournisseur de stockage sous-jacent que le cluster d’origine de la sauvegarde de l’espace de nommage. En cas de non-correspondance, la restauration échoue. Pour ajouter un mappage de classe de stockage alternatif pour les restaurations effectuées via l’API, procédez comme suit : 1. Créez un ConfigMap ppdm-restore-storage-class-mapping dans l’espace de nommage PowerProtect sur le cluster cible pour la restauration. 2. Dans la section des données du ConfigMap, ajoutez un mappage de classe de stockage au format suivant : old storage class: new storage class Par exemple, si tous les circuits virtuels sauvegardés à l’aide de la classe de stockage csi-hostpath-sc sont restaurés vers un cluster à l’aide de la classe de stockage xio-csi-sc, saisissez : csi-hostpath-sc: xio-csi-sc REMARQUE : La restauration d’une sauvegarde de disque FCD (First Class Disk) sur un cluster à l’aide d’une classe de stockage qui n’est pas basée sur FCD n’est pas prise en charge. Ajout d’un autre mappage de classe de stockage pour les PVC temporaires créés à partir d’un snapshot pendant une sauvegarde non FCD Dans certains cas, la classe de stockage du PVC sauvegardé peut ne pas être la classe de stockage la plus appropriée au PVC temporaire créé à partir du snapshot lors de la sauvegarde. Par exemple, lors de la création d’un volume à partir d’un snapshot, une classe de stockage dédiée qui n’alloue pas d’espace pour le PVC temporaire peut être préférée. Cela peut être utile pour sauvegarder les PV NFS et utiliser une classe de stockage avec un client root activé. Pour ajouter un autre mappage de classe de stockage pour PVC temporaires, procédez comme suit : 1. Créez un ConfigMap ppdm-snapshot-storage-class-mapping dans l’espace de nommage PowerProtect. 2. Dans la section des données du ConfigMap, ajoutez un mappage de classe de stockage au format suivant : storage class of PVC being backed up: storage class to use for snapshot PVC Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes 63 Par exemple, dans le mappage xio-csi-sc: xio-csi-sc-snapshot-promoter, si le PVC sauvegardé utilise la classe de stockage xio-csi-sc, le PVC de snapshot est créé avec la classe de stockage xio-csi-sc-snapshot-promoter. REMARQUE : Ce mappage s’applique uniquement aux sauvegardes non FCD, car seuls les PVC de snapshot sont créés dans ce chemin d’accès des données. Les sauvegardes échouent ou se bloquent sur OpenShift après une nouvelle installation de PowerProtect Data Manager ou une mise à jour à partir de la version 19.8 ou d’une version antérieure Après une nouvelle installation de PowerProtect Data Manager ou une mise à jour vers PowerProtect Data Manager 19.9 à partir de la version 19.8 ou d’une version antérieure, les sauvegardes échouent ou se bloquent sur OpenShift. En outre, des alertes indiquant que le pod Velero n’est pas en cours d’exécution peuvent s’afficher dans l’interface utilisateur de PowerProtect Data Manager. PowerProtect Data Manager utilise l’opérateur OADP pour déployer Velero sur OpenShift. Lors de la mise à jour à partir de PowerProtect Data Manager version 19.8 ou antérieure, l’instance Velero en amont dans l’espace de nommage velero-ppdm est remplacée par l’instance Velero déployée par OADP. Pour diagnostiquer le problème, exécutez les étapes suivantes. 1. Vérifiez que le pod de l’opérateur OADP est en cours d’exécution dans l’espace de nommage velero-ppdm en exécutant la commande oc get pod -n velero-ppdm -l name=oadp-operator. a. Si aucun pod n’est répertorié, vérifiez que le rôle de cluster lié au compte de service utilisé par powerprotect-controller dispose de tous les privilèges requis pour les groupes d’API operators.coreos.com et konveyor.openshift.io. Utilisez la commande oc get clusterrolebinding powerprotect:cluster-role-binding pour identifier le rôle de cluster utilisé. b. Passez en revue les journaux du pod du contrôleur PowerProtect en exécutant la commande oc logs <poweprotectcontroller pod name> -n powerprotect c. Passez en revue les événements dans l’espace de nommage velero-ppdm en exécutant la commande oc get events -n velero-ppdm 2. Vérifiez que le groupe d’opérateurs oadp-operator a été correctement créé dans l’espace de nommage velero-ppdm en exécutant la commande oc get operatorgroup -n velero-ppdm -o yaml 3. Vérifiez que l’abonnement oadp-operator a été correctement créé dans l’espace de nommage velero-ppdm en exécutant la commande oc get subscription -n velero-ppdm -o yaml 4. Vérifiez que le plan d’installation d’OADP version 0.2.3 a été correctement approuvé dans l’espace de nommage en exécutant la commande velero-ppdm oc get ip -n velero-ppdm. REMARQUE : Le champ APPROVED du fichier CVS oadp-operator.v0.2.3 doit être défini sur true. Si un plan d’installation d’une version ultérieure s’affiche, le champ APPROVED pour ces versions doit être défini sur false. 5. Vérifiez que le pod Velero est en cours d’exécution dans l’espace de nommage velero-ppdm en exécutant la commande oc get pod -n velero-ppdm -l component=velero, puis passez en revue les événements dans l’espace de nommage velero-ppdm en exécutant la commande oc get events -n velero-ppdm. Les opérations de protection des données pour le cluster Kubernetes haute disponibilité peuvent échouer lorsque le serveur API n’est pas configuré pour envoyer le certificat racine Si le cluster Kubernetes est configuré en mode haute disponibilité et que le serveur API Kubernetes n’est pas configuré pour envoyer le certificat racine dans le cadre de la configuration de la communication TLS, les opérations de sauvegarde et de restauration peuvent échouer avec l’erreur suivante : javax.net.ssl.SSLHandshakeExcept ion: sun.security.validator.Validator Exception: PKIX path building failed: sun.security.provider.certpath.S unCertPathBuilderException: unable to find valid certification path to requested target Pour résoudre le problème, procédez comme suit : 1. Copiez le certificat racine du cluster Kubernetes sur le serveur PowerProtect Data Manager. 2. En tant qu’administrateur sur le serveur PowerProtect Data Manager, importez le certificat dans le magasin d’approbations PowerProtect Data Manager en exécutant la commande suivante : 64 Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes ppdmtool -importcert -alias certificate alias -file file with certificate -type BASE64|PEM Où : i ou importcert importe le certificat. a ou alias certificate alias est utilisé pour spécifier l’alias du certificat. f ou file file with certificate est utilisé pour spécifier le fichier contenant le certificat. t ou typeBASE64|PEM est utilisé pour spécifier le type de certificat. Le type par défaut est PEM. REMARQUE : Le certificat racine étant au format PEM, cette commande ne doit pas exiger d’entrée type. Exemple de commande permettant d’importer un certificat dans le magasin d’approbations PowerProtect Data Manager ppdmtool -importcert -alias apiserver.xyz.com -file root-certificate Considérations relatives aux certificats des clusters Kubernetes sur Amazon Elastic Kubernetes Service Si vous exécutez un cluster Kubernetes sur Amazon Elastic Kubernetes Service (EKS), vous devez copier manuellement l’autorité de certification racine du cluster et l’importer dans le magasin d’approbations PowerProtect Data Manager. Procédez comme suit : 1. À partir du nœud Kubernetes, récupérez le certificat racine du cluster en exécutant la commande suivante : aws eks describe-cluster --region region --name Kubernetes cluster name --query "cluster.certificateAuthority.data" --output certificate file name 2. Copiez le certificat vers le serveur PowerProtect Data Manager. 3. En tant qu’administrateur sur le serveur PowerProtect Data Manager, importez le certificat dans le magasin d’approbations PowerProtect Data Manager en exécutant la commande suivante : ppdmtool -importcert -alias certificate alias -file file with certificate -type BASE64|PEM Où : i ou importcert importe le certificat. a ou alias certificate alias est utilisé pour spécifier l’alias du certificat. f ou file file with certificate est utilisé pour spécifier le fichier contenant le certificat. t ou typeBASE64|PEM est utilisé pour spécifier le type de certificat. Le type par défaut est PEM. REMARQUE : Étant donné que le certificat racine est un fichier texte, spécifiez le format BASE64 pour l’entrée type, comme représenté dans l’exemple suivant. Exemple de commande permettant d’importer un certificat dans le magasin d’approbations PowerProtect Data Manager ppdmtool -i -a eks.ap-south-1.amazonaws.com -f aws-certificate.txt -t BASE64 Suppression des composants de PowerProtect Data Manager d’un cluster Kubernetes Vérifiez les sections suivantes si vous souhaitez supprimer des composants de PowerProtect Data Manager du cluster Kubernetes : Suppression de composants de PowerProtect Data Manager Exécutez les commandes suivantes pour supprimer les composants de PowerProtect Data Manager : ● kubectl delete crd -l app.kubernetes.io/part-of=powerprotect.dell.com ● kubectl delete clusterrolebinding powerprotect:cluster-role-binding ● kubectl delete namespace powerprotect Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes 65 Suppression des composants Velero Exécutez les commandes suivantes pour supprimer les composants Velero : ● kubectl delete crd -l component=velero ● kubectl delete clusterrolebinding -l component=velero ● kubectl delete namespace velero-ppdm Suppression des images des nœuds de cluster Exécutez les commandes suivantes pour supprimer les images Docker Hub des nœuds du cluster : ● Sur les nœuds en opération, exécutez la commande sudo docker image ls ● Pour supprimer toutes les images qui renvoient powerprotect-cproxy, powerprotect-k8s-controller, powerprotectvelero-dd ou velero, exécutez la commande sudo docker image remove IMAGEID Augmentation du nombre de threads de travail dans le pilote de sauvegarde du cluster superviseur en cas d’expiration de Velero Lors de la sauvegarde d’une stratégie de protection Kubernetes, les snapshots des volumes persistants des clusters invités Tanzu Kubernetes sont exécutés de manière séquentielle par le pilote de sauvegarde du cluster superviseur. Si les sauvegardes échouent en raison d’une expiration de Velero (et ce même si les pods Velero s’exécutent sans problème) et qu’il existe au moins 10 clusters invités dans l’environnement, Dell Technologies recommande d’augmenter le nombre de threads de travail dans le backup-driver du cluster superviseur. Pour mettre à jour le déploiement du cluster superviseur backup-driver de sorte à augmenter le nombre de threads de travail, appliquez la modification suivante sur la ligne --backup-workers du backup-driver du cluster superviseur : spec: containers: - args: - server - --backup-workers=5 command: - /backup-driver REMARQUE : Cette modification redémarre le backup-driver. Après le redémarrage, vérifiez que le pod backup-driver est disponible et en cours d’exécution dans le cluster superviseur. La sauvegarde et la restauration du pod Velero peuvent échouer si l’espace de nommage protégé contient un grand nombre de ressources Les espaces de nommage Kubernetes peuvent inclure un grand nombre de ressources, telles que des secrets, des cartes de configuration, des ressources personnalisées, etc. Lorsqu’un espace de nommage protégé par PowerProtect Data Manager contient au moins 1 500 de ces ressources, le pod Velero peut manquer de mémoire, ce qui provoque l’échec des opérations de sauvegarde et de restauration avec une erreur. Si l’espace de nommage protégé contient plus de 1 500 ressources et que les tâches de protection échouent avec une erreur de sauvegarde ou de restauration Velero, augmentez les limites de mémoire du pod Velero en procédant comme suit : 1. Exécutez la commande kubectl edit deployment velero -n velero-ppdm ou une commande équivalente. 2. Dans la sortie, consultez la section sur les limites de ressources, qui s’affiche comme suit : resources: limits: cpu: "1" memory: 256Mi 66 Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes 3. Modifiez la limite de mémoire en fonction du nombre de ressources Kubernetes dans l’espace de nommage. Par exemple : ● Si le nombre de ressources Kubernetes dans l’espace de nommage dépasse 2 000, définissez la limite de mémoire sur 512 Mi. ● Si le nombre de ressources Kubernetes dans l’espace de nommage dépasse 3 000, définissez la limite de mémoire sur 1 024 Mi. Extraire des images de Docker Hub en tant qu’utilisateur authentifié si les limites d’extraction de Docker sont atteintes Les images du conteneur PowerProtect sont hébergées dans Docker Hub. Si le cluster Kubernetes ne parvient pas à extraire des images de Docker Hub en raison des limites d’extraction de Docker, il peut être nécessaire de les extraire en tant qu’utilisateur authentifié. Procédez comme suit pour extraire les images de Docker Hub : 1. Créez un imagePullSecret dans l’espace de nommage powerprotect qui contient les informations d’identification de l’utilisateur Docker. Par exemple : kubectl create secret docker-registry secretname --docker-server=DOCKER_REGISTRY_SERVER -docker-username=DOCKER_USER --docker-password=DOCKER_PASSWORD --docker-email=DOCKER_EMAIL -n powerprotect 2. Mettez à jour le déploiement PowerProtect Data Manager dans l’espace de nommage powerprotect pour ajouter une référence au imagePullSecret créé à l’étape précédente : a. Exécutez la commande kubectl edit deployment powerprotect-controller -n powerprotect b. Dans la sortie, consultez les lignes suivantes : spec: containers: c. Ajoutez les lignes suivantes : spec: imagePullSecrets: - name: <secret name> containers: <--- New line <---- New line d. Répétez ces étapes pour le déploiement Velero dans l’espace de nommage velero-ppdm. L’article à l’adresse https://www.docker.com/increase-rate-limits fournit plus d’informations sur les limites de débit Docker et la création d’un compte d’utilisateur Docker. Résolution des problèmes et bonnes pratiques concernant les clusters Kubernetes 67 A Sauvegardes de base de données en cohérence avec l’application dans Kubernetes Sujets : • • • • • • • • • À propos des sauvegardes de base de données en cohérence avec les applications dans Kubernetes Obtention et déploiement du package de l’interface de ligne de commande (CLI) À propos des modèles d’application Déploiement de modèles d’application Exécution de sauvegardes en cohérence avec l’application Vérifiez les sauvegardes en cohérence avec l’application Remarques relatives à la reprise après sinistre Remarques relatives à la restauration au niveau granulaire Remarques relatives à la troncature des journaux À propos des sauvegardes de base de données en cohérence avec les applications dans Kubernetes PowerProtect Data Manager prend en charge les sauvegardes de bases de données sans agent et en cohérence avec les applications qui résident dans les pods Kubernetes. L’infrastructure existante gère les sauvegardes de base de données, aucune ressource de calcul n’est requise pour les pods. Des sauvegardes en cohérence avec les applications sont exécutées lorsque l’application de base de données est informée d’une sauvegarde en attente. La base de données exécute toutes les transactions et les opérations en attente, et en général met en file d’attente les nouvelles demandes. Ce processus met la base de données dans un état d’inactivité relative où la sauvegarde représente un véritable snapshot de l’application. Cette sauvegarde capture désormais des éléments qui auraient autrement été stockés dans la mémoire uniquement. Une fois le snapshot effectué, l’application reprend le fonctionnement normal. Dans la plupart des environnements, l’exécution d’un snapshot est instantanée, si bien que l’interruption de service est minime. Ces sauvegardes sont effectuées sans agent, dans la mesure où PowerProtect Data Manager peut exécuter un snapshot des conteneurs sans nécessiter l’installation du logiciel dans l’environnement applicatif de base de données. Ce snapshot est ensuite sauvegardé avec les procédures normales de l’environnement Kubernetes. PowerProtect Data Manager permet de façon standardisée de mettre en veille une base de données prise en charge, de sauvegarder les données de cette base de données, puis de remettre la base de données en fonctionnement. Les modèles d’application servent de passerelle entre un environnement de base de données spécifique et l’architecture de sauvegarde Kubernetes pour PowerProtect Data Manager. En fonction des différences entre les environnements de base de données, chaque déploiement peut nécessiter un fichier de configuration différent. Applications de base de données prises en charge Principales applications prises en charge : ● MySQL, dans les configurations suivantes : ○ Déploiement autonome dans un pod. ○ Déploiement en cluster (principal/secondaire) avec plusieurs StatefulSets ou ReplicaSets. Par exemple : via Helm. ● MongoDB, sans fragments. ● PostgreSQL, dans les configurations suivantes : ○ Déploiement autonome dans un pod. ○ Déploiement de clusters (principal/secondaire) avec plusieurs StatefulSets. Par exemple : via Helm. ● Cassandra, sans fragments. 68 Sauvegardes de base de données en cohérence avec l’application dans Kubernetes Les données étant synchronisées entre les pods principaux et les pods secondaires, PowerProtect Data Manager sauvegarde les pods secondaires en premier. REMARQUE : Ce guide utilise les termes « principal » et « secondaire ». Certaines bases de données peuvent utiliser une autre terminologie, comme « source » et « réplica », « instance principale » et « réplique », ou « maître » et « veille ». Conditions préalables Les fonctions de sauvegarde de base de données cohérente avec l’application supposent le respect des conditions préalables suivantes : Vous devez définir des libellés sur les pods lors du processus de déploiement. L’application de base de données est déployée avec un libellé connu sur chaque pod associé, qui est requis pour configurer le modèle d’application. Le modèle par défaut pour PostgreSQL nécessite la présence de psql dans le conteneur PostgreSQL. Obtention et déploiement du package de l’interface de ligne de commande (CLI) Le package CLI (interface de ligne de commande) contient les commandes de contrôle pour la fonctionnalité de modèle d’application, les fichiers Readme et quelques exemples. À propos de cette tâche Le package CLI se trouve sur l’hôte PowerProtect Data Manager à l’adresse /usr/local/brs/lib/cndm/misc/ppdmctl.tar.gz et fait partie du déploiement PowerProtect Data Manager. Il n’existe aucun téléchargement distinct pour le package de l’interface CLI. Toutes les commandes CLI de sauvegarde de base de données cohérente avec l’application sont exécutées sur l’hôte où l’administrateur Kubernetes exécute les commandes de contrôle, et non sur l’hôte PowerProtect Data Manager. Étapes 1. L’administrateur de sauvegarde utilise SCP ou un autre utilitaire de transfert de fichiers pour télécharger le package de l’interface CLI entre l’hôte PowerProtect Data Manager et le système local. 2. L’administrateur de sauvegarde fournit le package de l’interface CLI à l’administrateur Kubernetes. L’administrateur Kubernetes exécute les autres étapes de cette tâche. 3. Extrayez le package CLI sur le système local. 4. Utilisez SCP ou un autre utilitaire de transfert de fichiers pour copier les fichiers du package de l’interface CLI entre le système local et le cluster Kubernetes. Vous pouvez également copier le package sur n’importe quel hôte où l’administrateur Kubernetes peut utiliser les outils kubectl ou équivalents pour gérer le cluster Kubernetes. Placez les fichiers du package CLI dans un répertoire inclus au chemin du système ($PATH) ou ajoutez le répertoire au chemin du système si nécessaire. 5. Connectez-vous au cluster Kubernetes. 6. Accédez au répertoire où vous avez téléchargé les fichiers du package CLI. 7. Convertissez le script en exécutable avec la commande suivante : chmod +x ppdmctl 8. Vérifiez que le répertoire $HOME/.kube contient une copie du fichier config du cluster Kubernetes. Vous pouvez également ajouter le paramètre --kubeconfig à chaque commande de l’interface CLI pour indiquer le chemin d’accès au fichier config. À propos des modèles d’application Les modèles d’application convertissent les informations de configuration spécifiques et les étapes requises sur interface pour chaque déploiement d’application de base de données pour la fonctionnalité de sauvegarde PowerProtect Data Manager standard pour Kubernetes. Sauvegardes de base de données en cohérence avec l’application dans Kubernetes 69 PRÉCAUTION : Ne créez pas plus d’un modèle avec le même nom et le même espace de nommage. Sinon, seul le dernier modèle déployé est appliqué, ce qui peut entraîner des résultats indésirables. Les modèles d’application sont en général déployés à partir de fichiers YAML personnalisables qui sont fournis avec le package de l’interface de ligne de commande. Une fois l’opération effectuée, le modèle d’application contient les éléments suivants : ● AppLabel : correspond au libellé que vous avez appliqué à chaque pod lors du déploiement. Le libellé identifie tous les modules qui appartiennent à l’application de base de données indiquée. Les libellés peuvent contenir plusieurs paires clé-valeur dans une liste séparée par des virgules. S’il y a plusieurs instances de chaque application de base de données dans le même espace de nommage, deux modèles d’application sont requis. Dans ce cas, chaque application doit utiliser des valeurs différentes pour AppLabel. Par exemple, le libellé app=mysql correspond au modèle avec un pod avec un libellé sous forme de clé nommée app ayant la valeur mysql. ● Type : identifie le type d’application de base de données dans le ou les pods. ● AppActions : correspond à une action ou un filtre prescrit pour un type de ressource, par exemple des pods. Les rubriques suivantes décrivent plus en détail les actions liées à l’application. Vous pouvez déployer des modèles d’application dans l’espace de nommage PowerProtect ou dans un espace de nommage défini par l’utilisateur. L’utilisation d’un modèle dans l’espace de nommage PowerProtect applique le modèle à tous les autres espaces de nommage. Ce résultat peut contenir des espaces de nommage dans lesquels vous n’aurez peut-être pas les informations d’identification pour exécuter certaines commandes fournies par l’utilisateur, ou dans lesquels le contexte attendu peut être différent du contexte réel. Si vous déployez un modèle dans l’espace de nommage PowerProtect, ce dernier peut utiliser uniquement les actions hook par défaut décrites dans une rubrique suivante. Si vous avez besoin de commandes spécifiques fournies par l’utilisateur pour une application de base de données, créez un modèle d’application pour chaque espace de nommage. Les modèles situés dans des espaces de nommage spécifiques écrasent tout ce qui provient d’un modèle du même nom dans l’espace de nommage PowerProtect. Modèles d’application par défaut Si vous déployez des modèles d’application sans spécifier de valeurs personnalisées dans un fichier YAML, le déploiement utilise les valeurs des fichiers de configuration par défaut. Par exemple, le modèle d’application MySQL par défaut prend en charge les instances autonomes et de clusters de MySQL, avec un seul StatefulSet. Dans ce StatefulSet, l’index du pod principal est 0. Les pods secondaires ont un index compris entre 1 et n-1, où n correspond au nombre de réplicas. Le modèle MongoDB par défaut ne prend en charge que les instances autonomes, avec les mêmes paramètres de pod StatefulSet. Exemple de modèle d’application Voici un exemple de syntaxe pour une base de données MySQL : apiVersion: "powerprotect.dell.com/v1beta1" kind: ApplicationTemplate metadata: name: ClusteredMySQLTemplate namespace: examplenamespace spec: type: "MYSQL" enable: true appLabel: "app=mysql" appActions: Pod: preHook: command: '["/bin/sh", "-c", "mysql -uroot -p$MYSQL_ROOT_PASSWORD -e \"FLUSH TABLES WITH READ LOCK; FLUSH LOGS;SELECT SLEEP(100);\" >/tmp/quiesce.log 2>&1 & for i in 1..10; do sleep 1; mysql -uroot -p$MYSQL_ROOT_PASSWORD -e \"SHOW PROCESSLIST\" | grep \"SLEEP(100)\" > /tmp/sleep.pid ; if [ $? -eq 0 ]; then exit 0; fi; done; exit 1"]' postHook: command: '["/bin/sh", "-c", "SLEEPPID=`cut -f1 /tmp/sleep.pid` ; mysql -uroot -p$MYSQL_ROOT_PASSWORD -e \"KILL $SLEEPPID\" ; rm /tmp/sleep.pid"]' StatefulSet: selectors: 70 Sauvegardes de base de données en cohérence avec l’application dans Kubernetes - selectorTerms: - field: "Labels" selectorExpression: - field: "Name" selectorExpression: - selectorTerms: - field: "Labels" selectorExpression: - field: "Name" selectorExpression: "app=mysql" ".*-[1-9][0-9]*$"' # Secondary pods with index > 0 "app=mysql" ".*-0$"' # Primary pod index 0 Après avoir obtenu et extrait le package de l’interface de ligne de commande, vous pouvez trouver d’autres exemples de modèles dans le répertoire examples. Fichiers de configuration YAML Les fichiers de configuration YAML constituent le cœur de chaque modèle d’application. Ces fichiers servent d’entrées configurables par l’utilisateur pour le processus de déploiement de modèles d’application pour les espaces de nommage. Les fichiers YAML permettent de déployer rapidement des modèles d’application avec des propriétés similaires en réutilisant le même fichier YAML pour plusieurs bases de données sur différents espaces de nommage. Le package de l’interface de ligne de commande est proposé avec des exemples de fichiers de configuration pour chaque type d’application de base de données. Vous pouvez copier et personnaliser ces fichiers dans votre environnement. Chaque exemple de package d’interface CLI contient divers exemples d’actions d’application, telles que des sélecteurs de filtrage par nom et par expression régulière. Le package de l’interface de ligne de commande est également accompagné d’un fichier Readme pour plus d’informations, notamment sur les variables d’environnement attendues pour chaque déploiement par défaut. Les différents types d’applications peuvent utiliser une terminologie différente. Les exemples épellent explicitement les chaînes de commande mises en veille et réactivées, mais n’utilisent pas les commandes par défaut décrites dans la rubrique suivante. Cette méthode est normale pour les modèles qui sont déployés sur un espace de nommage spécifique. Pour créer un modèle pour le déploiement dans l’espace de nommage PowerProtect, vous devez remplacer les chaînes de commande par les commandes par défaut. Pour commencer à créer vos propres chaînes de commande, copiez les échantillons en les personnalisant si nécessaire pour modifier les valeurs. La personnalisation peut inclure la modification de l’emplacement du fichier de verrouillage, la modification des comptes de veille, etc. Vous êtes responsable des modifications apportées aux chaînes de commande par défaut. Actions d’application Le modèle d’application définit les actions exécutées automatiquement par PowerProtect Data Manager sur les ressources découvertes, notamment les méthodes de classement des actions dans une séquence. Chaque action est associée à un type de ressource pris en charge : ● Pod : définit les actions qui se produisent au niveau des pods. Chaque modèle d’application doit avoir des actions pour les pods qui définissent la mise en veille et la réactivation de l’application de base de données associée. En général les modèles pour applications autonomes ne contiennent que des actions de niveau pod. ● StatefulSet et ReplicaSet : définir les actions exécutées au niveau cluster. Ce niveau contient généralement les sélecteurs qui permettent à PowerProtect Data Manager de sauvegarder des pods dans l’ordre approprié avant que le modèle n’applique des actions au niveau des pods. Actions liées à un pod Si le modèle correspond à un pod, il existe deux actions disponibles : preHook Fournir une commande ou une séquence de commandes pour mettre en veille l’application de base de données et écrire ses données sur le disque en préparation de la sauvegarde. postHook Fournir une commande ou une séquence de commandes pour réactiver l’application de base de données et restaurer le fonctionnement normal. ● Des modèles d’application MySQL sont fournis avec des valeurs par défaut pour ces actions : DefaultMySQLQuiesce et DefaultMySQLUnquiesce. Sauvegardes de base de données en cohérence avec l’application dans Kubernetes 71 ● Les modèles d’application MongoDB sont fournis avec des valeurs par défaut pour ces actions : DefaultMongoDBQuiesce et DefaultMongoDBUnquiesce. ● Les modèles d’application PostgreSQL sont fournis avec des valeurs par défaut pour ces actions : DefaultPostgresqlQuiesce et DefaultPostgresqlUnquiesce. Pour PostgreSQL, l’action de pré-hook n’entraîne pas la mise en veille de la base de données. En revanche, l’action place la base de données en mode de sauvegarde à chaud. De même, l’action de post-hook supprime la base de données du mode de sauvegarde à chaud. ● Les modèles d’application Cassandra sont fournis avec une valeur par défaut pour ces actions : DefaultCassandraFlush. Pour Cassandra, l’action de pré-hook vide la base de données sur le disque. La base de données ne fournit aucune mise en veille explicite pendant le pré-hook, ni aucune commande de réactivation correspondante pour l’action de post-hook. Ces valeurs par défaut sont des mots-clés réservés dans le fichier YAML. Lors de la création d’un modèle d’application à partir du fichier YAML, les mots-clés sont remplacés par des séquences standard et relativement sécurisées qui mettent en veille et réactivent les applications de base de données prises en charge, le cas échéant. Autres paramètres associés à ces valeurs par défaut : ● Timeout Valeur par défaut : 30 s. ● Container Par défaut : premier conteneur du pod. ● OnError Valeur par défaut : Fail. Valeurs possibles : Fail et Continue. Vous pouvez remplacer ces crochets par défaut par des séquences de commandes propres à l’environnement applicatif de base de données. Toutes les autres valeurs que les valeurs par défaut sont considérées comme des commandes à exécuter. Vous pouvez également remplacer les paramètres par défaut par de nouvelles valeurs, telles que le nom d’un autre conteneur ou un délai d’expiration plus long. Exemple Un modèle d’application s’applique à une base de données MySQL qui se trouve dans un pod. Le fragment de modèle suivant fournit des commandes personnalisées pour la mise en veille et la réactivation de la base de données. Pod: preHook: commande : "[\"/bin/sh\", \"-c\", \"mysql -uroot -p$MYSQL_ROOT_PASSWORD -e \\ \"FLUSH TABLES WITH READ LOCK; FLUSH LOGS;SELECT SLEEP(100);\\\" >/tmp/quiesce.log 2>&1 & for i in 1..10; do sleep 1; mysql -root -p$MYSQL_ROOT_PASSWORD -e \\\"SHOW PROCESSLIST\\\" | grep \\\"SLEEP(100)\\\" > /tmp/sleep.pid ; if [ $? -eq 0 ]; then exit 0; fi; done; exit 1\"]" postHook: command: "[\"/bin/sh\", \"-c\", \"SLEEPPID=`cut -f1 /tmp/sleep.pid` ; mysql -uroot -p$MYSQL_ROOT_PASSWORD -e \\\"KILL $SLEEPPID\\\" ; rm /tmp/sleep.pid\"]" Sélecteurs Le tableau des sélecteurs établit des correspondances entre les critères et les ressources qui appartiennent à l’application de base de données. Par exemple, si l’action est associée à un StatefulSet, les sélecteurs indiquent comment faire correspondre les pods dans StatefulSet. Les sélecteurs peuvent avoir plusieurs termes logiques, qui sont logiquement combinés avec les instructions AND pour établir la correspondance avec les ressources. Les termes logiques peuvent correspondre aux champs Labels, Annotations ou Name, et fournir des expressions de filtrage. Les étiquettes et les annotations prennent en charge la correspondance de paires clé-valeur. Les noms prennent en charge la correspondance des expressions régulières. L’ordre de sélection sérialise les actions sur chaque ressource. Pour les modules, l’ordre des sélecteurs détermine l’ordre dans lequel chaque pod est sauvegardé. Avant de déployer le modèle d’application, vérifiez que les paires clé-valeur et les expressions régulières correspondent bien à tous les pods, puis sélectionnez les pods dans le bon ordre. 72 Sauvegardes de base de données en cohérence avec l’application dans Kubernetes Exemple Un modèle d’application s’applique à un cluster MySQL avec un cluster StatefulSet. Le libellé de l’application est une paire clé-valeur appelée app avec la valeur mysql. Les sélecteurs suivants correspondent : ● Un pod principal, avec le suffixe « -0 » dans le nom. ● Des pods secondaires avec un suffixe commençant par « -1 » dans le nom et une incrémentation. Notez que les pods secondaires sont sauvegardés avant le pod principal. StatefulSet: selectors: - selectorTerms: - field: "Labels" selectorExpression: - field: "Name" selectorExpression: - selectorTerms: - field: "Labels" selectorExpression: - field: "Name" selectorExpression: "app=mysql" ".*-[1-9][0-9]*$" "app=mysql" ".*-0$" Déploiement de modèles d’application Vous pouvez déployer des modèles d’application à partir de fichiers YAML sources personnalisées ou à partir de fichiers YAML par défaut. Prérequis Obtention et déploiement du package de l’interface de ligne de commande (CLI). Si nécessaire, copiez et personnalisez un fichier YAML source pour l’environnement de base de données approprié. Même lorsque les modèles par défaut contiennent des actions pour les instances de cluster des bases de données prises en charge, la commande de déploiement par défaut crée un modèle pour une base de données à instance unique. Pour les bases de données de cluster prises en charge, utilisez le paramètre --inputfile pour spécifier un fichier YAML. Ce fichier YAML peut être l’un des exemples. À propos de cette tâche Cette tâche utilise les espaces réservés suivants : ● template-type est l’une des valeurs suivantes : mysqltemplate, mongodbtemplate, postgrestemplate ou cassandratemplate ● db-type est l’une des valeurs suivantes : mysql, mongodb, postgresql ou cassandra ● user-namespace est l’espace de nommage spécifique ● file est le nom du fichier YAML personnalisé, le cas échéant Étapes 1. Connectez-vous au cluster Kubernetes. 2. Pour déployer un modèle d’application par défaut pour un espace de nommage spécifique, saisissez la commande suivante : ppdmctl template create template-type --type=db-type --namespace=user-namespace Par exemple : a. Pour déployer un modèle d’application MySQL par défaut pour un espace de nommage spécifique, saisissez la commande suivante : ppdmctl template create mysqltemplate --type=mysql --namespace=user-namespace b. Pour déployer un modèle d’application MySQL par défaut pour l’espace de nommage PowerProtect, qui s’applique à tous les espaces de nommage, saisissez la commande suivante : ppdmctl template create mysqltemplate --type=mysql --namespace=powerprotect 3. Pour déployer un modèle d’application à partir d’un fichier YAML personnalisé, saisissez la commande suivante : ppdmctl template create template-type --type=db-type --namespace=user-namespace -inputfile=file.yaml Sauvegardes de base de données en cohérence avec l’application dans Kubernetes 73 4. Pour afficher une liste des modèles d’application pour un espace de nommage spécifique, saisissez la commande suivante : kubectl get applicationtemplate --namespace=user-namespace 5. Pour modifier un modèle d’application dans un espace de nommage spécifique, saisissez l’une des commandes suivantes : kubectl edit applicationtemplate template-type --namespace=user-namespace Par exemple : kubectl edit applicationtemplate mysqltemplate --namespace=powerprotect Exécution de sauvegardes en cohérence avec l’application Après le déploiement des modèles d’application, l’absence d’agent pour l’exécution des sauvegardes signifie qu’aucune étape particulière n’est requise pour effectuer une sauvegarde de base de données cohérente avec l’application. L’infrastructure PowerProtect Data Manager détecte la présence d’un modèle déployé et suit les indications du modèle durant la sauvegarde de l’espace de nommage auquel appartient l’application de base de données. Ajout d’une règle de protection des espaces de nommage Kubernetes , page 32 fournit plus d’informations sur la configuration des règles de protection pour la protection de l’espace de nommage Kubernetes. Par exemple, vous pouvez effectuer une sauvegarde manuelle de la règle de protection Kubernetes, puis vérifier que la sauvegarde qui en résulte est cohérente avec l’application. Vérifiez les sauvegardes en cohérence avec l’application Après avoir sauvegardé une application de base de données, vous pouvez vérifier que le modèle d’application est correctement configuré et que le type de sauvegarde est lié à l’application. À propos de cette tâche Si au moins un sélecteur de modèle correspond à une ressource de l’espace de nommage, PowerProtect Data Manager marque une copie comme Application Consistent. Par exemple, si un espace de nommage comporte dix pods et qu’un seul pod correspond aux règles du sélecteur de modèle, l’ensemble de la copie est marqué comme Application Consistent. Toutefois, vous pouvez vérifier le nombre de ressources correspondant au modèle et que ce nombre correspond à vos besoins pour les règles de modèle. Étapes 1. À partir de l’interface utilisateur de PowerProtect Data Manager, sélectionnez Infrastructure > Ressources ou Récupération > Ressources. Les ressources disposant de copies sont répertoriées. 2. Recherchez les ressources protégées par les règles de protection Kubernetes. 3. Sélectionnez une application de base de données compatible avec l’application, puis cliquez sur Afficher les copies. La carte des copies comprend le nœud racine et ses nœuds enfants. Dans le volet de gauche, le nœud root représente une ressource. Par ailleurs, des informations sur les emplacements de copie sont affichées dans le volet de droite. Les nœuds enfants représentent des systèmes de stockage. 4. Cliquez sur un nœud enfant. Lorsque vous cliquez sur un nœud enfant, le volet de droite affiche des informations sur la copie, telles que l’heure de création, le niveau de cohérence, la taille, etc. 5. Vérifiez que le niveau de cohérence de la copie est Application Consistent. Sans la présence d’un modèle d’application dans l’espace de nommage, le niveau de cohérence est Crash Consistent. Vous pouvez désormais vérifier le nombre de volumes correspondant au modèle. 6. À partir de l’interface utilisateur PowerProtect Data Manager, sélectionnez Tâches > Protection, et triez par état Terminées. 74 Sauvegardes de base de données en cohérence avec l’application dans Kubernetes La fenêtre Tâches s’affiche. 7. Localisez une tâche qui correspond à une règle de protection Kubernetes qui protège l’application de base de données. 8. Cliquez sur l’icône représentant une loupe dans la colonne Détails en regard du nom de la tâche. Le volet Détails s’affiche sur la droite, avec une section Résumé des sous-tâches en bas. 9. En regard de Résumé des sous-tâches, cliquez sur le lien qui indique le nombre total de sous-tâches. Une nouvelle fenêtre s’ouvre pour afficher la liste et les détails de toutes les sous-tâches de la tâche. 10. Cliquez sur l’icône représentant une loupe dans la colonne Détails en regard de chaque sous-tâche, puis procédez comme suit : 11. Dans l’onglet Étapes, vérifiez les informations récapitulatives qui décrivent l’activité de la sous-tâche. 12. Cliquez sur la pour développer l’étape et afficher des informations supplémentaires. Le PowerProtect Data Manager affiche le récapitulatif de la sous-tâche de protection. 13. Dans la section des résultats de la sous-tâche, cherchez le paramètre applications. Le paramètre applications indique le nombre de PVC correspondant aux règles du sélecteur de modèle. Comme la relation entre les pods et les circuits virtuels n’est pas nécessairement un-à-un, cette valeur n’est pas le nombre de pods correspondant aux règles. Le PowerProtect Data Manager ne peut pas identifier les volumes spécifiques correspondant aux règles. Vous pouvez cependant vérifier si le nombre de volumes correspond à vos besoins pour le contenu de l’espace de nommage. Si le nombre de volumes est incorrect, vérifiez le modèle, et vérifiez que les expressions du sélecteur correspondent à tous les pods. Remarques relatives à la reprise après sinistre Notez que les modèles d’application peuvent être déployés dans l’espace de nommage PowerProtect ou dans un espace de nommage défini par l’utilisateur. Le modèle d’application est un composant requis pour l’utilisation des sauvegardes de base de données en cohérence avec les applications. Lors de la sauvegarde d’un espace de nommage défini par l’utilisateur, PowerProtect Data Manager sauvegarde également le modèle d’application à partir de l’espace de nommage défini par l’utilisateur. Le modèle est ainsi conservé en cas de sinistre. Toutefois, les modèles d’application dans l’espace de nommage PowerProtect ne sont pas sauvegardés et ne sont pas conservés automatiquement. Si vous déployez un modèle d’application vers l’espace de nommage PowerProtect, vous devez copier ou sauvegarder manuellement ces modèles. Cette copie manuelle conserve la source du modèle en cas de sinistre. Après le sinistre, exécutez les tâches suivantes : 1. Restaurez le cluster Kubernetes à l’aide de la procédure de reprise après sinistre normale. 2. Restaurez manuellement les modèles sur le cluster Kubernetes. 3. Redéployez les modèles issus de la sauvegarde vers l’espace de nommage PowerProtect. Remarques relatives à la restauration au niveau granulaire La restauration au niveau granulaire (GLR) consiste à restaurer uniquement un sous-ensemble de la base de données ou de l’espace de nommage. Les sauvegardes de base de données en cohérence avec les applications PowerProtect Data Manager dans Kubernetes ne prennent pas en charge la restauration granulaire (GLR). Pour obtenir l’équivalent d’une restauration granulaire, procédez comme suit : 1. Restaurez la sauvegarde de base de données sélectionnée dans une nouvelle instance. Cette étape consiste à restaurer l’intégralité de la base de données dans le nouvel espace de nommage. 2. Connectez-vous à la nouvelle base de données. Utilisez les commandes de l’application de base de données pour vider dans un fichier local la partie requise de la base de données. 3. Utilisez une méthode appropriée pour déplacer le fichier local vers l’instance de base de données d’origine. 4. Connectez-vous à la base de données d’origine. Utilisez les commandes de l’application de base de données pour importer le contenu du fichier de vidage dans la base de données d’origine. Cette étape rétablit la partie sélectionnée de la base de données d’origine pour qu’elle corresponde au contenu de la sauvegarde. 5. Supprimez la nouvelle instance de base de données. Sauvegardes de base de données en cohérence avec l’application dans Kubernetes 75 Remarques relatives à la troncature des journaux MySQL génère des fichiers journaux binaires dans les revendications de volume persistant (PVC) de MySQL lorsque vous effectuez des sauvegardes et des restaurations en cohérence avec l’application. Ces fichiers journaux suivent la convention de dénomination mysql-bin.xxx et font partie du journal d’application MySQL. Vous devrez peut-être tronquer ces fichiers journaux à des fins de gestion. Toutefois, ces fichiers contiennent à la fois des informations en cohérence avec les applications et d’autres informations spécifiques au client. PowerProtect Data Manager ne peut pas intercepter les parties spécifiques au client dans le journal, ni déterminer où tronquer des données. Vous devez consulter les fichiers journaux de la base de données et les tronquer manuellement, le cas échéant. Dell EMC recommande de gérer ces fichiers journaux binaires avec les autres fichiers journaux MySQL. 76 Sauvegardes de base de données en cohérence avec l’application dans Kubernetes