LP R&T - TP vSphere (partie 3) === ## 3: Installation d'un vCenter VMware le serveur vCenter fournit une interface centralisée qui permet d'administrer un ensemble de serveurs ESXi (cluster) et de gérer les machines virtuelles. Il offre des fonctionnalités avancées comme l'équilibrage de charges (DRS) et de haute disponibilité (HA). vCenter supporte plusieurs topologies de déploiement (https://docs.vmware.com/en/VMware-vSphere/6.7/com.vmware.vcenter.upgrade.doc/GUID-62CC201A-01ED-4116-8604-FF123481DAFC.html) en fonction de la taille de l'insfrastructure et du niveau de haute disponibilité souhaité. Dans le cadre du TP, nous aborderons le déploiement le plus simple avec une seule virtual appliance vCSA (vCenter Server Appliance). :::warning Avant de commencer cette étape, vous devez relance votre infrastructure de TP (serveur de stockage et ensuite les ESXi) et vous assurez que vos ESXi accédent bien aux stockages réseaux (NFS et ISCSI). Vous devez également sortir les ESXi du mode maintenance si nécessaire ::: :::danger Attention: les ports groups TP-IUT doivent être en mode "promiscious" sur tous les ESX physiques pour permettre la connectivité réseau des VCSA ::: ### Installer vCSA Comme pour tous les produits VMware, vous pouvez télécharger une image ISO d'installation du vCSA sur le portail https://my.vmware.com en licence d'évaluation 60 jours. Pour les besoins du TP, vous trouverez le contenu de l'image ISO sur le partage réseau : `\\172.16.36.70\M2102\` . Vous devez copier le dossier VCSA-6.7 sur votre poste de travail et lancer l'exécutable `\VCSA-6.7\vcsa-ui-installer\win32\installer.exe`. Dans la fenêtre de l'application vCenter Server Appliance Installer : #### Stage 1 : choisir `install` 1. Introduction : `Deploy appliance` 2. End user license agreement : `accept the terms of the license agreement` 3. Select deployment type : `Embedded Plateform Services Controller` 4. Appliance deployment target : - ESXi host : `FQDN de votre ESX-1` - User name : `root` - Password : `password root de votre esxi` 5. Set up appliance VM : - VM name : `vcsa` - Set root password : `TPvcsa6.7` 6. Select deployment size : - Deployment size : `Tiny` - Storage size : `Default` 7. Select datastore : - Selectionner le datastore local de votre ESX-1 `LOCAL-ESX1` - Cocher `Enable Thin Disk Mode` :::info Vous devez impérativement cocher le mode Thin provisioning, dans la mesure où le datastore ne fait que 72,5Go alors que le déploiement du vcsa nécéssite 300Go. ::: 8. Configure network settings : - Network : `VM Network` - IP version : `IPv4` - IP assignment : `static` - FQDN : ``<binôme>-vcsa.univ-rouen.fr (ex: a1-vcsa.univ-rouen.fr)`` - IP address : `obtenir l'adresse pour résolution DNS` - Mask / Gateway / DNS : `idem que pour les esxi` 9. Ready to complete stage1 : `FINISH` #### Stage 2 : Set up vCenter Server Appliance with embedded PSC 1. Introduction : `NEXT` 2. Appliance Configuration : - `Synchronize time with the ESXi` - `SSH access Disabled` 3. SSO configuration : - Create a new SSO domain - Single Sign-On domaine name : `vsphere.local` - Single Sign-On user name : `administrator` - Single Sign-On password : `TPsso6.7` 4. Configure CEIP : `décocher le CEIP` 5. Ready to complete : `FINISH` A ce stade, vous pouvez utiliser les URLs suivantes pour accéder : - à l'interface vCenter : `https://<binôme>-vcsa.univ-rouen.fr` pour gérer le fonctionnement du cluster (ajouter des clusters, hyperviseurs, VMs...) - à l'interface du VCSA : `https://<binôme>-vcsa.univ-rouen.fr:5480` pour administrer l'appliance virtuelle (arrêter, mettre à jours, redémarrer des services) ### Configurer un cluster Maintenant que le vCenter est opérationnel, il faut configurer le cluster d'ESXi. Pour cela, il faut se connecter à l'interface web du vCenter (choisir HTML5) avec l'identifiant du SSO. #### Création d'un Datacenter : Cliquer sur l'icône `Hôtes et clusters` -> `Actions` -> `New Datacenter` - Nom : `IUT-ELBEUF` :::info cette étape permet de créer une segmentation géographique au sein du vCenter ::: #### Création d'un cluster Cliquer sur le datacenter `IUT-ELBEUF` -> `Actions` -> `Nouveau cluster` - Nom : `Production` - DRS / HA : `activation ultérieure` - EVC : `l'activation EVC n'est pas nécéssaire dans la mesure où les 2 ESXi utilisent la même génération de processeur` #### Ajouter les hôtes : Cliquer sur le cluster `Production` -> `Actions` -> `Ajouter un hôte` 1. Nom et emplacement : - Nom d'hôte ou adresse IP : `Ajouter le FQDN de vos ESXi` 2. Paramètres de connexion : - Nom / Mot de passe : `identifiant de vos ESXi` 3. Résumé hôte : `NEXT` 4. Attribuer une licence : `Licence d'évaluation` -> `NEXT` 5. Mode de verrouillage : `Désactivé` -> `NEXT` 6. Prêt à terminer : `FINISH` :::info Pour supprimer l'alerte sur l'accès SSH et ESXi Shell, il faut modifier le paramètre avancé de l'ESXi : Cliquer sur l'ESXi -> Configurer -> Système -> Paramètre systèmes avancés -> UserVars.SupressShellWarning -> passer la valeur à `1`. ::: ### Configurer vMotion : Pour permettre la migration à chaud des machines virtuelles, il faut configurer un adaptateur réseau spécifique de type VMkernel sur les 2 ESXi. Cliquer sur un ESXi -> `Configurer` -> `Mise en réseau` -> `Adaptateurs VMkernel` -> `Ajouter une mise en réseau` 1. Sélectionner un type : `Adaptateur réseau VMkernel` -> `NEXT` 2. Sélectionner un périphérique : `Sélectionner un commutateur standard existant` -> `PARCOURIR` -> `vSwitch0` -> `NEXT` :::info En production, il faudrait dédier un vSwitch et une interface réseau pour garantir les performances pendant les opérations de migration. ::: 3. Propriétés du port : - Etiquette réseau : `VMOTION` - ID du VLAN, MTU, Pile TCP/IP : `laisser les valeurs par défaut` - Services activés : cocher `vMotion` -> `NEXT` 4. Paramètres IPv4 : - Utiliser des paramètres IPv4 statiques - Adresse IPv4 : `Prendre l'adresse de votre serveur de stockage avec +1 pour ESX-1 et +2 pour ESX-2` (exemple 10.0.212.14 pour a1-esx-1 et 10.0.212.15 pour a1-esx-2) - Masque de sous-reseau : 255.255.255.0 - Passerelle par défaut / Adresses de serveur DNS : `laisser les valeurs par défaut` ### Activer les fonctionnalités DRS / HA Pour activer les fonctions d'équilibrage automatique (DRS) et haute disponibilité : Cliquer sur le cluster `Production` -> `Configurer` - Services : - `vSphere DRS` -> `MODIFIER` - activer `vSphere DRS` - Niveau d'automatisation : `Entièrement automatisé` - `OK` :::success L'onglet `Gestion de l'alimentation` permet d'activer la fonction `DPM` pour éteindre automatiquement les hôtes non sollicités ::: - `Disponinilité vSphere` -> `vSphere HA est DESACTIVE` -> `MODIFIER` - Onglet `Pannes et réponses` - activer `vSphere HA` - Réponse en cas de panne de l'hôte : `Redémarrer les machines virtuelles` - Onglet `Contrôle d'admission` - Pannes de l'hôte tolérées par le cluster : `1` (à adapter selon la taille du cluster et du niveau de haute disponibilité souhaité) - Onglet `Banque de données de signal de pulsation` - cocher `ISCSI` et `NFS` - `OK` #### Le cluster est maintenant opérationnel et en mesure d'accueillir des machines virtuelles ### Tester VMware vMotion Déployer une VM au format OVF depuis le partage smb://172.16.36.70/M2102 en choisissant un datastore reseau (NFS ou iSCSI), votre ESX-1 et en activant le "thin provisionning" Configurer la VM avec les paramètres suivants : - Adresse IP : `prendre l'adresse IP du serveur de stockage +3` - hostname : demo-vmotion Ouvrir une connexion SSH vers la VM et dans un autre terminal, lancer un ping vers la VM. Dans votre vcenter, migrer la VM vers votre ESX-2 en vous assurant que vous ne perdez ni la connexion SSH ni les requêtes ICMP. ### Tester DRS :::info Pour rappel, DRS (Distributed Resssource Scheduler) est une fonctionnalité qui permet d'équilibrer automatiquement la charge des VMs sur l'ensemble d'un cluster ESXi ::: Pour tester DRS, nous allons cloner la VM `demo-vmotion` en `demo-drs` sur le même ESX et lui affecter 4 vCPU. Nous allons ensuite générer une charge CPU avec un simple : - `seq 4 | xargs -P0 -n1 md5sum /dev/zero` pour demo-drs - `seq 2 | xargs -P0 -n1 md5sum /dev/zero` pour demo-vmotion Observer les réactions du cluster dans la zone des tâches récentes et dans l'historique de DRS : cluster Production -> Surveiller -> vSphere DRS -> Historique ### Etendre le stockage NFS :::info Dans un environnement VMWare, il est possible d'étendre à chaud (sans arrêt des VMs) la capacité des datastores à condition que le SAN ou le NAS supporte cette possibilité. Dans notre TP, nous allons mettre à profit les facilités du système LVM pour étendre le datastore NFS ::: Vous devez actualiser les informations de capacité dans votre vCenter : Stockage -> NFS -> Actions -> Actualiser les informations de capacité ### tester VMware HA Pour simuler la panne d'un ESX et forcer VMWare à relancer la VM sur un noeud restant, il suffit de couper l'interface réseau de l'ESX. Dans le vCenter de l'Université, placer l'interface réseau de votre ESX-2 dans le port groupe "NoLan". Suivre le déroulement des opérations sur votre propre vCenter. Que constatez-vous ? Rétablir la connexion de votre ESX-2 dans le vCenter de l'Université. ### Eteindre correctement la plate-forme : Voici l'ordre d'extinction : - Eteindre proprement les machines virtuelles - Mettre l'ESXi qui n'exécute pas le VCSA en mode maintenance et l'eteindre - Eteindre le vCSA depuis son interface WEB d'administration - Mettre le 2nd ESXi en mode maintenance et l'éteindre - Eteindre le serveur de stockage - Supprimer vos VMs sur le cluster de l'Université