# Instalation ESX + VSphere
=========
# Séance 1 PHYSIQUE
:
## Installation de l'hypeviseur Esxi 6.5 sur une machine physique
Démarrage machine physique > F10 > accès BIOS > remise à config d'usine > ordre de démarrage > USB > boot
F2 config IP, mask, DNS, gateway, test ping.
Sur machine de supervison, dans un navigateur : 172.16.36.113
login : root
mdp : Pa$$w0rd
Activer intel vt : Security > Stystem security > Virtualisation security
## Ajout d'un iso dans le datastore :
Onglet à gauche "Stockage" into "datastore1" into "Navigateur de banque de données" --> mettre l'iso à la racine soit Datastore1
## Création VM :
Option "Créer/enregistrer une machine virtuelle" > Type de création > Sélection Nom et OS > Stockage > Machine
Action : VMware remote console
# Séance 2 Mise en place des deux ESX
## Installation des b4-esx-1 et b4-esx-2
Déploiement des VMs à partir du template esxi-6.7-temp dans le datastore dédié.
Option "Provisonnement dynamique" et "rédémarrer les services au redémarrage" sinon utilisation excessive de data et mauvais .
### Récupérer le password dans notes VMware.

### Connexion au Esx pour configurer @IP, mask et gateway

Remarque : attribution de l'@IP via interrogation du DNS
### Suffixes DNS :

### Configuration DNS :

@IP récupéré

### Résolution DNS du nom

### Connexion à l'ESX via navigateur web :

### Ajout du NTP
Connexion à l'esx
login : root
mdp : TPesx6.7
Gérer > Date et Heure > Modifier les paramètres >

Action > Service NTP > Démarrer
## Mise en place du stockage
### Config réseau
Création d'une Vm centOS7 contenant un SAN et un NAS visible par les deux ESX nommé b4-store
Configuration IP et DNS

@IP : 10.0.212.143
Gateway 10.0.212.1
DNS server : 10.0.130.11
Récupérer le mot de passe dans l'onglet notes de vSphere :

#### Nouveau mot de passe : Pa$$w0rd
Changer le nom de machine et faire un yum update
#### Connexion en SSH via putty

### Ajout d'un disque dans vSphere et le gérer via LVM
Onglet Matériel VM > Modifier les paramètres > Ajouter un périphérique
étape 1

étape 2

Le disque est détecté par la machine virtuelle

#### Création PV LVM

Vérification

#### Création VG LVM

Vérification

#### Création LV LVM

Vérification

#### Formatage du LV en XFS

#### Création du point de montage et montage automatique au démarrage
Création du point de montage

Edition du fichier fstab pour que le LV soit monté au démarrage.
Rajout d'une ligne pour le LV

Vérification après montage

Installation des paquets nfs-utils et démarrage des services rpcbind et nfs-server
Editer le fichier /etc/exports pour spécifier le répertoire à exporter pour indiquer à NFS quelle partie de l'arborescence on va envoyé par le réseau

Puis on exporte le repertoire

Vérification

Modification des droits d'accès sur ce répertoire


### Monter le partage NFS sur les ESXi
Dans vSphre. Onglet stockage > banque de données > Nouvelle banque de données
Etape 1 :

Etape 2 :

Résultat :

### Configurer la partie SAN
Création d'un volume logique iscsi à partir du VG


Installation et activation du service iSCSI
#yum install scsi-target-utils
#systemctl start tgtd
identification du port réseau utilisé :

Edition du fichier /etc/tgt/conf.d/targets.conf pour configurer le service iSCSI

#systemctl restart tgtd
### Mapper la partie iSCSI sur les ESXi
Navigateur > Stockage > Adaptateurs > Configurer iSCSI activer et configurer le service

Réinitialiser le service puis ajouter une nouvelle base de données nommé ISCSI en VMFS6 .

# Séance 3 - Installation du vCenter VMware
## Install VCSA
### Etape 1 - install
Pré-requis : rédémarrer les VMs dans un certain ordre, stockage d'abord puis les ESXi. Ne pas oublier de désactiver le mode maintenance
La dernière étape consiste à mettre en place une interface pour administrer les ESXi et les VM
Pour cela, on utilise vCenter Server Appliance installer

VCSA est une fonctionnalités de vCenter depuis la 6.7. C'est pour cela que nos ESX sont en 6.7.
Configuration de l'install VCSA :

Attribution de l'@IP par résolution DNS 10.0.130.11 pour trouver l'@IP 10.0.212.140
Rajout de la gateway et du DNS comme pour les ESXi.
### Etape 2 - set up
Après avoir installer le vcsa, il faut le configurer

### Configuration du cluster
On se connecte à l'interface vCSA via l'URL https://b4-vcsa.univ-rouen.fr
#### login : administrator@vsphere.local
#### mdp : TPsso6.7
Note : l'interface ouvert est une VM auto-protégé dans le cluster qu'il administera à l'avenir. L'interface possède son propre port sur lequel il écoute.
Le cluster est vide
Créer Datacenter, créer cluster, créer les noeuds
La première étape consiste à créer le datacenter ici IUT-ELBEUF

La seconde étape est de créer le cluster dans le datacenter ici Production

La troisième étape consiste à ajouter les hôtes, ici nous ajouterons deux hôtes, un pour chaque ESXi.

### Configurer Vmotion
Le principal intérêt de VMware est la possibilité de déplacer des VMs à chaud sans interruption de service. Cette technologie est appelée vMotion. Pour cela il est nécessaire de configurer un adaptateur de type VMkernel sur chaque ESXi.
Il est nécessaire que la banque de données où les VMs sont stockées soit en commun avec les différents ESXi.
Pour notre TP, on utilise des adaptateurs VMkernel sur les ESXi pour isoler le trafic des données de réplication
Esxi > configurer > Adaptateurs Kernel > Ajouter une mise en réseau
### DRS/HA
En parrallèle de la technologie Vmotion, on utilise les fonctionnalités DRS / Haute Disponibilité de VMware. Cette technologie permet d'équilibrer la charge des hôtes en répartissant les VMs sur les différents hosts du cluster.
Il est alors nécessaire d'activer les fonctionnalités DRS et HA
DRS :

HA :

### Test Vmotion
Pour notre TP, nous avons créer une Vm sur l'ESXi-1 et la migrer vers l'ESXi-2 alors que l'on est connecté en SSH et qu'un ping est en cours.
On remarque que lors de la migration de VM, on ne perd pas la connexion SSH et les requêtes ICMP.

### Test DRS
suite tp
partie 3 : https://hackmd.io/s/rkVyvMXCm