# Problématiques CNPG ## Problèmes sans solutions - Switch over qui n'aboutit pas : - a priori venant d'un problème réseau entre l'ancien primary, le nouveau élu et le dernier replica => fork de sa timeline de wals... - comment récupérer le cluster sans recharger un dump ? - kubectl cnpg status qui renvoie : - `primary (ok)` - mais `replica (file based)` au lie de sync - qu'est-ce qu'une timeline ? dans quel cas on change de timeline ? - est-ce qu'on peut pas limiter la taille des wal max quand on a foiré la config barman et donc que le base backup marche pas - split brain possible ? ## Best practises - nodepool dédié => arguments needed - local storage plutôt que block storage ? ## Problèmes et solutions identifiés - Setup foireux = erreurs de walls ... mais pas de fail explicite et s'en suit un remplissage de l'espace disque qui entraine un plantage total du pod a long terme - => problème de backup name ou de config de barman en génaral, il arrive pas à écrire les WALs et remplit le disque - Les solutions de recovery en cas de mort d'un réplica ? - => primary et 1 replica : on sait faire -