# Problématiques CNPG
## Problèmes sans solutions
- Switch over qui n'aboutit pas :
- a priori venant d'un problème réseau entre l'ancien primary, le nouveau élu et le dernier replica => fork de sa timeline de wals...
- comment récupérer le cluster sans recharger un dump ?
- kubectl cnpg status qui renvoie :
- `primary (ok)`
- mais `replica (file based)` au lie de sync
- qu'est-ce qu'une timeline ? dans quel cas on change de timeline ?
- est-ce qu'on peut pas limiter la taille des wal max quand on a foiré la config barman et donc que le base backup marche pas
- split brain possible ?
## Best practises
- nodepool dédié => arguments needed
- local storage plutôt que block storage ?
## Problèmes et solutions identifiés
- Setup foireux = erreurs de walls ... mais pas de fail explicite et s'en suit un remplissage de l'espace disque qui entraine un plantage total du pod a long terme
- => problème de backup name ou de config de barman en génaral, il arrive pas à écrire les WALs et remplit le disque
- Les solutions de recovery en cas de mort d'un réplica ?
- => primary et 1 replica : on sait faire
-