VAE, Látens változós modellek, Motiváció
Mi a cél?
A probléma, amire a VAE megoldast probal adni az unsupervised learning. Feltételezzük, hogy megfigyeleseink valamilyen nem ismert eloszlasból, , származnak, és egymástól függetlenül keletkeztek. (i.i.d. independent and identically distributed). A célunk az, hogy az adatok eloszlását a megfigyelések alapján megközelítsük, vagy leírjuk egy modellel, . egy valoszinusegi eloszlas a megfigyelesek tereben, amit valamilyen parameterek irnak le.
Ennek egyik módja hogy a modell likelihood-jat maximalizaljuk, azaz olyan parametereket kerestunk, ami alatt a megfigyések valószínūsége maximális:
Ezt azonban általában nehéz, mivel kiértékelése csak nagyon egyszerū eloszlások esetén lehetséges, bonyolultabb terekben bonyolultabb modellekre a maximum likelihood becslés nehéz.
Mi az a látens változós modell
a látens változós modell egy olyan modellje a megfigyelhetõ változóknak (), amit egy magasabb dimenziós eloszlás margináklisaként definiálunk:
ahol az úgy nevezett látens vagy rejtett változó, vagy azokból alkotott vektor. Mint a neve is sejteti, -t közvetlenül nem figyeljük meg. Például, ha a megfigyelt változók képek macskákról, a hozzájuk tartozó rejtett változók leírhatják a macska fajtáját, színét, korát, stb.
Miért jó egy látens változós modell
- generative modeling: mert intuitív látens változókkal leírni a világot. Ha mondjuk egy videójátékot játszunk, nagy valószínüséggel van a vilagnak egy kompakt leirasa a szamitogep memoriajaban: hany ellenseg van, hol vannak, merre mennek, stb. A játékos szempontjából a donteshozashoz ezeknek a meg nem figyelheto valtozoknak az ertekei relevansak. Helyette amit megfigyelunk az egy a latens valtozok alapjan renderelt kep. Celszeru ezert ezt a kepet ugy leirni egy modellel, hogy megprobaljuk az alacsony dimenzios latens valtozokat kitalalni belole.
- representation/transfer learning: mert egy latens valtozos modellben utana aztan hasznalhatjuk a nyers adatok helyett az egyes megfigyelesekhez tarsitott latens valtozokat, azaz helyett -t, egy kesobbi tanulasi feladatban (representation learning/transfer learning). Itt azt remeljuk hogy a a megtanult latens reprezentacio valamilyen szempontbol hasznos leirasa az adatonak.
- manifold learning/dimensionality reduction: mert azt feltételezzük, hogy az adataink, bár magas dimenzióban figyeljük meg õket, valójában egy alacsonyabb dimenziós manifoldon élnek, és effektive sokkal kisebb dimenziójú vektorral is jól leírhatók. Ilyen szempontból gondolhatunk ugy egy latens valtozos modellre, mint egy nemlinearis koordinata-transzformaciora.
- flexible models: mert ilyen modon konnyu egyszeru modellekbol komplex modellt kombinalni. Egy rejtett valtozos modellben lehet mind es nagyon egyszeru, pl. normal eloszlas, ami analitikailag konnyen kezelheto. Viszont amikor kombinaljuk oket, , akkor a megfigyelheto valtozokon szinte tetszolegesen komplex eloszlast tudunk definialni. Ez tortenik a VAE modellben is.
- variational learning:: mert használhatunk ELBO-t arra hogy egy ilyen modelt tanit sunk.