Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 현지화
- Python
- gettext_windows
- I18N
- internationalization
- andrew ng
- gettext
- deeplearning.ai
- docker
- localization
- AI
- 국제화
- coursera
Archives
- Today
- Total
JMANI
Variational Autoencoders by 이활석(NAVER) 본문
link: https://www.youtube.com/watch?v=rNh2CrTFpm4
VAE
- Autoencoder와 코드상 매우 흡사하지만, 논리적으로 전혀 관계없는 모델
- Autoencoders
- Manifold Learning을 목적으로 둠
- 앞단(목적)을 위해 뒷단을 붙여서 학습
- Variational Autoencoders
- 데이터를 생성하는 것을 목적으로 둠
- 뒷단(목적)을 위해 앞단을 붙여서 학습
Generative Model
z: 랜덤하게 이미지를 생성하지 않고 control할 수 있게함(ex, 머리색만 바꾸기, 눈동자색만 바꾸기)
latent vector z에서 기존의 데이터를 최대한 비슷하게 복구하는 것이 목표
- vae
latent vector z를 통해 유사한 새로운 데이터를 생성하는 것을 목표 - ex
강아지의 조건(latent vector z) : 귀모양, 꼬리모양, 색, 등 -> 이를 통해 그린 그림(x)
z의 분포 p(z)는 가우시안(Gaussian) 분포를 따른다고 가정
'AI' 카테고리의 다른 글
YOLOX: Exceeding YOLO Series in 2021 (0) | 2022.05.26 |
---|---|
Data Scaler (0) | 2021.10.29 |
Comments