-
Vanila GAN's workflow
Vanila GAN’s workflow 훈련하고자하는 훈련 데이터를 통해 학습된 생성 모델에 정규 분포를 따르는 잠재 공간의 잠재 벡터를 샘플링하여 샘플을 생성해 낸다. \[Trained\; Ganerator(Latent Vector) = G(z)\] 생성기를 통해 생성된 데이터와 훈련 데이터 Read More
-
Entropy of Machine Learning
Concept of Entropy Entropy는 노드에 서로 다른 데이터가 얼마나 섞여 있는지를 의미하는 impurity(불순도)를 측정한다. Imputrity가 낮을수록 데이터가 섞여 있지 않다는 것을 의미한다. 엔트로피(entropy)는 정보 이론에서 사용하는 개념으로 확률 변수의 불확실성 정도를 측정하기 위해 사용합니다. … 엔트로피는 하나의 분포를 대상으로 한다.[1] 엔트로피entropy는 불확실성uncertainty을 설명하는 수학적 아이디어입니다. … 동전은 던졌을 때 앞면이나 뒷면이나 같은 확률로 … 이러한 경우 불확실성은 최대화되고, 엔트로피 역시 최대가 됩니다.[2] ... Read More
-
Why GAN's Objective Function used V?
When explain Objective Function of GAN, Why used minmaxV($D, G$) when study GAN, explained Objective Fucntion using minmaxV Exactly what is V ? I guess V is Verify? Read More
-
What J mean in Cost Function?
relative post Loss Function과 Cost Function의 차이점 When explain Cost Function, Why used J($\theta$) when study GAN, explained cost function using J function. Exactly what is J function? anwser is here -> What does the capital letter ‘J’ mean in cost function J(θ)? I saw many people using ‘J(θ)’ to represent cost function, what does the c... Read More
-
가설함수, Hypothsis Function
들어가기 전에 나한테 가설함수나 비용함수는 정말 미칠것 같은 갈증의 대상이였다. 인공지능을 공부하면서 가설함수 비용함수를 왜 쓰는지는 알겠지만 표면적으로만 알고 내부적인 내용을 이해할 수 없었다. 아무리 찾아봐도 대충 설명하고 넘어가는게 너무 많아 혼란만 불러일이킬 뿐이였다. 하지만 우연히 쿠버네티스 공부를 위해 쿠브플로우 쿠버네티스에서 머신러닝이 처음이라면! 책을 읽게 되었는데, 가설함수를 이해하기 쉽게 써놓으셨다. 이책을 먼저 봤다면 … 서론 가설함수, Hypothsis Function $ H(x) $은 주어진 데이터를 $X$와 $Y$ 사이의 관계를 통해 실제 값과의 관계를 찾아내는 것이다. $f... Read More
-
(미술관에-GAN-딥러닝-실전-프로젝트) 0. 서론
다음 글로 → 서론 이책은 어려워서 빠르게 넘어가면서 읽도록 한다. 1장의 확률에 대한 내용이 어렵지만 한번 훑고 넘어간다. 추가적인 확률 공부가 필요할 듯 Read More
-
(미술관에-GAN-딥러닝-실전-프로젝트) 1. 생성 딥러닝을 소개합니다-1
← 이전 글로 다음 글로 → 생성 모델Generative Model이란 확률모델Probabilistic Model의 관점에서 데이터셋을 생성하는 방법이다. 생성 모델링 과정 어떤 데이터를 생성하고자 할 때, 그 데이터의 훈련 데이터가 필요하다. 훈련 데이터Training Data, Data Set란 수많은 특성feature으로 이뤄진 샘플Sample, <관측, Observation>의 집합이다. 특징을 단순히 평균값으로 결정하는 결정적deterministic이 아닌 생성되는 개별 Sample에 영향을 미칠 수 있는 확률적Probabilistic(랜덤한) 요소를 포함해야 한다. 따라서... Read More