Gan3 [논문리뷰] - GAN(Generative adversarial network) - (2) 이번시간에는 정말 Pg가 Pdata로 수렴하게 되는지를 증명해보고자 한다. Global Optimality G가 고정된 상태에서는 Dg(x)라는 식으로 수렴하게 된다는 것이다. 좀전의 목적함수는 확률변수 X에 대한 기대값은 적분을 통해 바꿔줄 수 있는 것을 고려해 아래 식으로 변환할 수 있게된다. (연속확률분포이기에 적분을 통한 기대값 계산) 그 아래식은 z도메인에서 원본 데이터 x로 대응시키는 과정을 표현하고 있기에 dz를 dx로 변환하는 내용을 담고 있다. 이 내용이 이해가지 않는다면 이전 포스팅을 참조하면 좋을 것 같다. 이러한 형태는 function y -> aloy(y) + blog(1-y)의 형태인 것을 확인할 수 있고 이것의 극대값은 a/a+b 인것을 알 수 있으며, 왼쪽 그림으로 표현되는 .. 2021. 11. 3. [논문리뷰] - GAN(Generative adversarial network) - (1) GAN은 2014년 NIPS에 발표된 논문으로 유사데이터를 생성해내는 모델로 잘 알려져 있다. Generator(생성자)와 Discirimiator(구분자)라는 두 네트워크로 나뉘어지는데, 생성자는 유사한데이터를 만들어내는 것에 집중을 하고 구분자는 생성자가 만들어낸 데이터가 Real 데이터인지 Fake 데이터인지 판별하는 역할을 한다. 이러한 적대적으로 학습시키는 비지도학습에 해당하는 GAN은 학습을 시킬수록 생성자는 구분자에 판별되지 않는 데이터를 만들기 위해 점점 Real 데이터와 유사하게 생성하게 된다. 이러한 GAN을 본격적으로 학습하기 앞서 확률분포에 대해 이해하고 있는 것이 도움이 된다. 아직 확률분포에 대한 개념이 미흡하다면 아래 링크를 통해 학습하고 오면 좋을 것 같다. 통계기초 - 확률.. 2021. 11. 3. 통계기초 - 확률분포 갑자기 이렇게 확률분포에 대한 내용을 작성하게 된 이유는 GAN에 대한 논문을 리뷰하기 위해서이다. 최근 취업준비한다는 핑계로 작년에 공부해왔던 딥러닝 논문, CS231n 등에 대해 잊어버리는 것 같아서 복습차원에서 다시 리뷰해보고자 한다. GAN을 본격적으로 리뷰하기 전에 확률분포에 대한 개념이 꼭 필요하다. [확률분포] 확률분포는 확률변수가 특정한 값을 가질 확률을 나타내는 함수를 의미한다. 예로 주사위를 던졌을 때 나올 수 있는 수를 확률변수 X라고 한다면 확률변수 X는 1, 2, 3, 4, 5, 6의 값을 가질 수 있다. P(X=1)은 1/6 P(X=1) = P(X=2) = P(X=3) = P(X=4) = P(X=5) = P(X=6) 이러한 확률분포는 도수분표표와 같은 이산확률분포, 정규분포와같은.. 2021. 11. 3. 이전 1 다음