엄범

딥러닝 ( DL, Deep Learning ) / 심층 신경망 ( DNN )

딥러닝, 심층 신경망 딥러닝은 사실상 층을 깊게 쌓은 심층 신경망(DNN)을 가리키는 말이다. 여태까지는 오버피팅, 높은 시간 복잡도 때문에 층을 깊게 쌓는게 불가능했었지만 오버피팅은 Dropout으로, 높은 시간 복잡도는 GPU의 병렬처리를 이용해 해결하여 층을 깊게 쌓는 것이 가능해져 주목받게 되었다. 여러 머신러닝 알고리즘 중에 신경망이, 그 ...

인공신경망 ( ANN ) 6-3 최적화 - 오버피팅 방지( weight decay, droupout ) / 하이퍼파라미터 최적화

오버피팅( Overfitting ) 오버피팅은 훈련 데이터에만 지나치게 적응하여 시험 데이터에 제대로 반응하지 못하는 현상을 말한다. 주로 다음 경우에 발생한다. 매개변수가 많고 표현력이 높은 모델인 경우 훈련 데이터가 적은 경우 Regularization 오버피팅을 억제하기 위해서 다음과 같은 regularization 기법을 사용한다....

인공신경망 ( ANN ) 6-2 최적화 - 초기 가중치 설정, 기울기 소실( gradient vanishing ), 배치 정규화 ( batch normalization )

초기 가중치 설정 오버피팅 문제 때문에 언제까지고 반복을 돌려 정확도를 올릴 수는 없기 때문에, 최적의 초깃값으로 설정하는게 도움이 된다. 초기 가중치에 따른 활성화값 분포 활성화 함수의 출력 데이터를 활성화값이라고 하는데, 초기 가중치에 따른 활성화값의 분포를 관찰하면 중요한 정보를 얻을 수 있다. 활성화 함수로 sigmoid를 사용하며 W는...

인공신경망 ( ANN ) 6-1 최적화 - 가중치 최적화 기법

매개변수 갱신(최적화) 기법 가장 좋은 기법은 없고, 풀어야 할 문제가 어떤 것이냐에 따라 좋은 기법이 다르다. 각각의 장단이 있다. 그러나 보통은 기본 SGD보다는 나머지 방법이 좋은 결과를 보인다. 일반적으로 Adam이 가장 좋은 결과를 보이기 때문에 기본 optimizer로 사용한다. http://newsight.tistory.com/224...

인공신경망 ( ANN ) 4-1 학습 ( 손실함수, 오차함수 )

손실 함수 ( loss function ) ANN에서는 학습을 통해 최적의 가중치 매개변수를 결정하기 위한 지표로(기준으로) 손실 함수(loss function) 를 사용한다. [!info] 손실 함수의 결과값(오차)을 가장 작게 만드는 것이 신경망 학습의 목표이고, 손실 함수의 결과값을 작게 만들기 위해서 가중치 매개변수를 조작해 나가는 과...