[Hyper-parameter Tuning] 하이퍼 파라미터 튜닝
https://towardsdatascience.com/hyper-parameter-tuning-techniques-in-deep-learning-4dad592c63c8
Hyper-parameter Tuning Techniques in Deep Learning
The process of setting the hyper-parameters requires expertise and extensive trial and error. There are no simple and easy ways to set…
towardsdatascience.com
Hyper-parameters
1) learning rate
2) momentum
3) batch size
4) weight decay
Momentum이란?
- 기존 Gradient Descent 식
- Momentum에서 가중치 갱신 : dW를 직접 쓰는 대신, V_dW 사용
- 여기서 β가 momentum이라는 하이퍼 파라미터
- β 의 범위 : [0,1]
- 새로 갱신된 가중치 값을 구하기 위해 기존의 값과 새로 구한 값을 함께 섞어 사용
Learning rate와 Momentum의 관계
- learning rate는 처음에 작게 시작해서 증가시키고 (cyclical learning rate)
- momentum은 처음에 크게 시작해서 감소시키는 것이 좋음 (cyclical momentum)
cf. weight decay는 변화시키지 않는 것이 좋음
Batch size
- batch size 작으면 오버피팅 막기 위해 정규화regularization 필요
- batch size 크면 learning rate도 좀 더 큰 값 이용 가능
Weight decay
- 가중치 감소 : 큰 가중치에 패널티 부여해서 오버피팅 억제
- 정규화의 필요성이 클수록 더 큰 weight decay 값을 사용