본문 바로가기

I'm Lim

검색하기
I'm Lim
프로필사진 imlim

  • 분류 전체보기 (56)
    • Deep Learning (19)
      • Fundamental (7)
      • Optimization (5)
      • Normalization (1)
      • Weight Initialization (6)
      • Terminology (0)
    • Classification (26)
      • Paper (3)
      • Implementation (1)
    • Object Detection (9)
    • Lecture & etc (2)
      • CS231n (0)
      • Git (1)
      • Torch (1)
Guestbook
Notice
Recent Posts
Link
Tags
  • Optimizer
  • image classification
  • Weight initialization
  • SPP-Net
  • Convolution 종류
  • LeNet 구현
  • object detection
  • deep learning
  • 딥러닝
  • overfeat
more
«   2026/05   »
일 월 화 수 목 금 토
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록Momentum (1)

I'm Lim

Momentum / Nesterov Accelerated Gradient

Paper Ruder, Sebastian. "An overview of gradient descent optimization algorithms." arXiv preprint arXiv:1609.04747 (2016). 논문이 가지는 의미 다양한 optimization 기법을 통해 어떠한 이유로 optimization이 발전해왔는지에 대해 고찰해볼 수 있다. 또한, 어떤 optimization 기법을 사용해야 될지에 관한 직관을 키울 수 있다. 1. Momentum Gradient Descent 글에서도 설명했다시피 BGD, SGD, Mini-batch GD는 local minimum이나 saddle point를 잘 빠져나오지 못한다. 이는 다시말해 손실함수가 global minimum으로 도달하지 못해..

Deep Learning/Optimization 2022. 9. 21. 23:44
Prev 1 Next

Blog is powered by AXZ / Designed by Tistory

티스토리툴바