본문 바로가기

I'm Lim

검색하기
I'm Lim
프로필사진 imlim

  • 분류 전체보기 (56)
    • Deep Learning (19)
      • Fundamental (7)
      • Optimization (5)
      • Normalization (1)
      • Weight Initialization (6)
      • Terminology (0)
    • Classification (26)
      • Paper (3)
      • Implementation (1)
    • Object Detection (9)
    • Lecture & etc (2)
      • CS231n (0)
      • Git (1)
      • Torch (1)
Guestbook
Notice
Recent Posts
Link
Tags
  • Optimizer
  • object detection
  • LeNet 구현
  • Convolution 종류
  • SPP-Net
  • deep learning
  • Weight initialization
  • 딥러닝
  • overfeat
  • image classification
more
«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록exploding gradient (1)

I'm Lim

Vanishing gradient / Exploding gradient

Vanishing gradient & Exploding gradient 모델의 성능 개선을 위해 가장 우선적으로 고려해볼 수 있는 경우는 모델의 레이어를 깊이 쌓는 일이다. 하지만, 레이어를 깊이 쌓으면 학습 도중에 가중치의 기울기가 사라지는 현상 혹은 폭발적으로 커지는 현상이 발생한다. 이를 각각 Vanishing gradient / Exploding gradient problem이라 한다. 1. Vanishing gradient 1 ) Vanishing gradient의 원인 딥러닝은 Back propagation 연산 시, Activation function의 편미분 값과 모델의 가중치 값들을 이용하게 된다. Activation function 글에서 살펴봤듯이, sigmoid나 tanh를 사용하게..

Deep Learning/Fundamental 2022. 11. 29. 11:15
Prev 1 Next

Blog is powered by kakao / Designed by Tistory

티스토리툴바