본문 바로가기
IT기술노트/인공지능

확률적 경사 하강법(Stochastic Gradient Descent, SGD)

by 비트코기 2021. 3. 6.

I. 확률적 경사 하강법의 개요

가. 확률적 경사 하강법(Stochastic Gradient Descent, SGD)의 정의

   - 미분 가능한 함수인 경우 함수의 최소값은 변화율이 0인 지점으로 변화율이 0인 지점을 모두 찾고 어떤 포인트의 함수 값이 가장 작은지 확인하는 방법


II. 확률적 경사 하강법의 개념도 및 프로세스

가. 확률적 경사 하강법의 개념도

나. 확률적 경사 하강법의 프로세스

단계

설명

1

- 훈련 샘플 x와 상응하는 타깃 y의 배치를 추출

2

- x를 사용하여 네트워크를 실행하고 (forward pass 단계), 예측 y_pred를 산출

3

- y_pred y의 차이를 측정하여 배치에 대한 네트워크 손실 계산

4

- 네트워크 파라미터에 대한 손실함수의 그래디언트를 계산(Backward pass)

5

- 그래디언트의 반대방향으로 파라미터를 조금 이동

- 곡선을 따라 일정 크기만큼 접선의 기울기 방향으로 내려가면서 그 값이 최소값인지 판단하여 결국 최소 지점까지 도달하는 방법


III. 확률적 경사 하강법을 이용한 신경망 학습

 

 

 

반응형

'IT기술노트 > 인공지능' 카테고리의 다른 글

EU AI 규제안  (0) 2021.04.26
AI 기반 시스템의 AI 고유 특성  (0) 2021.04.26
GAN(Generative Adversarial Networks)  (0) 2021.03.06
오류 역전파(Backpropagation) 알고리즘  (0) 2021.03.06
Gradient  (0) 2021.03.06
손실함수(Loss Function)  (0) 2021.03.06
exclusive OR 연산  (0) 2021.03.06
활성화 함수  (0) 2021.03.06

댓글