본문 바로가기
IT기술노트/인공지능

활성화 함수

by 비트코기 2021. 3. 6.
반응형

항등함수, 경사함수, 계단함수, 시그모이드 함수, Tanh 함수 ReLU 함수


I. 활성화 함수의 개요

가. 활성화 함수의 정의

   - 입력 정보의 합성값을 은닉층이나 출력층으로 전달하기 위해, 일정 범위의 결합 값으로 전환하여 전달하는 함수

   - 분류: 단극성/양극성, 선형/비선형, 연속/이진

나. 활성화 함수의 유형

유형

도식

설명

항등 함수

- 양극성

- 선형연속 함수

- 입력의 가중합이 그대로 출력

 

경사 함수

- 단극성

- 선형연속 함수

 

계단 함수

- 단극성 또는 양극성

- 이진 함수

- 디지털 형태의 출력이 요구되는 경우 주로 사용

 

시그모이드 함수

- 단극성 또는 양극성

- 비선형 연속 함수

 

Tanh 함수

- 쌍곡 탄젠트 함수

 

ReLU 함수

- 0 이하 입력은 0 출력 부분 활성화

- 선형함수, 미분계산 용이

 

 

반응형

'IT기술노트 > 인공지능' 카테고리의 다른 글

확률적 경사 하강법(Stochastic Gradient Descent, SGD)  (0) 2021.03.06
Gradient  (0) 2021.03.06
손실함수(Loss Function)  (0) 2021.03.06
exclusive OR 연산  (0) 2021.03.06
퍼셉트론(Perceptron)  (0) 2021.03.06
MCTS(Monte Carlo Tree Search)  (0) 2021.03.06
Feed Forward Model  (0) 2021.03.06
Q-러닝  (0) 2021.03.06

댓글