신경망(Neural Networks)
행렬곱
- one-hot encoding 통해서 행렬을 만들고 가중치 행렬과 행렬곱을 수행하여 예측값을 만들어낸다.
경사 하강법(Gradient Descent)
- 경사 하강법은 함수의 기울기를 구하고, 기울기가 낮은 쪽으로 이동시키면서 최소값을 찾는 방법이다. (최소 cost/loss를 찾는 방법)
Optimizer의 종류
- SGD(Stochastic Gradient Descent)
- mini-batch SGD
- Momentum
- RMSprop
- Adam
역전파(Backpropagation)
- 연쇄 법칙(Chain Rule)을 신경망의 그래디언트 계산에 적용한 것
소프트 맥스(Softmax)
- 소프트맥스 함수는 입력받은 값을 출력으로 0~1사이의 값으로 모두 정규화하며 출력 값들의 총합은 항상 1이 되는 특성을 가진 함수이다.
- 예측값을 확률값으로 변환
- 출력노드가 2개 이상일때
크로스엔트로피(Cross-Entropy)
- 모델에서 예측한 확률값이 실제값과 비교했을 때 틀릴 수 있는 정보량
- cost function으로 사용
참조