1. 오차함수(error function) =손실함수(loss function)=비용함수(cost function)
➢ 학습을 통해 나온 예측값과, 실제값(ground truth)값의 차.
➢예시) MAE,MSE, Cross Entropy 등등..
참고할 만한 블로그(오차 함수 정리 해둠.):https://heekangpark.github.io/SKKU_swe3050/04-error-functions
2.최적화 함수
➢ loss(오차) 값을 줄여나가는 방법으로 가중치(weight)를 업데이트 해가며 학습함.
➢예시) Adam, RMSProp 등등..
(=오차 역전파, 역전파)
참고할 만한 블로그(최적화 함수 정리 해둠.): https://east-rain.github.io/docs/Deep%20Learning/basic%20deeplearning/optimization.html
3.활성화 함수.
➢ 기울기 소실문제를 해결하기 위한 함수들.
(layer를 쌓을 때마다 도함수 값을 곱하다 보니 점점 0 에 가까워 져서 경사 하강법(최적의 값으로 향해 가는방법) 을 이용할수 없게 됨.)
➢예시) tanh, relu, sigmoid등등.
(=순전파)
참고할 만한 블로그(활성화 함수 정리 해둠.) : https://happy-obok.tistory.com/55
'인공지능 (기본 딥러닝) > 딥러닝 및 파이토치 기타 정리' 카테고리의 다른 글
[1차원 추가 및 제거] Pytorch squeeze / unsqueeze (1) | 2023.12.23 |
---|---|
[Cross entropy] 크로스 엔트로피의 index 값은 0부터 시작이다. (0) | 2023.12.23 |
[Pytorch] 모델 생성시, super().__init__() (0) | 2023.11.01 |
[퍼옴] 머신러닝 모델 활성화함수(Activation function) 선택 방법. (0) | 2023.03.09 |
[퍼옴] Epoch, Step, Batch size 정리 (0) | 2023.02.28 |