시작은 미약하였으나 , 그 끝은 창대하리라

[Cross entropy] 크로스 엔트로피의 index 값은 0부터 시작이다. 본문

인공지능/딥러닝 및 파이토치 기타 정리

[Cross entropy] 크로스 엔트로피의 index 값은 0부터 시작이다.

애플파ol 2023. 12. 23. 12:33

 

문제 발생 : kaggle에서 과제를 진행하는데 자꾸 에러가 뜨는것이다. 정확히 기억은 안나는데 type이 안맞다고....근데 print를 찍어보면 심지어 문제없이 잘 나오는것이다.....(조교한테 질문함)

 

 

문제 상황 : 딥러닝 학습에서 loss 값은 y_predict 와 y_ground truth 값으로 계산을 수행한다. 하지만 y_ground truth 값 즉, index( label)의 값이 항상 0부터 시작하지는 않는다.

 

문제 해결 : index(label) 이 항상 0 부터 시작해야함. 즉, 1부터 시작하는 label 이라면 -1을 해서 0 부터 시작 지점을 만들어야 함. 

                (아래 사진을 보면 class indices in the range [0 ,C) 라고 명시되어 있다.)

출처 : https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html

 

 

 

Comments