로지스틱 회귀에서 손실함수를 정의할 때 예측 * 타깃 ( 양성 클래스 )을 구해서 이 값을 가지고 loss function을 구하는데, 여기서 - 음수 붙여주는 이유가 헷갈릴 수 있다.
로지스틱 회귀에서 손실함수는 모델의 예측이 실제 타깃 값에 얼마나 가까운지를 측정한다. 이때, 예측 값이 타깃값에 가까울수록 손실을 0에 가깝게 되고, 멀어질수록 손실은 커진다.
따라서 양성 클래스(타깃 : 1)에 대한 예측이 0.9인 첫 번째 샘플은 예측이 0.3인 두 번째 샘플보다 모델이 더 잘 예측한 것으로 볼 수 있다. 이때 손실 함수 값을 계산하면 첫 번째 샘플의 손실은 두 번째 샘플의 손실보다 작아진다.
그런데 손실 함수 값은 일반적으로 "작을 수록 좋다"는 것을 나타내야 하므로, 이 값에 음수를 붙여준다.
그러면 첫 번째 샘플의 손실은 -0.9가 되고, 두 번째 샘플의 손실은 -0.3이 되어 첫 번째 샘플의 손실이 더 작은 것으로 나타난다.
이렇게 함으로써 예측이 타깃 값에 가까울수록 손실 함수 값이 작아지는 것을 효과적으로 표현할 수 있다. 이렇게 손실 함수를 설계하는 것은 모델이 더 정확한 예측을 하도록 유도하는 데 중요한 역할을 수행한다.
주성분분석 (PCA, Principal Component Anlysis) - 데이터의 분산이 최대한 되는 것이 왜 정보를 최대한 보존시키는 것인가? (0) | 2024.02.13 |
---|---|
주성분분석 (PCA, Principal Component Anlysis) - 주성분들이 서로 직교하도록 정의되는 이유 (2) | 2024.02.13 |
sigmoid function의 이해 (0) | 2024.02.04 |
머신러닝 회귀에서 최적의 회귀식을 찾을 때 최소제곱법을 쓰지 않고 굳이 경사하강법을 쓰는 이유? (0) | 2024.02.02 |
로지스틱 회귀 - 다중분류는 타깃클래스 2개 이상? (1) | 2024.02.02 |