kNN 분류 알고리즘과 달리 kNN 회귀 알고리즘에서 fit함수 데이터와 score함수 데이터가 같다고 해서 무조건 1이 나오지 않는다. 그 이유는 kNN 회귀의 작동방식 때문이다.
kNN 회귀는 주어진 새로운 data point에 대해 가장 가까운 k개의 이웃 data point를 찾아 그들의 평균을 예측값으로 사용하는 방법이다. 여기서 'k'는 하이퍼 파라미터로 사전에 지정해야한다.
만약 k가 1이라면 각 data point는 자신을 가장 가까운 이웃으로 간주하기 때문에 훈련 데이터에 대한 score 함수의 결과는 1이 될 수 있다. 하지만 k가 1보다 크면, 각 data point의 예측값은 해당 data point와 가장 가까운 'k'개의 이웃 data point의 평균 값이 된다. 이 경우, 모든 data point의 예측값이 그 data point의 실제 값과 정확히 일치하지는 않는다. 따라서 훈련 데이터에 대한 score 함수의 결과는 1보다 작아질 수 있다.
즉, kNN 회귀는 k값에 따라 훈련 데이터에 대한 score 함수의 결과가 달라진다.
로지스틱 회귀 - 다중분류는 타깃클래스 2개 이상? (1) | 2024.02.02 |
---|---|
Logistic regression - softmax와 sigmoid를 헷갈리지 말 것 (3) | 2024.02.01 |
Logistic regression - softmax function에서 굳이 지수함수? (0) | 2024.02.01 |
kNN 회귀 - 과소적합 해결 방법 (0) | 2024.01.30 |
Scikit-Learn: score()메서드 출력값의 의미( 평가지표가 낮을 수록 모델의 성능이 더 좋은 경우 ) (0) | 2024.01.28 |