매번 헷갈리는 분류모델의 평가지표로 사용되는 통계량을 정리한다.
본문에서 사용되는 True positive, True negative, False positive, False negative 에 관한 내용은 아래 글에 정리하였다.
2022.04.17 - [분류 전체보기] - [머신러닝] 분류모델 평가지표 (Confusion matrix)
Accuracy, Precision, Recall
- Accuracy (정확도)
- Positive를 Positive로, Negative를 Negative로 정확하게 분류해낸 비율
$$ Accuracy = {TP+TN \over TP+TN+FP+FN} $$
- Precision (정밀도)
- Positive로 판단한 것들 중에 실제 Positive의 비율
$$ Precision = {TP \over TP+FP} $$
- Recall (재현도)
- 전체 Positive 중에 Positive로 예측한 비율 (= True Positive Rate, Sensitivity)
$$ Recall = {TP \over TP+FN} $$
TPR과 FPR
- TPR (True positive rate)
- 전체 Positive 중 Positive로 예측한 비율 (= Recall, Sensitivity)
$$ TPR = {TP \over TP+FN} $$
- FPR (False positive rate)
- 전체 Negative 중 Positive로 잘못 예측한 비율 (= 1-Specificity)
$$ FPR = {FP \over TN+FP} $$
Sensitivity와 Specificity
- Sensitivity
- 전체 Positive 중 Positive로 맞게 예측한 비율
$$ Sensitivity = {TP \over TP+FN} $$
- Specificity
- 전체 Negative 중 Negative로 맞게 예측한 비율
$$ Specificity = {TN \over TN+FP} $$
'머신러닝' 카테고리의 다른 글
[머신러닝] 분류모델 평가지표 (Confusion matrix) (0) | 2022.04.17 |
---|