머신러닝

[머신러닝]분류모델 평가지표 (Accuracy, Precision, Recall, Sensitivity, Specificity)

Kithor 2022. 4. 17. 16:18

매번 헷갈리는 분류모델의 평가지표로 사용되는 통계량을 정리한다.

 

본문에서 사용되는 True positive, True negative, False positive, False negative 에 관한 내용은 아래 글에 정리하였다.

2022.04.17 - [분류 전체보기] - [머신러닝] 분류모델 평가지표 (Confusion matrix)

 

 

 

Accuracy, Precision, Recall

  • Accuracy (정확도)
  • Positive를 Positive로, Negative를 Negative로 정확하게 분류해낸 비율

$$ Accuracy = {TP+TN \over TP+TN+FP+FN} $$

  • Precision (정밀도)
  • Positive로 판단한 것들 중에 실제 Positive의 비율

$$ Precision = {TP \over TP+FP} $$

  • Recall (재현도)
  • 전체 Positive 중에 Positive로 예측한 비율 (= True Positive Rate, Sensitivity)

$$ Recall = {TP \over TP+FN} $$

 

TPR과 FPR

  • TPR (True positive rate)
  • 전체 Positive 중 Positive로 예측한 비율 (= Recall, Sensitivity)

$$ TPR = {TP \over TP+FN} $$

  • FPR (False positive rate)
  • 전체 Negative 중 Positive로 잘못 예측한 비율 (= 1-Specificity)

$$ FPR = {FP \over TN+FP} $$

 

Sensitivity와 Specificity

  • Sensitivity
  • 전체 Positive 중 Positive로 맞게 예측한 비율

$$ Sensitivity = {TP \over TP+FN} $$

  • Specificity
  • 전체 Negative 중 Negative로 맞게 예측한 비율

$$ Specificity = {TN \over TN+FP} $$

 

 

'머신러닝' 카테고리의 다른 글

[머신러닝] 분류모델 평가지표 (Confusion matrix)  (0) 2022.04.17