📏 Model Evaluation – Precision, Recall, ROC-AUC: Khi Nào Dùng Gì?
Bạn vừa train xong một mô hình phân loại và thấy accuracy = 95%, nghe có vẻ “đỉnh” đúng không? 💡 Sự thật: accuracy cao chưa chắc mô hình tốt – đặc biệt với dữ liệu mất cân bằng (imbalanced data). Đó là lý do bạn cần hiểu Precision, Recall, F1-score, ROC-AUC để đánh giá mô hình một cách đúng đắn.
Nội dung bài viết
Tại Sao Accuracy Chưa Đủ?
- Ví dụ: Bộ dữ liệu dự đoán gian lận giao dịch, 99% giao dịch là hợp lệ.
- Nếu mô hình luôn dự đoán “hợp lệ” → accuracy = 99%, nhưng bỏ sót toàn bộ giao dịch gian lận.
📌 Kết luận: Cần thêm chỉ số đo lường mức độ phát hiện chính xác các trường hợp quan trọng.2. Precision & Recall – Bộ Đôi Cân Bằng
🔵 Precision – Độ Chính Xác Dự Đoán
- Định nghĩa: Trong tất cả các dự đoán Positive, có bao nhiêu là đúng?
- Công thức:
Precision=TPTP+FPPrecision = \frac{TP}{TP+FP}
- Khi quan tâm đến giảm false positive (ví dụ: chẩn đoán ung thư, không muốn báo nhầm).
🟢 Recall – Độ Bao Phủ (Sensitivity)
- Định nghĩa: Trong tất cả các trường hợp Positive thật sự, mô hình bắt được bao nhiêu?
- Công thức:
Recall=TPTP+FNRecall = \frac{TP}{TP+FN}
- Khi quan tâm đến giảm false negative (ví dụ: phát hiện gian lận, không muốn bỏ sót).
⚖️ F1-Score – Điểm Cân Bằng
- Trung bình điều hòa giữa Precision & Recall:
F1=2×Precision×RecallPrecision+RecallF1 = 2 \times \frac{Precision \times Recall}{Precision + Recall}
- Phù hợp khi cần tối ưu cả 2 (balanced metric).
ROC-AUC – Đánh Giá Tổng Thể
- ROC (Receiver Operating Characteristic): Biểu đồ so sánh True Positive Rate vs False Positive Rate khi thay đổi threshold.
- AUC (Area Under Curve): Diện tích dưới đường ROC, từ 0.5 (ngẫu nhiên) đến 1.0 (hoàn hảo).
- Ưu điểm: không phụ thuộc vào ngưỡng cắt cụ thể → đánh giá tổng thể chất lượng mô hình.
Ví Dụ Trực Quan
Mô Hình |
Precision |
Recall |
F1-Score |
AUC |
Model A |
0.95 |
0.50 |
0.65 |
0.82 |
Model B |
0.80 |
0.85 |
0.82 |
0.88 |
📌 Kết luận: Model B có recall cao hơn, bắt được nhiều gian lận hơn, AUC cũng cao → chọn Model B nếu mục tiêu giảm rủi ro bỏ sót.
Khi Nào Dùng Chỉ Số Nào?
✅ Precision – khi False Positive rất tốn kém (email spam, chẩn đoán bệnh)
✅ Recall – khi False Negative nguy hiểm (fraud detection, an ninh)
✅ F1-score – khi cần cân bằng cả 2 (đa số bài toán phân loại)
✅ AUC – khi muốn đánh giá chất lượng tổng thể của mô hình với nhiều ngưỡng khác nhau
Rủi Ro Khi Đánh Giá Mô Hình
⚠ Chỉ nhìn accuracy → mô hình tệ nhưng tưởng tốt
⚠ Không chia train/test → mô hình overfit
⚠ Không so sánh baseline → không biết mô hình có thật sự cải thiện
Tips Để Đánh Giá Chuẩn
✅ Luôn bắt đầu bằng confusion matrix để hiểu phân bố TP/FP/FN/TN
✅ Dùng cross-validation để đánh giá ổn định
✅ Thử nhiều ngưỡng cắt (threshold tuning) để tối ưu metric theo mục tiêu
✅ So sánh với baseline model (Random, Logistic Regression)
Kết Luận – Hiểu Đúng Số Liệu Để Ra Quyết Định Đúng
Chọn đúng metric giúp bạn tránh bẫy “accuracy cao nhưng vô dụng” và triển khai mô hình đáng tin cậy.
- Tập trung vào Precision/Recall khi dữ liệu mất cân bằng
- Dùng ROC-AUC để có cái nhìn toàn cảnh
- Luôn so sánh với baseline trước khi triển khai
📞 Hotline: 0352.433.233
📧 Email: cskh@mcivietnam.com

Các khóa học
- Mastering AWS : From Basics to Applications Specialized
- Data Engineer Track Specialized
- Combo Data Engineering Professional Hot
- AI & DASHBOARD – CHỈ 990K Hot
- Combo Python Level 1 & Level 2 Bestseller
- Business Intelligence Track Hot
- Data Science Track Bestseller
- Data Analyst Professional (Data Analyst with Python Track) Bestseller
- RPA UiPath Nâng Cao: Chiến Thuật Automation Cho Chuyên Gia Specialized
- RPA UiPath cho Người Mới Bắt Đầu: Thành Thạo Automation Chỉ Trong 1 Ngày Specialized
- Business Analyst Fast Track Bestseller
- Business Analyst Bestseller
Đăng ký tư vấn khóa học
*Vui lòng nhập số điện thoại của bạn
*Vui lòng nhập họ tên của bạn
*Vui lòng chọn giới tính
*Vui lòng chọn 1 trường