Python+sklearn分类效果评估
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了Python+sklearn分类效果评估,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含1681字,纯文字阅读大概需要3分钟。
内容图文
![Python+sklearn分类效果评估](/upload/InfoBanner/zyjiaocheng/830/dffab68347ba452a9481d7c76f17d1a2.jpg)
准确率(accuracy)的定义是: 对于给定的测试数据集,分类器正确分类的样本数与总样本数之比。也就是损失函数是0-1损失时测试数据集上的准确率。
TP: true positive 真正例
FP: false positive 假正例
TN: true negative 真反例
FN: false negativa 假反例
精确率(precision)的公式是P=TP/TP+FP,它计算的是所有”正确被检索的item(TP)”占所有”实际被检索到的(TP+FP)”的比例.
召回率(recall)的公式是R=TP/TP+FN,它计算的是所有”正确被检索的item(TP)”占所有”应该检索到的item(TP+FN)”的比例。
参考:
https://blog.csdn.net/pengchengliu/article/details/81009063
1、准确率
第一种方式:accuracy_score
// An highlighted block
import numpy as np
from sklearn.metrics import accuracy_score
y_pred = [0,2,1,3,9,9,8,5,8]
y_true = [0,1,2,3,2,6,3,5,9]
acc = accuracy_score(y_true,y_pred)
print(acc)
Out[127]: 0.33333333333333331
第二种方式:metrics
宏平均比微平均更合理,但也不是说微平均一无是处,具体使用哪种评测机制,还是要取决于数据集中样本分布
宏平均(Macro-averaging),是先对每一个类统计指标值,然后在对所有类求算术平均值。
微平均(Micro-averaging),是对数据集中的每一个实例不分类别进行统计建立全局混淆矩阵,然后计算相应指标。
// An highlighted block
from sklearn import metrics
acc2 = metrics.precision_score(y_true,y_pred,average='micro')
print(acc2)
Out[130]: 0.33333333333333331
acc3 = metrics.precision_score(y_true,y_pred,average='macro')
print(acc3)
Out[131]: 0.375
2、召回率
// An highlighted block
acc4 = metrics.recall_score(y_true,y_pred,average='micro')
print(acc4)
Out[134]: 0.33333333333333331
acc5 = metrics.recall_score(y_true,y_pred,average='macro')
print(acc5)
Out[135]: 0.3125
3、F1
// An highlighted block
acc6 = metrics.f1_score(y_true,y_pred,average='weighted')
print(acc6)
Out[136]: 0.37037037037037035
内容总结
以上是互联网集市为您收集整理的Python+sklearn分类效果评估全部内容,希望文章能够帮你解决Python+sklearn分类效果评估所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。