龙空技术网

Scikit-learn的混淆矩阵

人工智能遇见磐创 800

前言:

此刻姐妹们对“html代码混淆”都比较注重,各位老铁们都需要了解一些“html代码混淆”的相关文章。那么小编也在网摘上收集了一些有关“html代码混淆””的相关内容,希望朋友们能喜欢,朋友们一起来学习一下吧!

介绍

在我最近的一个项目中,事务监控系统生成了大量误报警报(然后由调查小组手动调查这些警报)。我们被要求使用机器学习来自动关闭那些错误警报。机器学习模型的评估标准是一个度量负预测值(Negative Predicted Value),表示在模型的总负预测中,有多少个案例是正确识别的。

NPV = True Negative / (True Negative + False Negative)

我会快速显示混淆矩阵,下面是jupyter笔记本的输出。在二分类模型中,target=1是欺诈交易,target=0是非欺诈交易。

cm = confusion_matrix(y_test_actual, y_test_pred)print(cm)----- Output -----[[230, 33] [24, 74]

根据解释混淆矩阵的不同方式,你会得到90%或76%的NPV。因为:

TN = cm[0][0] 或者 cm[1][1] 也就是 230 或者 74

FN = cm[1][0] 也就是 24

维基百科表示

我参考了维基百科中的混淆矩阵表示法。

这张来自维基百科的图片显示,预测的标签位于水平面,而实际的标签位于垂直面。这意味着:

TN = cm[1][1] ie. 76

FN = cm[1][0] ie. 24

NPV=76%

Sklearn表示法

Scikit-learn文档说Wikipedia和其他参考文献可能对axes使用不同的约定:

他们认为维基百科和其他参考文献可能会使用不同的坐标轴惯例。

我们已经看到,如果对轴使用错误的约定,度量可能会偏的非常厉害。

如果你通读文档,会发现这个示例:

tn, fp, fn, tp = confusion_matrix([0, 1, 0, 1], [1, 1, 1, 0]).ravel()

这里,他们将矩阵输出展平。在我们的例子中,这意味着:

TN = cm[0][0] ie. 230

FN = cm[1][0] ie. 24

NPV = 90%

理解混淆矩阵的结构

清楚地理解混淆矩阵的结构是非常重要的。尽管你可以直接使用公式计算大多数标准指标,如准确度、精确度、召回率等。许多时候,你需要计算诸如NPV、假正例率、假反例率等指标,这些指标在现成的软件包中是不可用的。

现在,如果我让你为混淆矩阵选择正确的选项,那就是混淆矩阵的输出。你会选哪一个?

你的答案是“A”是因为维基百科是这么说的,还是“C”是因为sklearn文档是这么说的?

让我们看看

考虑一下这些是你的y_true 和y_pred 值。

y_true = [0, 1, 0, 1, 0, 1, 0]y_pred = [1, 1, 1, 0, 1, 0, 1]

我们可以计算如下:

TP (True Positive) = 1

FP (False Positive) = 4

TN (True Negative) = 0

FN (False Negative) = 2

对于二分类的经典机器学习模型,主要是运行以下代码来获得混淆矩阵。

from sklearn.metrics import confusion_matrixconfusion_matrix(y_true, y_pred)

如果我们把它填回混淆矩阵,我们得到如下的混淆矩阵:

cm = confusion_matrix(y_true, y_pred)print (cm)--- Output ---[[0,4] [2,1]] which translates to this:             predicted                                    0       1               -----   -----           0|   0   |   4      actual    -----   -----                    1|   2   |   1       

TN (True Negative) = cm[0][0] = 0

FN (False Negative) = cm[1][0] = 2

TP (True Positive) = cm[1][1] = 1

FP (False Positive) = cm[0][1] = 4

但是,如果要添加一个简单的参数“labels”。

cm = confusion_matrix(y_true, y_pred, labels=[1,0])print (cm)--- Output ---[[1,2] [4,0]] which translates to this:            predicted                                    1       0                -----   -----           1|   1   |   2       actual    -----   -----                    0|   4   |   0

TP (True Positive) = cm[0][0] = 1

FP (False Positive) = cm[1][0] = 4

TN (True Negative) = cm[1][1] = 0

FN (False Negative) = cm[0][1] = 2

结论:

下面是sklearn的混淆矩阵的默认输出的正确表示。水平轴上的真实标签和垂直轴上的预测标签。

1.默认输出:

# 1.默认输出confusion_matrix(y_true, y_pred)

2.通过添加labels参数,可以获得以下输出:

# 2. 使用labels参数confusion_matrix(y_true, y_pred, labels=[1,0])

Github链接:

标签: #html代码混淆