模型评估——ROC曲线与AUC计算(真正率假正率)

评估方法:
在学习得到的模型投放使用之前,通常需要对其进行性能 评估。为此, 需使用一个“测试集”(testing set)来测试 模型对新样本的泛化能力,然后以测试集上的“测试误差 ”(testing error)作为泛化误差的近似。

我们假设测试集是从样本真实分布中独立采样获得,所以 测试集要和训练集中的样本尽量互斥。

给定一个已知的数据集,将数据集拆分成训练集S和测试集 T,通常的做法包括留出法、交叉验证法、自助法。

评估指标:
要评估模型的好坏光有评估方法还不行,还得确定评估指标。

所谓评估指标就是衡量模型泛化能力好坏的评估标准,反映了 任务需求;使用不同的评估指标往往会导致不同的评估结果。

在分类预测任务中,给定测试样例集,评估分类模型的性能就 是把对每一个待测样本的分类结果和它的真实标记比较。

因此,准确率和错误率是最常用的两种评估指标:

  • 准确率就是分对样本占测试样本总数的比例
  • 错误率就是分错样本占测试样本总数的比例

ROC曲线的绘制基于TPR和FPR,这里先说真正率和假正率的计算

真正率与假正率的计算

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
例题:

在这里插入图片描述
在这里插入图片描述
+、- 表示样本的真实正负,即x1为负样本,但它有0.9的概率被预测为正样本,同理,x2为正样本,它有0.9的概率被预测为正样本。

接下来,开始用一种简单的方法计算TPR和FPR

| 来分割数据(先举个例子, | 从最左移动到最右)
在这里插入图片描述

| 左侧表示样本被预测为正,右边表示样本被预测为负。

第一行,TP是被模型预测为正的正样本,即 + 样本在 | 左侧的个数,为0;FN是被模型预测为负的正样本,即 + 样本在 | 右侧的个数,为4;FP是被模型预测为正的负样本,即 - 样本在 | 左侧的个数,为0;TN是被模型预测为负的负样本,即 - 样本在 | 右侧的个数,为5个。列出表如下:

在这里插入图片描述
那第一行的TPR和FPR分别为在这里插入图片描述
**第二行,**TP是 + 样本在 | 左侧的个数,为0;FN是被模型预测为负的正样本,即 + 样本在 | 右侧的个数,为4;FP是被模型预测为正的负样本,即 - 样本在 | 左侧的个数,为1;TN是被模型预测为负的负样本,即 - 样本在 | 右侧的个数,为4个。列出表如下:在这里插入图片描述
那第一行的TPR和FPR分别为
在这里插入图片描述
同理:
在这里插入图片描述

ROC曲线 的横坐标为FPR,纵坐标为TPR,根据这九个点,用R语言画出ROC曲线如下
在这里插入图片描述
当样本量足够大时,密集的点就会使ROC曲线变得圆滑
在这里插入图片描述
直接地比较分类的好坏是比较ROC曲线的面积,也就是AUC,当后者的曲线包住前者时,说明后者的分类器比较好;但有时曲线有交叉点难以判断面积的大小时,需要计算AUC的值。在这里插入图片描述
在这里说排序法:
在这里插入图片描述
在这里插入图片描述
我这里说的比较AUC是基于多个样本集,一个样本集根据计算只能画出一个ROC曲线和AUC值(我这里只有一道题,没得比,这也是我当时看教程有点不太明白的地方,以为还可以画出多条曲线进行比较呢)

到这里就解释完了,有高见的朋友们可以留言,我对这块的内容也是自己的体会,希望可以和大家一起讨论。

猜你喜欢

转载自blog.csdn.net/Wxxx744/article/details/109055138