ROC曲线
- 定义
在信号检测理论中,接收者操作特征曲线(receiver operating characteristic curve,
或者叫ROC曲线)是一种坐标图式的分析工具,
用于
(1) 选择最佳的信号侦测模型、舍弃次佳的模型。
(2) 在同一模型中设定最佳阈值。
这里我们只要记得
ROC曲线
主要是用来确定一个模型的 阈值。
同时在一定程度上也可以衡量这个模型的好坏
-
理解
既然我们想要直白来理解 ROC曲线,那么例子是肯定少不了的:
假设1:感冒有三种特征,咳嗽,发烧,流鼻涕。假设2:如果想确定一个人是否得了感冒,
可以根据三种特征来打分,
每个特征可以打 0-1 分。
打分越高,
得感冒概率越高。假设3:现在你是一个医生,
有100个病人来看病,
你需要根据这些人的三个感冒特征给他们打分,
得到如下一组数据(编号,分数)
:(1,2) (2,2.4) (2,0.4)....(100,3)
假设4:我是一个神医,
能百分百确定别人是否得了感冒。
然后我看了你的报告,
并给每个数据都给了确定的答案,
其中感冒60人,正常40人,
这一步骤主要是模拟实际生产数据中的真实 lab 值。
所以数据就变成了(编号,是否真感冒,分数)
(1,0,2) (2,1,2.4) (2,0,0.4).... (100,1,3)
好了,现在问题来了,
你是给每个病人打分了,
也知道分数越高得感冒得概率越高,
但是,到底得没得感冒却没有一个标准,
这个标准就是上面说的 阈值,
所以接下来就是要想办法确定这个 阈值或者标准了,
那么我们采用办法呢?
对于这种 二分类 问题的阈值,
就是我们 ROC 曲线大展身手的时候了。 -
ROC 曲线 和 阈值
- 阈值比较小的时候:
如果我们认为打 1 分以上的就是感冒患者,
那么只要有一点症状就可以确诊为感冒了,
这时候100个人,确诊感冒的可能有 80 人,
但是实际呢?
可能80个人中只有50个是真感冒的。
如下图:
阈值=1 诊断感冒 诊断正常 合计 真感冒 60 0 60 真正常 20 20 40 合计 80 20 100 我们可以发现被你诊断为 感冒的 患者中,
有 60 个是 真的患者,
还有 20 个 正常 也被你诊断成了 感冒。-
阈值比较大的时候:
如果我们认为打 2 分以上的才是感冒患者,
这时候100个人,
确诊感冒的可能有 20 人,
但是实际呢?
真正感冒的可是60人,
你只确诊20个,
如下图:阈值=2 诊断感冒 诊断正常 合计 真感冒 20 40 60 真正常 0 40 40 合计 20 80 100 我们可以发现,诊断为感冒的20人,每一个都是真正的患者,
但是同时,一些特征可能不是很明显的真正患者也被你误诊为了正常 -
什么是合适的阈值
我们期望的是阈值不大不小,
换句话理解就是,
我们希望得到一个使得 如果是患者,那就一定要诊断为患者,
而如果你不是患者,我也不能把你误诊成患者,
那么将这个想法用公式表示出来就是:
这里我们引入了真阳率 和 假阳率,
其定义如下:
真阳率:预测为真,并且预测正确 占 所有真样本的 比例
假阳率:预测为真,但是预测错误 占 所有非真样本的 比例这里很明显,我们的 真 就是 患者,非真 就是 正常 人
所以合适的阈值就是:使得 真阳率 趋于 1,并且 假阳率 趋于 0。
-
寻找合适的阈值
所以我们一点点改变阈值,
就可以得到一组又一组的真阳率 和 假阳率
,
将这一组组真阳率 和 假阳率
在坐标轴上表示出来,
就是我们要的 ROC曲线,
通过图形化,我们就可以很直观的看到他们的变化了。
这个图只是随便在网上找的,
可不是这个列子的图噢,
我们大概看下 ROC曲线的 样子就好了
其中 x 轴表示 假阳率,y 轴表示 真阳率,
可以发现 假阳率 和 真阳率 是成正相关的,
也就是说我们其实基本不可能找到一个 阈值,
使得真阳率=1
而假阳率=0
,
如果出现这种情况,
那么这个曲线的经过(0,1)点,
这个图就是一个正方形了。
- 阈值比较小的时候:
好了,到这里我想对 ROC曲线 你应该有一个比较感观的认识了,
其实这个算法也是很符合我们的常识的,
也告诉我们,看似高大上的一些算法,
其实真的就是源于生活的点点滴滴。
这里再补充一点:
我一直说的都是从 预测为感冒 这个角度来阐述,
这也是二分类的一个好处,
我们只要想明白了一个角度,
另外一个角度就是一个1 - x
的问题了
AUC
-
定义
- ROC曲线 与 横轴 围城的曲边形的面积
- 将所有样本根据算法模型预测的打分进行升序排列,
随机挑选一正一负两个样本,
负样本排在正样本前面的概率
只是看文字好像不是很好理解,
可以结合上面那个例子来看一看就好理解了,
我们给所有来看病的人都有打分,
按照打分给他们排个序,
然后随机挑选一个真得感冒 和 一个 真正常的人,
看一下是不是真正常的人排在前面,
如果是,那么计数为1,
进行 N 次实验,
所有计数的累计和 为 n,
那么n/N
就是AUC的值了,
顺便提一下,最理想的情况就是n = N
了,
也意味着我们的打分已经完美
定义有两种,但是他们应该如何进行理解互通呢?
笔者目前也不是很清楚,尝试推理了下,
也不是很明白,这里就不敢班门弄斧了,
如果有大佬理解,请不吝赐教!!!非常感谢!!!
这里如果有感谢兴趣的朋友,也可以查看下 这篇博客,
应该是我找到的比较有深度的 auc 的计算了
-
为什么需要 AUC
前面我们说了 ROC曲线 可以用来给一个模型确定阈值,
那么 AUC 则是来评判一个 二分类的 模型的优劣。
如果AUC = 1
:完美预测,基本不会存在的情况。
如果0.5 < AUC < 1
:除了完美预测,那就乘这个区间的最有价值了。
如果AUC = 0.5
:因为是二分类,随机猜测也就是这个概率了,完全就没有价值
如果AUC < 0.5
:比随机猜测的概率还低!!!但是反过来说,非黑即白,如果取个反呢?
总的来说,不考虑最后一种情况,
AUC当然是越大 越好,
如果是最后一致情况,那当然是越小越好,
因为我一旦取反,那么就和第一种情况一样啦。
这里还补充一点,
关于我们预测分类为什么不直接用 准确度,
我们可以想象一下,对于一些有偏的数据,
比如中彩票的概率如果是 万分之一,
那么我要预测中没中彩票,
只要都预测为不中,
那我的准确率不是有 99.99%?
看数据是不是很好,但是实际是不是很废?
用 ROC 和 AUC 来评判就是可以很好的避免这个问题了,
具体你可以自己算算这个列子的 ROC 曲线就可以理解了。
-
AUC 计算
首先还是这篇博客。其次,我想说的是,写AUC的博客那么多,
为什么没人将工作中的计算方法说上来呢?
所以这里我就贴一个工作中计算方式:1.首先我们计算AUC肯定得有一份打完分了的数据,假设数据
auc.text
,内容如下:-1 0.12 -1 0.13 -1 0.16 1 0.2 -1 0.21 -1 0.23 1 0.3 -1 0.32 -1 0.35 1 0.4 -1 0.42 -1 0.46 1 0.5 -1 0.51 -1 0.53 1 0.7 1 1.1 1 1.2 1 1.2
-
计算方法
cat auc.text |sort -k2n|awk '($1==-1){++x;a+=y}($1==1){++y}END{print 1.0-a/(x*y)}'
通过一个简单的 awk 就可以得出来了,
至于这个公式得原理,也很简单,
就是完全遵循我们定义中的第二种方式得来的,
推理过程就不啰嗦了,
大致解释下:- x 表示所有负样本数,y表示 正样本数
- 所以 x * y 就是对所有正负做一次 AUC 实验,可以做 x*y 这么多次
- 因为是排序的,所以每当在 负样本上面找到一个正样本,
那么实验错误的次数就得累计一次 - 所以 y 其实也就记录了,当前这个负样本上面 有多少个 正样本,
那么就有多少次预测错误, - 所以 a 记录的就是预测错误的值
- 所以 1- (a/x*y) 就是 AUC
-
我不知道我解释的有没有让你明白....
但是我只能说到这里了....
好了,本文到此就结束啦!谢谢你的阅读!!!