四、分类

逻辑回归(Logistic Regression)

用于处理分类问题

Sigmoid Function / Logistic Function 逻辑函数:

g(x) = \frac {1}{1+e^{-x}}

将定义逻辑回归的预测函数为:

h_{\theta}(x) = g(\theta^Tx) = \frac{1}{1+e^{-\theta^Tx}}

图像为:

注:1、0.5可以作为分类的边界

       2、当z\geq 0时,g(z) \geq 0.5;当z\leq 0时,g(z) \leq  0.5

       3、当\theta^Tx\geq 0时,g(\theta^Tx) \geq 0.5,当\theta^Tx\leq 0时,g(\theta^Tx) \leq  0.5

决策边界:g(x)中x所决定的边界,x\geq 0,y=1x\leq 0y=0。y为标签

代价函数

    Cost(h_\theta(x),y) = -log(h_\theta(x)),   \ \   if \ y=1

    Cost(h_\theta(x),y) = -log(1-h_\theta(x)),   \ \   if \ y=0

y=1,h_\theta(x)=1时,Cost = 0;当y=1,h_\theta(x)=0时, Cost = \propto

y=0,h_\theta(x)=1时, Cost = \propto;当y=0,h_\theta(x)=0时,Cost = 0

代价函数可改写为如下形式

    Cost(h_\theta(x),y) = -ylog(h_\theta(x))-(1-y)log(1-h_\theta(x))

求解,一般使用梯度下降法

Gradient \ Descent

            J(\theta) = -\frac{1}{m}\sum_{i=1}^{m} [y^{(i)}logh_\theta(x^{(i)}) + (1-y^{(i)})log(1-h_\theta(x^{(i)}))]

want \ \ min_\theta J(\theta)

Repeat \ \  \{{}

            \theta_j:=\theta_j-\alpha \frac{\partial}{\partial\theta_j}J(\theta)

\}

则因为

Cost(h_\theta(x),y) =  -\frac{1}{m}\sum_{i=1}^{m} [ylogh_\theta(x) + (1-y)log(1-h_\theta(x))]

h_\theta(x) = g(\theta^Tx),     g(x) = \frac {1}{1+e^{-x}},    h’_{\theta}(x) = h_{\theta}(x)(1-h_{\theta}(x))

所以

\frac{\partial Cost(h_\theta(x),y)}{\partial \theta} = -\frac{1}{m} \sum_{i=1}^{m} (\frac{y}{h_\theta(x)} - \frac{(1-y)}{1-h_\theta(x)}) \frac{\partial h_\theta(x)}{\partial \theta}

                                   = -\frac{1}{m} \sum_{i=1}^{m} (\frac{y}{h_\theta(x)} - \frac{(1-y)}{1-h_\theta(x)}) h’_\theta(x)x 

                                   = \frac{1}{m} \sum_{i=1}^{m} \frac{h’_\theta(x)x}{h_\theta(x)(1-h_\theta(x))}  (h_\theta(x)-y)

                                  =  \frac{1}{m} \sum_{i=1}^{m}x(h_\theta(x) - y)

所以

Repeat \ \  \{{}

            \theta_j:=\theta_j-\frac{\alpha}{m}\sum_{i=1}^{m}(h_\theta(x^{(i)}) - y^{(i)})x_j^{(i)}

\}

一般用于处理二分类问题,对于多分类问题,可以将其转化为二分类问题。

正则化:

    J(\theta) = -\frac{1}{m}\sum_{i=1}^{m} [y^{(i)}logh_\theta(x^{(i)}) + (1-y^{(i)})log(1-h_\theta(x^{(i)}))] \ +\ \frac{\lambda}{2m}\sum_{j=1}^{n}\theta_j^2\ /\ \frac{\lambda}{2m}\sum_{j=1}^{n}\vert \theta_j\vert

\frac{\lambda}{2m}\sum_{j=1}^{n}\vert \theta_j\vert 为L1正则化,    \frac{\lambda}{2m}\sum_{j=1}^{n}\theta_j^2为L2正则化

对于L2求导得:

 \frac{1}{m} \sum_{i=1}^{m}(h_\theta(x^{(i)}) - y^{(i)})x_0^{(i)}

 \frac{1}{m} \sum_{i=1}^{m}(h_\theta(x^{(i)}) - y^{(i)})x_1^{(i)} - \frac{\lambda}{m}\theta_1

 \frac{1}{m} \sum_{i=1}^{m}(h_\theta(x^{(i)}) - y^{(i)})x_2^{(i)} - \frac{\lambda}{m}\theta_2

...




正确率、召回率、F1指标

    正确率与召回率(Precision && Recall)是广泛应用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。

    一般来说,正确率就是检索出来的条目有多少是正确的;召回率就是所有的正确条目有多少被检索出来了。

    F1值 = 2*\frac{正确率*召回率}{正确率+召回率},用于综合反映整体的指标。

    三者的取值都在0-1之间,数值越接近1,效果越好。

eg:共1400条鲤鱼,300虾,300王八,要捕鲤鱼,实际上捕了700鲤鱼,200虾,100王八

则正确率:700 / (700 + 200 + 100)= 70%

    召回率:700 / 1400 = 50%

    F1值 = 70% * 50% * 2 / (70% + 50%) = 58.3%

    正常状况下,Precision越高越好,同时Recall也越高踢越好,但某些情况下,二者矛盾,不同场合,要判断哪一个比较高更好

F_\beta = (1+\beta^2)\frac{Precision*Recall}{(\beta^2*Precision)+Recall},当\beta=1时为F1指标。




最邻近规则分类(KNN)

    为了判断未知实例的类别,以所有已知类别的实例作为参照选择参数k。

    计算未知实例与所有已知实例的距离

    选择最近k个已知实例

    根据少数服从多数的投票法则(majority-voting),让未知实例归类为k个最邻近样本中最多数的类别


    距离判断一般为欧氏距离(欧几里得距离):E(x,y) = \sqrt{\sum_{i=0}^{n}(x_i-y_i)^2} ,如\sqrt{(x_2-x_1)^2 + (y_2-y_1)^2}

    其他距离衡量:余弦值距离(cos),相关度(correlation),曼哈顿距离(Manhattan distance)

    k值的选取也会影响,一般取奇数

算法缺点:算法复杂度较高(需要比较所有已知实例与要分类的实例)

                  当其样本分布不平衡时,比如其中一类样本过大占主导的时候,新的未知实例容易被归类为这个主导样本,因为这类样本实例的数量过大,但这个新的未知实例实际并没有接近目标样本。



决策树(见集成学习)


©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,723评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,080评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,604评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,440评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,431评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,499评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,893评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,541评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,751评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,547评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,619评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,320评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,890评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,896评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,137评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,796评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,335评论 2 342

推荐阅读更多精彩内容