Logistic回归模型|算法实现

01 起

在这篇文章中,我们学习了逻辑斯谛回归模型的算法原理:统计学习方法|logistic回归

今天我们基于算法原理,给出利用随机梯度上升算法求解逻辑斯蒂回归模型参数的过程。

我们先来回顾一下逻辑斯蒂回归模型,

  • logistic回归的目的是寻找一个非线性函数sigmoid函数的最佳拟合参数w, sigmoid(wx)=1/(1+exp(-wx)),找到最佳拟合参数w,使不同类别样本点的特征x输入后,被分到对应的分类中,sigmoid值可以认为是一个概率值,从0~1,当>0.5,分到1类,<=0.5分到0类

好了,开始实操。

02 梯度下降算法

逻辑斯蒂回归模型的求解过程可以由最优化算法完成,最常用的最优化算法是梯度下降/上升算法,又可以简化为随机梯度下降/上升算法。

一般地,梯度下降算法中的梯度是指模型损失函数对输入变量x的梯度,梯度方向是函数上升最快的方向,于是梯度下降算法是朝着梯度反方向更新系数,可以求得局部最小值,而梯度上升算法则每次朝着梯度方向更新系数,可以求得局部最大值。

如果优化目标是损失函数,那么应该使用梯度下降算法求解使损失函数最小的参数w,而本文的优化目标是二分类模型的似然函数L(w),该函数表示某样本属于某个类别的概率,所以似然函数越大越好,因此要使用梯度上升算法求似然函数L(w)的极大值。

随机梯度上升算法相比梯度上升算法,每次只使用一个样本点更新参数w,占用更少的计算资源,且可以在新数据到来时就完成参数更新,是一种在线算法,各种梯度下降算法如下:

  • 批量梯度下降算法(BGD,Batch Gradient Descent)
  • 随机梯度下降算法(SGD,Stochastic Gradient Descent)
  • 小批量梯度下降算法(MBGD,Mini-Batch Gradient Descent)

本文先给出梯度上升算法(BGA),然后给出改进的梯度上升算法——随机梯度上升算法(SGA)

03 梯度上升算法实现

思路:

  1. 初始化回归系数,即置回归系数w=(w1,w2,...,wn)为全1
  2. 将训练集各样本值带入F(X)=sigmoid(w*x)函数计算F(X)值,认为是样本的分类值(二分类01)
  3. 计算各训练样本的分类误差error(样本的真实分类值-样本的F(X))
  4. 认为本次迭代的梯度=dataMat'*error,得到一个(n,1)的矩阵,用于将回归系数向似然函数增大的方向调整
  5. 将回归系数w向似然函数增大的方向调整:w(k+1)=w(k)+adataMat'error
  6. 重复2~5步,直到迭代达到指定次数或error小于某值,停止迭代,得到回归系数w,逻辑斯蒂回归模型训练完毕
#sigmoid函数(类阶跃函数,只是0>1斜率较缓,不是瞬变的)
def sigmoid(z):
    return 1.0/(1+np.exp(-z)) # z=w*x

def gradAscent(dataMat,labelMat,numIter=150):
    dataMatrix=np.mat(dataMat) #样本特征矩阵 (m,n)
    labelMatrix=np.mat(labelMat).transpose() #样本类别矩阵 (1,m)
    m,n=np.shape(dataMatrix) #m个样本,n个特征
    
    alpha=0.001 #梯度上升的步长
    weights=np.ones((n,1)) #初始化回归系数
    
    #开始迭代,梯度上升
    for i in range(numIter):
        #将各样本值带入F(X)=sigmoid(w*x)函数计算F(X),认为是样本在当前迭代的分类值
        Fx=sigmoid(dataMatrix*weights) #shape=(1,m)
        
        #计算各训练样本的分类误差error(样本的真实分类值-样本的F(X))
        #需要将label矩阵浮点数化,与Fx元素数值类型一致,否则报错
        """这里可以加一个if判断,用于在error小于设定值时停止迭代"""
        error=(labelMatrix.astype(float)-Fx) #shape=(1,m) 
        
        #本次迭代的梯度=dataMat'*error,意思为m个样本的n个特征 分别与 m个样本的误差相乘
        """样本误差越大,下一次迭代调整就越多"""
        grad=dataMatrix.transpose()*error #shape=(n,1),用于将回归系数向似然函数增大的方向调整
        
        #将回归系数w向似然函数增大的方向调整:w(k+1)=w(k)+a*dataMat'*error
        weights=weights+alpha*grad
  
    #直到迭代达到指定次数或error小于某值,停止迭代,得到回归系数w,逻辑斯蒂回归模型训练完毕
    return weights

我们使用一组二维分类数据集来测试一下算法,得到的分类边界如下图所示,其中蓝点红点分别表示数据集中划分好的不同类别,橙色线条为决策边界,是训练得到的逻辑斯蒂回归模型,

04 随机梯度上升算法实现

以上计算可以看到,梯度上升法计算量较大,即使是简单数据集计算量也很大(100条3维度数据需要进行300次乘法,再算上1000此迭代,计算量就更大了),当面对上万上亿条数据,计算复杂度就太大了。

于是我们给出改进的梯度上升算法——随机梯度上升算法,

  • 一次仅用一个样本点来更新回归系数w
  • 此方法可以在新样本到来时进行增量式的更新,因此随机梯度上升法是一种在线学习算法

随机梯度上升法思路:与梯度上升法类似,不同之处在于:

  1. 随机梯度上升法一次只用一个样本点来更新回归系数w
  2. 需要遍历所有的样本点来更新回归系数w,然后才相当于梯度上升法的一次迭代
  3. 相比于梯度上升法,随机梯度上升法每次迭代只有100次(样本数)乘法,复杂度大大降低,特别对于高维样本
def stocGradAscent(dataMat,labelMat):
    m,n=np.shape(dataMat) #m个样本,n个维度(特征),dataMat为list
    dataMatrix=np.mat(dataMat) #list转换为矩阵,便于后续计算
    alpha=0.01 #步子迈大点
    weights=np.ones((n,1)) #初始化回归系数,一维数组
    
    for i in range(m): #遍历所有样本点
        #第i个样本点的F(x)值,float内为第i个样本点的w*x
        Fxi=sigmoid(float((dataMatrix[i]*weights)))
        
        #第i个样本的真实值与预测值误差,用于回归系数调整
        error=float(labelMat[i])-Fxi
        
        #回归系数调整,只用第i个样本点更新回归系数w
        weights=weights+alpha*error*dataMatrix[i].transpose()
    return weights

我们使用相同的数据集测试一下随机梯度上升算法训练的逻辑斯蒂回归模型,如下图,

咦,怎么感觉分类能力更弱了?

不不不,再仔细看看,随机梯度上升算法只迭代了1次,而刚才我们迭代了1000次,这样对比好像不太公平呐!

我们再改进一下,

  1. 加入多次迭代
  2. 每次迭代的步长(alpha)会被调整,越往后迭代,步长越小
    • 可缓解迭代过程中系数的波动,前几次迭代中,步长较大,即,alpha不是严格下降的,便于系数快速收敛
  3. 每次迭代中,遍历样本不是按顺序遍历的,而是随机遍历的,即,随机选取样本来更新回归系数w,每次随机从样本集中选出一个样本,更新系数,然后删除该样本点,进行下一次i迭代
    • 可减少迭代过程中回归系数的周期性波动,因为周期性波动(波形图中的小锯齿)来自于一些不能被正确分类的样本点(数据集并非线性可分),这些样本点每次被用于更新系数时会引起系数的剧烈波动
def stocGradAscentIter(dataMat,labelMat,numIter=150):
    m,n=np.shape(dataMat) #m个样本,n个维度(特征),dataMat为list
    dataMatrix=np.mat(dataMat) #list转换为矩阵,便于后续计算
    weights=np.ones((n,1)) #初始化回归系数,一维数组

    for j in range(numIter):
        dataIndex=list(range(m))#样本点索引,用于存储尚未用于更新系数的样本点的索引
        for i in range(m): #遍历所有样本点
            """第j次迭代的第i个小迭代"""
            alpha=4/(1.0+j+i)+0.01 #每次迭代的步长(alpha)会被调整,越往后迭代,步长越小

            #随机选取样本点进行系数更新
            randIndex=np.random.randint(0,len(dataIndex)) #从尚未用于更新系数的样本点中随机选取一个样本
            Fxi=sigmoid(float((dataMatrix[randIndex]*weights)))
            error=float(labelMat[randIndex])-Fxi
            weights=weights+alpha*error*dataMatrix[randIndex].transpose()
            
            #删除已经用于更新系数的样本点的索引
            del(dataIndex[randIndex])
    return weights

再来看看训练效果,

对比一下使用梯度上升算法迭代1000次后的模型,改进的随机梯度上升算法只迭代了10次就已经展现出较好的分类能力了,溜~~

05 总结

本文给出了随机梯度下降/上升算法的原理和方法,并基于随机梯度上升算法求解逻辑斯蒂回归模型的参数w,完成模型训练,旨在加深对逻辑斯谛回归模型和随机梯度下降算法的进一步理解,希望对你有帮助=.=

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 196,302评论 5 462
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,563评论 2 373
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 143,433评论 0 325
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,628评论 1 267
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,467评论 5 358
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,354评论 1 273
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,777评论 3 387
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,419评论 0 255
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,725评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,768评论 2 314
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,543评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,387评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,794评论 3 300
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,032评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,305评论 1 252
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,741评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,946评论 2 336

推荐阅读更多精彩内容

  • Logistic回归 主要内容Sigmoid函数和Logistic回归分类器最优化理论初步梯度下降最优化算法数据中...
    geekLiu阅读 1,425评论 0 2
  • 机器学习是做NLP和计算机视觉这类应用算法的基础,虽然现在深度学习模型大行其道,但是懂一些传统算法的原理和它们之间...
    在河之简阅读 20,444评论 4 65
  • 注:题中所指的『机器学习』不包括『深度学习』。本篇文章以理论推导为主,不涉及代码实现。 前些日子定下了未来三年左右...
    我偏笑_NSNirvana阅读 39,866评论 12 145
  • 文/小叶 前言 有许多染房,可以染出很美的颜色,有的始终要褪色,于是沾染越多,极少数的染不上外色,仅存本色。 一 ...
    博土阅读 202评论 0 1
  • 如果彼此相爱,那就一起去旅行吧 罗曼 罗兰曾说过,“要么读书,要么健身,身体和灵魂必须有一个在路上。” 旅行的意义...
    zheng小叶阅读 297评论 0 0