【机器学习算法系列】逻辑回归

一、原理简述

1.1 LR定义

逻辑回归(Logistic Regression),简称LR,是目前较流行使用广泛的一种学习算法,用于解决预测的变量y是离散值的二分类问题。例如:判断一封电子邮件是否是垃圾( 0 or 1)。Y=0表示为非垃圾邮件,Y=1为是垃圾邮件,这里的响应变量是一个两点(0-1)分布变量,但不能用h函数连续的值来预测因变量Y,只能取0或1解决二分类问题。

逻辑回归的模型本质上是一个线性回归模型,假设因变量 𝑦 服从伯努利分布,通过Sigmoid函数引入了非线性因素处理0/1分类问题。

1.2 Sigmoid函数

逻辑回归模型的假设是: h𝜃(𝑥) = 𝑔(𝜃𝑇𝑋) 其中: 𝑋 代表特征向量 𝑔 代表逻辑函数(logistic function)是一个常用的逻辑函数为 S 形函数(Sigmoid function) ,该模型的输出变量范围始终在 0 和 1 之间 。公式为:

image.png

该函数的图像为:

image.png

逻辑回归模型的假设:

h𝜃 (𝑥) = 𝑃 (𝑦 = 1|𝑥; 𝜃)

h𝜃(𝑥)的作用是,对于给定的输入变量,根据选择的参数计算输出变量=1 的可能性,例如,假设给定的𝑥,通过已经确定的参数计算得出h𝜃 (𝑥) = 0.7,则表示有 70%的几率𝑦为正向类,相应地𝑦为负向类的几率为 1-0.7=0.3 。

1.3 决策边界

决策边界(decision boundary) 可以理解为将样本划分为不同类别的一条边界。

image.png

在逻辑回归中,我们预测:

当h𝜃(𝑥) >= 0.5时,预测 𝑦 = 1。

当h𝜃(𝑥) < 0.5时,预测 𝑦 = 0。

根据上面绘制出的 S 形函数图像,我们知道当

𝑧=0 时 𝑔(𝑧)=0.5

𝑧>0 时 𝑔(𝑧)>0.5

𝑧<0 时 𝑔(𝑧)<0.5

又 𝑧 = 𝜃𝑇𝑥 ,即:

𝜃𝑇𝑥 >= 0 时,预测 𝑦 = 1

𝜃𝑇𝑥 < 0 时,预测 𝑦 = 0

sigmoid函数将回归函数得到的值求得一个介于0和1之间的概率,当h𝜃(𝑥)>0.5时,预测值为1,ph𝜃(𝑥)<0.5时,预测值为0。那么h𝜃(𝑥)=0.5就是一个临界值,此时e的系数就是0,决策边界的公式为:

图片

这里引用Andrew Ng 课程上的两张图来解释这个问题:

1.3.1 线性决策边界

image.png

参数𝜃 是向量[-3 1 1]。 则当−3 + 𝑥1 + 𝑥2 ≥ 0,即𝑥1 + 𝑥2 ≥ 3时,模型将预测 𝑦 = 1。 我们可以绘制直线𝑥1 + 𝑥2 = 3,这条线便是我们模型的分界线,将预测为 1 的区域和预 测为 0 的区域分隔开。

1.3.1 非线性决策边界

image.png

因为需要用曲线才能分隔 𝑦 = 0 的区域和 𝑦 = 1 的区域,我们需要二次方特征: h (𝑥)=𝑔(𝜃 +𝜃 𝑥 +𝜃 𝑥 +𝜃 𝑥2 +𝜃 𝑥2)是[-1 0 0 1 1],则我们得到的判定边界恰好是圆点在原点且半径为 1 的圆形。

1.4 代价函数

对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。 公式为:

image.png

但对于逻辑回归来说,逻辑回归是一个非凸函数(non-convexfunction),意味着会出现很多局部最小值,这也将会影响梯度下降算法寻找全局最优解。

逻辑回归的代价函数为:

image.png

!

image.png

h𝜃(𝑥)与 𝐶𝑜𝑠𝑡(h𝜃(𝑥),𝑦)之间的关系如下图所示:


image.png
image.png

当实际的 𝑦 = 1 且h𝜃(𝑥)也为 1 时误差为 0, 当 𝑦 = 1 但h𝜃(𝑥)不为 1 时误差随着h𝜃(𝑥)变小而变大;当实际的 𝑦 = 0 且h𝜃(𝑥)也为 0 时 代价为 0,当𝑦 = 0 但h𝜃(𝑥)不为 0 时误差随着 h𝜃(𝑥)的变大而变大。

image.png

1.5 梯度下降法

最小化代价函数的方法,是使用梯度下降法(gradient descent)。 梯度下降中的梯度指的是代价函数对各个参数的偏导数,偏导数的方向决定了在学习过程中参数下降的方向,学习率(通常用α表示)决定了每步变化的步长,有了导数和学习率就可以使用梯度下降算更新参数, 即 :

image.png

1.6 多类别分类:一对多

逻辑回归本身只能解决二分类问题,但可以通过一些方法使得二分类转换成多分类问题。常见的方式有OvR和OvO两种。

举个例子,如果一个病人因为鼻塞来去医院看病,他可能并没有生病,用 𝑦 = 1 这个类别来代表;或者患了感冒,用 𝑦 = 2 来代表;或者得了流感用𝑦 = 3来代表。例子为一个多分类问题。前面我们已经知道使用逻辑回归进行二元分类,对于直线或许你也知道,可以将数据集一分为二为正类和负类。用一对多的分类思想,我们可以将其用在多类分类问题上,这种方法为"一对余"方法 ,也称OvR(One vs Rest)。

image.png

上图为多分类转换成二分类过程,图中原有红、蓝、紫、绿四个类别。以左下角为例,假设红色类标记为正向类(𝑦 = 1),而灰色类(除红色外的其他类标记为负向类(𝑦 = 0)。接着,类似地选择另一个类标记为正向类(𝑦 = 2),再将其它类都标记为负向类,最后我们得到一系列的模型简记为: h𝜃 (𝑖)(𝑥) = 𝑝(𝑦 = 𝑖|𝑥; 𝜃)其中:𝑖 = (1,2,3. . . . 𝑘) 。

简单来说,OvR的思路是将所有类别分为两个类,当前类别是一类,其他类别合并视为一个类。有K个类别的数据样本就会被分为K个由两个类组成的新样本集合,这样就将多分类问题转化为二分类问题,然后对每个数据样本进行模型训练,得到模型使用样本进行验证,选择分类得分最高的作为最终的样本类别。

二、代码实现

2.1 手写批量梯度下降

import numpy as np
from sklearn.metrics import mean_squared_error
import sklearn.datasets as dataset
from sklearn.model_selection import train_test_split

class Logistic_Regression:

    def __init__(self):
        '''
        初始化Logistic Regression模型
        '''
        self.coef_ = None
        self.interept_ = None
        self._theta = None

    def _sigmoid(self, t):
        '''
        sigmoid函数
        :param t:
        :return:
        '''
        return 1 / (1 + np.exp(-t))
    def fit(self, X_train, y_train, eta=0.01, n_iters=1e4, epsilon=0.0001):
        '''
        梯度下降
        :param X_train:
        :param y_train:
        :param eta:
        :param n_iters:
        :return:
        '''
        assert X_train.shape[0] == y_train.shape[0], 'the size of X_train must equals the size of y_train'

        def J(theta, X_b, y):
            '''
            计算代价
            :param theta:
            :param X_b:
            :param y:
            :return:
            '''
            y_hat = self._sigmoid(X_b.dot(theta))
            try:
                return - np.sum(y * np.log(y_hat) + (1 - y) * np.log(1 - y_hat)) / len(y)
            except:
                return float('inf')
        def dJ(theta, X_b, y):
            '''
            计算梯度
            :param theta:
            :param X_b:
            :param y:
            :return:
            '''
            return X_b.T.dot(self._sigmoid(X_b.dot(theta)) - y) / len(X_b)

        def gradient_descent(X_b, y, theta_init, eta=eta, n_iters=n_iters, epsilon=epsilon):
            '''
            梯度下降
            :param X_b:
            :param y:
            :param theta_init:
            :param eta:
            :param n_iters:
            :param epsilon:
            :return:
            '''
            theta = theta_init
            cur_iters = 0

            while cur_iters < n_iters:
                gradient = dJ(theta, X_b, y)
                last_theta = theta
                theta = theta - gradient * eta
                if abs(J(theta, X_b, y) - J(last_theta, X_b, y)) < epsilon:
                    break
                cur_iters = cur_iters + 1

            return theta

        X_b = np.hstack([np.ones((len(X_train), 1)), X_train])
        theta_init = np.zeros(X_b.shape[1])
        self._theta = gradient_descent(X_b, y_train, theta_init, eta, n_iters, epsilon)
        self.interept_ = self._theta[0]
        self.coef_ = self._theta[1:]
        return self

    def predict_probability(self, X_test):
        '''
        预测概率函数
        :param X_test:
        :return:
        '''
        assert self.coef_ is not None, 'coef can not be None'
        assert X_test.shape[1] == len(self.coef_), 'the size of X_test must equals the size of coef'

        X_b = np.hstack([np.ones((len(X_test), 1)), X_test])
        return self._sigmoid(X_b.dot(self._theta))
    def predict(self, X_test):
        '''
        预测函数
        :param X_test:
        :return:
        '''
        assert self.coef_ is not None, 'coef can not be None'
        assert X_test.shape[1] == len(self.coef_), 'the size of X_test must equals the size of coef'

        prob = self.predict_probability(X_test)
        return np.array(prob >= 0.5, dtype='int')

    def mse(self, X_test, y_test):
        '''
        测试预测准确度
        :param X_test:
        :param y_test:
        :return:
        '''
        y_predict = self.predict(X_test)
        return mean_squared_error(y_predict, y_test)

data = dataset.load_iris()
X = data.data
y = data.target
X = X[y < 2, :2]
y = y[y<2]
X_train, X_test, y_train, y_test = train_test_split(X, y)
logistics = Logistic_Regression()
logistics.fit(X_train, y_train)
mse = logistics.mse(X_test, y_test)
print(mse)
print("the coef of 2 features:"f )

定义一个Logistic_Regression类,通过coef_和interept_记录特征的系数和回归曲线的截距。fit()函数封装了梯度下降相关的所有函数,包括代价函数J、求梯度的函数dJ以及梯度下降函数gradient_descent(),gradient_descent()函数的执行过程和总结线性回归时的批量梯度下降基本一样,不过是代价函数和求梯度的方式有所变化而已。之后可以调用predict()方法进行测试预测并使用mse函数求预测值与实际值之间的均方误差检验模型预测效果。

声明:此文章为本人学习笔记,课程来源于:
1、吴恩达机器学习课程
2、慕课网:python3入门机器学习经典算法与应用。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,711评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,932评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,770评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,799评论 1 271
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,697评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,069评论 1 276
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,535评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,200评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,353评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,290评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,331评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,020评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,610评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,694评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,927评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,330评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,904评论 2 341

推荐阅读更多精彩内容