Task1 - 3

Task 1

线性回归

模型

线性回归用于回归预测,即预测一个连续的数值。
y=w_1*x_1+w_2*x_2+...+w_n*x_n+b
一个n元线性回归模型

其中 w_{1..n},b是要模型学习的值,w_{1..n}被称为权重,b称为偏置

矩阵形式:
n维列向量W,X;\\y = W^TX+b

数据集

分为训练集,验证集,测试集。

训练集(平时的作业):用于训练模型以学习真实参数的数据的集合。

验证集(模拟考):通常是从训练集中抽取一部分出来,不参与训练,用于验证训练效果并调整训练超参数的集合。

测试集(高考,考研):以其误差近似模型泛化误差,测试模型的泛化能力。

损失函数

衡量模型参数与真实参数的差距的函数,损失函数越小说明模型参数的分布越逼近真实的参数分布。所以模型学习的目标即为最小化损失函数。

对于线性回归,由于目标是预测一个连续的数值,因此选择平均平方误差和损失函数-均方差损失函数(Mean Square Error-MSE)。
Loss_{MSE}=\frac{1}{2n}\sum_{k=1}^{n}(\hat{y}-y)^2
其中常数\frac{1}{2}使对平方项求导后的常数系数为1,这样在形式上稍微简单一些。

为什么要用它作为损失函数?:

在回归问题中,x的测量值 t会存在一定的误差。

假定对所有的数据点 x,模型预测值y(x,w) 与目标值 t之间的误差是一样的,并服从一定的概率分布,比如均值为0,方差为\beta^{-1}=\sigma^2的高斯分布,则有:

[图片上传失败...(image-16013e-1581687516972)]

即:

[图片上传失败...(image-30e8c9-1581687516972)]

image

对于一组独立同分布的数据点 [图片上传失败...(image-3941f3-1581687516972)] ,以及这些数据对应的目标值 [图片上传失败...(image-4d30cd-1581687516972)] ,我们得到关于这组数据的似然函数:

[图片上传失败...(image-bed5e9-1581687516972)]

其中,高斯分布的概率函数为:

[图片上传失败...(image-ab5ed8-1581687516972)]

可以通过极大化这个似然函数得到关于 w的一组极大似然解。

不过,更方便的做法是极大对数似然函数,因为对数函数是严格单增的,所以极大对数似然的解与极大似然的解是相同的。

对数似然函数为:

[图片上传失败...(image-4a09ba-1581687516972)]

如果我们不考虑 \beta 的影响,那么,对于参数 w来说,最小化平方误差和的解,就等于极大对数似然的估计。

因此,最小化平方误差和 E(w) 与极大似然等价,考虑到似然函数的定义,优化 E(w)相当于在给定高斯误差的假设下,寻找一组 w 使得观察到目标值w的概率最大。

作者:李金ECHO
链接:https://zhuanlan.zhihu.com/p/33568166
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

优化函数-随机梯度下降

用以搜索改进模型参数使得目标(损失函数)最小化的方法。
\theta{new} = \theta{old}-\alpha*\nabla_{\theta}Loss

在每次迭代中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量(mini-batch)\mathcal{B},然后求小批量中数据样本的平均损失有关模型参数的导数(梯度),最后用此结果与预先设定的一个正数的乘积作为模型参数在本次迭代的减小量。
w_1\leftarrow w_1-\frac{\eta}{|B|}\sum_{i\in B}\frac{\partial Loss}{\partial w_1}= w_1-\frac{\eta}{|B|}\sum_{i\in B}x^{(i)}_1(w_1*x^{(i)}_1+w_1*x^{(i)}+b-y^{(i)}_1)
在上式中,\mathcal{B} 代表每个小批量中的样本个数(批量大小,batch size), \eta称作学习率(learning rate)并取正数。

关键如何求出在于损失函数对于所有待学习参数的梯度 -》矩阵求导+反向传播

矩阵求导术(上) - 长躯鬼侠的文章 - 知乎 https://zhuanlan.zhihu.com/p/24709748

矩阵求导术(下) - 长躯鬼侠的文章 - 知乎 https://zhuanlan.zhihu.com/p/24863977

Matrix Cookbook-MIT

其他的一些基于梯度的神经网络优化算法:

  1. SGD+动量(Momentum)
  2. Nesterov梯度加速法
  3. Adagrad
  4. AdaDelta
  5. Adam

一文看懂各种神经网络优化算法:从梯度下降到Adam方法 - 量子学园的文章 - 知乎 https://zhuanlan.zhihu.com/p/27449596

矢量计算

在python中,通常使用经过优化的科学计算库如numpy,pytorch等,进行矢量计算比循环快非常多(几十到上百倍)

而且并行化的矢量计算更适于GPU的运算。

pytorch实现以及知识点

import torch
import torch.nn as nn
import torch.utils.data as data
import numpy as np

# 确定真实权重(,偏置)
true_w = [3.5,-1.6]
true_b = 6.6

# 生成若干样本,并在y上加上服从正态分布的误差
X = np.random.rand(10,2)*3
Y = np.dot(X,true_w)
Y+=np.random.normal(0,0.01,10)
X = torch.Tensor(X)
Y = torch.Tensor(Y)

#模型结构
class LinearNet(nn.Module):
    def __init__(self):
        super(LinearNet,self).__init__()
        self.linear = nn.Linear(2,1)
    def forward(self,x):
        return self.linear(x)
net = LinearNet()

#数据生成器
dataset = data.DataLoader(data.TensorDataset(X,Y),batch_size=2,num_workers=1)
import torch.optim as optim
#声明优化器
optimizer = optim.SGD(net.parameters(), lr=0.03)

epoch = 20
cri = nn.MSELoss()
for i in range(epoch):
    for x,y in dataset:
        #模型预测结果
        out = net(x)
        #计算损失
        l = cri(out,y.view(-1,1))
        #重置优化器梯度
        optimizer.zero_grad()
        #反向传播
        l.backward()
        # 一步优化
        optimizer.step()
    print('epoch %d, loss: %f' % (i+1, l.item()))

Softmax与分类模型

softmax

y_i=\frac{exp(x_i)}{\sum_{k=1}^{n}exp(x_k)}

作用:

  1. 将向量的各分量压缩到0-1的范围-概率形式

  2. 通过指数函数将最大的分量放大,从而扩大最大的分量与其他分量的差距,同时能保留部分分量(所谓的soft)。

  3. 与交叉熵损失函数结合,梯度形式简洁

    当我们对分类的Loss进行改进的时候,我们要通过梯度下降,每次优化一个step大小的梯度

    我们定义选到yi的概率是

    [图片上传失败...(image-b9208c-1581687516972)]

    然后我们求Loss对每个权重矩阵的偏导,应用链式法则(中间推导省略)

    [图片上传失败...(image-fbee6c-1581687516972)]

    最后结果的形式非常的简单,只要将算出来的概率的向量对应的真正结果的那一维减1,就可以了

    作者:杨思达zzzz
    链接:https://www.zhihu.com/question/23765351/answer/139826397
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

交叉熵损失函数

衡量数据之间分布差距 -》目标:最小化模型预测分类概率分布与真实分类概率分布的差距

两种理解方式:

  1. KL散度

    为了让学到的模型分布更贴近真实数据分布,我们最小化 模型数据分布 与 训练数据之间的KL散度,而因为训练数据的分布是固定的,因此最小化KL散度等价于最小化交叉熵。

    为什么交叉熵(cross-entropy)可以用于计算代价? - 微调的回答 - 知乎 https://www.zhihu.com/question/65288314/answer/244557337

  2. 分类模型最大化似然函数

    给定一个包含N个数据样本的训练集 [图片上传失败...(image-b1664f-1581687516972)] ,以及这些数据对应的类别 [图片上传失败...(image-f69f45-1581687516972)] ,这里, [图片上传失败...(image-8a411b-1581687516972)] ,分类问题的目标是利用这组训练集,寻找一个合适的模型,来预测一个新的数据点 x对应的类别 \hat{t} 。现在假设模型的参数为 w,模型输出是属于每一类的概率,预测为第 [图片上传失败...(image-dc0399-1581687516972)] 类的概率为 [图片上传失败...(image-22d8e2-1581687516972)] 。

    对于样本x,其属于第t 类的概率为:

    [图片上传失败...(image-648599-1581687516972)]

    因此,似然函数为:

    [图片上传失败...(image-8ed587-1581687516972)]

    对数似然为:

    [图片上传失败...(image-c0d8b2-1581687516972)]

    极大化对数似然,相当于极小化:

    [图片上传失败...(image-5fcfe-1581687516972)]

    事实上,这正是我们常使用的多类交叉熵损失函数的表示形式。

    因此,在分类问题中,最小化交叉熵损失函数相当与极大样本的似然函数。

    https://zhuanlan.zhihu.com/p/33568166

单层Softmax分类器实现图像分类

import torch
import torchvision
import torchvision.transforms as transforms
import torch.nn as nn

#下载FashionMNIST数据集
mnist_train = torchvision.datasets.FashionMNIST(root='./Datasets/FashionMNIST', train=True, download=True, transform=transforms.ToTensor())
mnist_test = torchvision.datasets.FashionMNIST(root='./Datasets/FashionMNIST', train=False, download=True, transform=transforms.ToTensor())

# 读取数据
batch_size = 256
num_workers = 4
train_iter = torch.utils.data.DataLoader(mnist_train, batch_size=batch_size, shuffle=True, num_workers=num_workers)
test_iter = torch.utils.data.DataLoader(mnist_test, batch_size=batch_size, shuffle=False, num_workers=num_workers)

num_inputs = 784
num_outputs = 10
class classifier(nn.Module):
    def __init__(self):
        super(classifier,self).__init__()
        self.linear = nn.Linear(num_inputs,num_outputs)
        self.sm = nn.Softmax(1)
    def forward(self,x):
        x = self.linear(x.view(-1,num_inputs))
        return self.sm(x)
    
net = classifier()
nn.init.normal_(net.linear.weight, mean=0, std=0.1)
nn.init.constant_(net.linear.bias, val=0)

loss = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(net.parameters(), lr=0.1)

epoch = 5
for i in range(epoch):
    train_l_sum, train_acc_sum, train_num = 0.0, 0.0, 0
    for x,y in train_iter:
        out = net(x)
        l = loss(out,y).sum()
        optimizer.zero_grad()
        l.backward()
        optimizer.step()
        
        train_l_sum += l.item()
        train_acc_sum += (out.argmax(dim=1) == y).sum().item()
        train_num += y.shape[0]
    test_acc_sum,test_num = 0,0
    for x,y in test_iter:
        out = net(x)
        test_acc_sum += (out.argmax(dim=1) == y).sum().item()
        test_num += y.shape[0]
    print('epoch %d, loss %.4f, train acc %.3f, test acc %.3f'
              % (i + 1, train_l_sum / train_num, train_acc_sum / train_num, test_acc_sum/test_num))

多层感知机

隐藏层

多层隐藏层可以理解为对数据进行不同层次抽象特征的提取

通用近似定理 (Universal approximation theorem):如果一个前馈神经网络具有线性输出层和至少一层隐藏层,只要给予网络足够数量的神经元,便可以实现以足够高精度来逼近任意一个在 ℝn 的紧子集 (Compact subset) 上的连续函数。

激活函数

仿射变换:H=WX+B

在不增加非线性的激活函数时,多层感知机仍等价于单层仿射变换。

常见激活函数

sigmoid

  • 映射到0-1
  • 存在梯度消失
  • 计算exp消耗较大

tanh

  • 存在梯度消失
  • 关于原点对称

ReLU

  • 运算速度快
  • 缓解梯度消失
  • 存在神经元死亡现象

LeakyReLU

  • 解决神经元死亡问题

PReLU

  • 解决神经元死亡问题

Maxout

  • 对ReLU和LeakyReLU的一般化归纳
  • 解决神经元死亡问题
  • 参数数量较多

多层感知机图像分类

将Softmax分类器的结构改为:

num_inputs = 784
num_hidden = 100
num_outputs = 10
class classifier(nn.Module):
    def __init__(self):
        super(classifier,self).__init__()
        self.linear1 = nn.Linear(num_inputs,num_hidden)
        self.relu = nn.ReLU()
        self.linear2 = nn.Linear(num_hidden,num_outputs)
        self.sm = nn.Softmax(1)
    def forward(self,x):
        x = self.linear1(x.view(-1,num_inputs))
        x = self.linear2(self.relu(x))
        return self.sm(x)
    
net = classifier()
nn.init.normal_(net.linear1.weight, mean=0, std=0.1)
nn.init.constant_(net.linear1.bias, val=0)
nn.init.normal_(net.linear2.weight, mean=0, std=0.1)
nn.init.constant_(net.linear2.bias, val=0)

Task 2

文本预处理

读入文本

分词

汉语NLP库:

HanLP

中文分词 词性标注 命名实体识别 依存句法分析 语义依存分析 新词发现 关键词短语提取 自动摘要 文本分类聚类 拼音简繁转换 自然语言处理

https://github.com/hankcs/HanLP

jieba

结巴中文分词

https://github.com/fxsjy/jieba

综合

awesome-chinese-nlp 中文自然语言处理相关资料

https://github.com/crownpku/Awesome-Chinese-NLP

其他语言NLP库:

综合

awesome-nlp - A curated list of resources dedicated to Natural Language Processing (NLP)

https://github.com/keon/awesome-nlp

NLTK

http://nltk.org/

建立字典

考虑词频阈值,是否使用特殊token

  • '<pad>' - padding, 填充句子使得句子等长
  • '<bos>' - beginning of sentence,句子开头标记
  • '<eos>' - end of sentence, 句子结束标记
  • '<unk>' - unknown,不在词库中的词的标记

词序列转换为索引序列

语言模型

基于n元语法的语言模型

  • 语言模型 - 用于计算一个句子是人讲的概率的模型(通顺与否)

词语序列 S = w_1,w_2,..,w_n

则一个句子的概率表示为P(S)=P(w_1,w_2,..,w_n)=P(w_1)P(w_2|w_1)...P(w_n|w_1,w_2,..,w_{n-1})

  • 马尔科夫假设 - 任意一个词出现的概率之和它前面的几个词(上文)有关

一元模型:P(S)=P(w_1)P(w_2)...P(w_n)

二元模型:P(S)=P(w_1)P(w_2|w_1)...P(w_n|w_{n-1})

P(w_i)\approx \frac{num(w_i)}{|W|}

P(w_{i+1}|w_{i})\approx \frac{num(w_i,w_{i+1})}{num(w_i}

时序数据的采样

随机采样

每个样本是原始序列上任意截取的一段序列,相邻的两个随机小批量在原始序列上的位置不一定相毗

X:  tensor([[ 6,  7,  8,  9, 10, 11],
        [12, 13, 14, 15, 16, 17]]) 
Y: tensor([[ 7,  8,  9, 10, 11, 12],
        [13, 14, 15, 16, 17, 18]]) 

X:  tensor([[ 0,  1,  2,  3,  4,  5],
        [18, 19, 20, 21, 22, 23]]) 
Y: tensor([[ 1,  2,  3,  4,  5,  6],
        [19, 20, 21, 22, 23, 24]]) 

相邻采样

在相邻采样中,相邻的两个随机小批量在原始序列上的位置相毗邻。

X:  tensor([[ 0,  1,  2,  3,  4,  5],
        [15, 16, 17, 18, 19, 20]]) 
Y: tensor([[ 1,  2,  3,  4,  5,  6],
        [16, 17, 18, 19, 20, 21]]) 

X:  tensor([[ 6,  7,  8,  9, 10, 11],
        [21, 22, 23, 24, 25, 26]]) 
Y: tensor([[ 7,  8,  9, 10, 11, 12],
        [22, 23, 24, 25, 26, 27]]) 

循环神经网络

[图片上传失败...(image-f8e810-1581687516972)]

在时间步t,隐藏状态:
H_t=\phi(X_tW_{xh}+H_{t-1}W_{hh}+b_h)
输出为:(没有激活函数)
O_t=H_tW_{hq}+b_q
隐藏状态H_t可视为保存了在该时间步前的历史信息

Task 3

过拟合、欠拟合及其解决方案

  • 训练误差 - 模型在训练集上表现得误差
  • 泛化误差 - 模型在任意非训练集样本数表现得误差的(期望)

欠拟合

模型的训练误差和泛化误差都较高,即模型不能很好地从训练样本中学习

解决方法:

增加输入特征

减少正则化参数

增加模型复杂度

过拟合

模型的训练误差远低于泛化误差,即模型学习到的特征不能很好地从训练集泛化到测试集,而是只属于训练集的特征

解决办法:

增加训练样本

采用正则化方法

dropout-丢弃法

Batch Normalization

梯度消失与梯度爆炸

梯度消失与梯度爆炸的根本原因都是由于梯度更新的反向传播方法,在神经网络层数过深时,对于离输出层越远的层,如果输出层的梯度大于1,其梯度会呈指数形式增加;如果小于1,其梯度会呈指数形式递减。

梯度消失一般出现于深层网络,或使用了不合适的激活函数

梯度爆炸一般出现于深层网络,或权值初始化太大

解决方法:

  1. - 预训练加微调
  2. - 梯度剪切、权重正则(衰减)(针对梯度爆炸)
  3. - 使用不同的激活函数
  4. - 使用batchnorm
  5. - 使用残差结构
  6. - 使用LSTM网络

详解深度学习中的梯度消失、爆炸原因及其解决方法 - DoubleV的文章 - 知乎 https://zhuanlan.zhihu.com/p/33006526

循环神经网络进阶

GRU - Gate Recurrent Unit

[图片上传失败...(image-f03716-1581687516972)]

[图片上传失败...(image-e0154-1581687516972)]

R_t Reset door 重置门

Z_t Update door 更新门

\tilde{h_t} 候选隐藏状态门

原文中隐藏状态与输入的连结方式是 Concatenate,此处公式等价

1-Z_t在更新门中或在候选状态中等价
R_t = \sigma(X_tW_{xr}+H_{t-1}W_{hr}+b_r)\\Z_t = \sigma(X_tW_{xz}+H_{t-1}W_{hz}+b_z)\\\tilde{h_t} = tanh(X_tW_{xh}+(R_t\odot H_{t-1})W_{hh}+b_h)\\H_t = Z_t \odot H_{t-1}+(1-Z_t)\odot\tilde{h_t}

LSTM - Long Short Term Memory

img

[图片上传失败...(image-c908d6-1581687516972)]
F_t = \sigma(X_tW_{xf}+H_{t-1}W_{hf}+b_f)\\I_t = \sigma(X_tW_{xi}+H_{t-1}W_{hi}+b_i)\\O_t = \sigma(X_tW_{xo}+H_{t-1}W_{ho}+b_o)\\\tilde{C_t} = tanh(X_tW_{xc}+H_{t-1}W_{hc}+b_i)\odot I_t\\C_t = C_{t-1}\odot F_t+\tilde{C_t}\\H_t=O_t\odot tanh(C_t)

人人都能看懂的LSTM介绍及反向传播算法推导(非常详细) - 陈楠的文章 - 知乎 https://zhuanlan.zhihu.com/p/83496936

LSTM细节分析理解(pytorch版) - ymmy的文章 - 知乎 https://zhuanlan.zhihu.com/p/79064602

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,445评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,889评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,047评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,760评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,745评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,638评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,011评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,669评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,923评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,655评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,740评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,406评论 4 320
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,995评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,961评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,023评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,483评论 2 342

推荐阅读更多精彩内容