正则化、dropout深层神经网络

-- coding: utf-8 --

"""
Created on Sun Sep 30 22:57:44 2018

@author: ltx
"""
采用正则化的方法和随机删除节点都有助于防止模型过拟合。

当数据集特别小,为了防止训练得出的模型过拟合,使用正则化方法

import numpy as np
import matplotlib.pyplot as plt
import reg_utils #正则化

train_x,train_y,test_x,test_y=reg_utils.load_2D_dataset(is_plot=True)
X=train_x
Y=train_y
m=X.shape[1]

--------------正则化模型(避免模型过度拟合)start----------------------

采用L2正则化方法,适当的修改成本函数,添加一个L2正则化成本

def compute_cost_reg(a3,Y,parameters,lambd):
W1 = parameters["W1"]
W2=parameters["W2"]
W3=parameters["W3"]
cost1=reg_utils.compute_cost(a3, Y)
cost2=(1/m)(np.sum(np.square(W1))+np.sum(np.square(W2))+np.sum(np.square(W3)))(lambd/2)
cost=cost1+cost2
return cost

def backward_propagation_reg(X, Y, cache,lambd):
(Z1, A1, W1, b1, Z2, A2, W2, b2, Z3, A3, W3, b3) = cache

dZ3=A3-Y
dW3=(1/m)*np.dot(dZ3,A2.T)+((lambd*W3)/m)
db3=(1/m)*np.sum(dZ3,keepdims=True,axis=1)

dA2=np.dot(W3.T,dZ3)
dZ2=np.multiply(dA2,np.int64(A2>0))
dW2=(1/m)*np.dot(dZ2,A1.T)+((lambd*W2)/m)
db2=(1/m)*np.sum(dZ2,keepdims=True,axis=1)

dA1=np.dot(W2.T,dZ2)
dZ1=np.multiply(dA1,np.int64(A1>0))
dW1=(1/m)*np.dot(dZ1,X.T)+((lambd*W1)/m)
db1=(1/m)*np.sum(dZ1,keepdims=True,axis=1)

grads={"dW1":dW1,
       "db1":db1,
       "dW2":dW2,
       "db2":db2,
       "dW3":dW3,
       "db3":db3
        }


return grads

--------------正则化模型(避免模型过度拟合)end----------------------

-------------采用随机删除节点来防止模型过拟合start--------------

def forward_DelNode(X,parameters,keep_prob):
W1=parameters["W1"]
b1=parameters["b1"]
W2=parameters["W2"]
b2=parameters["b2"]
W3=parameters["W3"]
b3=parameters["b3"]
np.random.seed(1)
Z1=np.dot(W1,X)+b1
A1=reg_utils.relu(Z1)
D1=np.random.rand(A1.shape[0],A1.shape[1])
D1=D1 < keep_prob
A1=A1 * D1
A1=A1 / keep_prob

Z2=np.dot(W2,A1)+b2
A2=reg_utils.relu(Z2)
D2=np.random.rand(A2.shape[0],A2.shape[1])
D2=D2 < keep_prob
A2=A2 * D2
A2=A2 / keep_prob

Z3=np.dot(W3,A2)+b3
A3=reg_utils.sigmoid(Z3)
cache = (Z1, D1, A1, W1, b1, Z2, D2, A2, W2, b2, Z3, A3, W3, b3)
return A3,cache

相应的向后传播模型也要随机删除节点(在未正则化的基础上采用随机节点)

def backDelNode(X,Y,cache,keep_prob):

(Z1, D1, A1, W1, b1, Z2, D2, A2, W2, b2, Z3, A3, W3, b3)=cache
dZ3=A3-Y
dW3=(1/m)*np.dot(dZ3,A2.T)
db3=(1/m)*np.sum(dZ3,keepdims=True,axis=1)

dA2=np.dot(W3.T,dZ3)
dA2=dA2*D2
dA2=dA2/keep_prob
dZ2=np.multiply(dA2,np.int64(A2>0))#为啥要根据A2的正负来消减dZ2的值,但最后对结果没有造成影响
dW2=(1/m)*np.dot(dZ2,A1.T)
db2=(1/m)*np.sum(dZ2,keepdims=True,axis=1)

dA1=np.dot(W2.T,dZ2)
dA1=dA1*D1
dA1=dA1/keep_prob
dZ1=np.multiply(dA1,np.int64(A1>0))
dW1=(1/m)*np.dot(dZ1,X.T)
db1=(1/m)*np.sum(dZ1,keepdims=True,axis=1)
grads={"dW1":dW1,
       "db1":db1,
       "dW2":dW2,
       "db2":db2,
       "dW3":dW3,
       "db3":db3
        }

return grads

-------------采用随机删除节点来防止模型过拟合end--------------

def model(X,Y,learning_rate=0.3,num_iterations=20000,print_cost=True,is_plot=True,lambd=0,keep_prob=1):
grads={}
costs=[]
layerdims=[X.shape[0],20,3,1]
parameters= reg_utils.initialize_parameters(layerdims)

for i in range (0,num_iterations):
    if(lambd==0 and keep_prob==1):
        a3, cache=reg_utils.forward_propagation(X,parameters)
        cost=reg_utils.compute_cost(a3,Y) 
    elif (lambd!=0):
        a3, cache=reg_utils.forward_propagation(X,parameters)
        cost=compute_cost_reg(a3,Y,parameters,lambd)
    elif(keep_prob!=1):
        a3, cache=forward_DelNode(X,parameters,keep_prob)
        cost=reg_utils.compute_cost(a3,Y) 
    if(i % 1000==0 and print_cost==True):
        costs.append(cost)
        print("Cost="+str(cost))
    if(lambd==0 and keep_prob==1):
        grads=reg_utils.backward_propagation(X, Y, cache)
    elif (lambd!=0):
        grads=backward_propagation_reg(X, Y, cache,lambd)
    elif(keep_prob!=1):
        grads=backDelNode(X,Y,cache,keep_prob)
    parameters=reg_utils.update_parameters(parameters, grads, learning_rate)
if(is_plot):
    plt.plot(costs)
    plt.xlabel('iterations (x1,000)')
    plt.ylabel('cost')
    plt.title("Learning rate =" + str(learning_rate))
    plt.show()
return parameters

parameters=model(X,Y,learning_rate=0.3,num_iterations=30000,print_cost=True,is_plot=True,lambd=0,keep_prob=0.86)
print("训练集精度:")
prediction=reg_utils.predict(X,Y,parameters)
print("测试集精度:")
prediction=reg_utils.predict(test_x,test_y,parameters)

-------------画出预测结果决策图---------------------------

plt.title("Model without regularization")
axes = plt.gca()
axes.set_xlim([-0.75,0.40])
axes.set_ylim([-0.75,0.65])
reg_utils.plot_decision_boundary(lambda x: reg_utils.predict_dec(parameters, x.T), train_x, train_y)
--------------------实验的结果--------------------------------------


正则化1.png
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,732评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,496评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,264评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,807评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,806评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,675评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,029评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,683评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,704评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,666评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,773评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,413评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,016评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,204评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,083评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,503评论 2 343

推荐阅读更多精彩内容