Keras Functional API

之前介绍过使用keras进行二分类,多分类。使用的是keras框架中的贯序模型。

model <- keras_model_sequential()

# define and compile the model
model %>% 
  layer_dense(units = 64, activation = 'relu', input_shape = c(20)) %>% 
  layer_dropout(rate = 0.5) %>% 
  layer_dense(units = 64, activation = 'relu') %>% 
  layer_dropout(rate = 0.5) %>% 
  layer_dense(units = 1, activation = 'sigmoid') %>% 
  compile(
    loss = 'binary_crossentropy',
    optimizer = 'rmsprop',
    metrics = c('accuracy')
  )

# train 
model %>% fit(x_train, y_train, epochs = 20, batch_size = 128)

# evaluate
score = model %>% evaluate(x_test, y_test, batch_size=128)

用的是这个模型

model <- keras_model_sequential()

这样建立的深度学习模型就是一层一层的网络结构。

但是深度网络结构可以是多输入和多输出的,这样就不能使用贯序模型模型进行定义网络结构,这个时候就需要keras框架里面一种更加灵活的定义方式。
下面介绍一个简单的例子:
首先你需要定义一个输入:

inputs <- layer_input(shape = c(100))

其次,定义输出:

prediction <- inputs%>%layer_dense(units = 30,
                                   activation = "relu",
                                   input_shape = 100) %>%
  layer_dropout(rate = 0.4) %>% layer_dense(units = 30, activation = "relu") %>%
  layer_dropout(rate = 0.4) %>% layer_dense(units = 1, activation = "sigmoid")

创建以及编译模型

x_train <-
  matrix(runif(100000, min = 0, max = 2), nrow = 1000, ncol = 100)
y_train <- matrix(sample(
  x = 0:1,
  size = 1000,
  replace = T
))

x_test <-
  matrix(runif(100000, min = 0, max = 2), nrow = 1000, ncol = 100)
y_test <- matrix(sample(
  x = 0:1,
  size = 1000,
  replace = T
))
# 以上是数据
# 创建模型
model <- keras_model(inputs = inputs,outputs = prediction)
# 编译模型
model %>% compile(
  loss = 'binary_crossentropy',
  optimizer = 'rmsprop',
  metrics = c('accuracy')
)
# 训练模型
model%>%fit(x_train,y_train,BATCH_SIZE=80,epochs = 40)

image.png

评估模型

model %>% evaluate(x_test,y_test)
1000/1000 [==============================] - 1s 531us/step
$loss
[1] 0.7711746

$acc
[1] 0.473

与之对应的贯序模型的定义方式如下:

x_train <-
  matrix(runif(100000, min = 0, max = 2), nrow = 1000, ncol = 100)
y_train <- matrix(sample(
  x = 0:1,
  size = 1000,
  replace = T
))

x_test <-
  matrix(runif(100000, min = 0, max = 2), nrow = 1000, ncol = 100)
y_test <- matrix(sample(
  x = 0:1,
  size = 1000,
  replace = T
))

model <- keras_model_sequential()

model %>% layer_dense(units = 30,
                      activation = "relu",
                      input_shape = 100) %>%
  layer_dropout(rate = 0.4) %>% layer_dense(units = 30, activation = "relu") %>%
  layer_dropout(rate = 0.4) %>% layer_dense(units = 1, activation = "sigmoid")

model %>% compile(
  loss = 'binary_crossentropy',
  optimizer = 'rmsprop',
  metrics = c('accuracy')
)


model %>% fit(x_train,y_train,epochs = 30,batch_size = 70,validation_split =0.2)

model %>% evaluate(x_test,y_test)

看见差别了没

接下来要干的事,是贯序模型做不了了,我们要训练这样一个模型,模型结构如下图:


image.png

其有两部分输入构成,又对应着两部分输出。

  1. 定义住输入:
library(keras)

main_input <- layer_input(shape = c(100), dtype = 'int32', name = 'main_input')

lstm_out <- main_input %>% 
  layer_embedding(input_dim = 10000, output_dim = 512, input_length = 100) %>% 
  layer_lstm(units = 32)
  1. 定义副输出:
auxiliary_output <- lstm_out %>% 
  layer_dense(units = 1, activation = 'sigmoid', name = 'aux_output')

3.定义副输入与主输出:

auxiliary_input <- layer_input(shape = c(5), name = 'aux_input')

main_output <- layer_concatenate(c(lstm_out, auxiliary_input)) %>%  
  layer_dense(units = 64, activation = 'relu') %>% 
  layer_dense(units = 64, activation = 'relu') %>% 
  layer_dense(units = 64, activation = 'relu') %>% 
  layer_dense(units = 1, activation = 'sigmoid', name = 'main_output')

需要注意的是输出层都定义了名字

  1. 定义模型
model <- keras_model(
  inputs = c(main_input, auxiliary_input), 
  outputs = c(main_output, auxiliary_output)
)

看一下模型结构:

 summary(model)
____________________________________________________________________________________________
Layer (type)                  Output Shape        Param #    Connected to                   
============================================================================================
main_input (InputLayer)       (None, 100)         0                                         
____________________________________________________________________________________________
embedding_2 (Embedding)       (None, 100, 512)    5120000    main_input[0][0]               
____________________________________________________________________________________________
lstm_4 (LSTM)                 (None, 32)          69760      embedding_2[0][0]              
____________________________________________________________________________________________
aux_input (InputLayer)        (None, 5)           0                                         
____________________________________________________________________________________________
concatenate_2 (Concatenate)   (None, 37)          0          lstm_4[0][0]                   
                                                             aux_input[0][0]                
____________________________________________________________________________________________
dense_137 (Dense)             (None, 64)          2432       concatenate_2[0][0]            
____________________________________________________________________________________________
dense_138 (Dense)             (None, 64)          4160       dense_137[0][0]                
____________________________________________________________________________________________
dense_139 (Dense)             (None, 64)          4160       dense_138[0][0]                
____________________________________________________________________________________________
main_output (Dense)           (None, 1)           65         dense_139[0][0]                
____________________________________________________________________________________________
aux_output (Dense)            (None, 1)           33         lstm_4[0][0]                   
============================================================================================
Total params: 5,200,610
Trainable params: 5,200,610
Non-trainable params: 0
_____________________________

5,200,610个参数

  1. 编译模型
model %>% compile(
  optimizer = 'rmsprop',
  loss = 'binary_crossentropy',
  loss_weights = c(1.0, 0.2)
)

6.训练模型

model %>% fit(
  x = list(headline_data, additional_data),
  y = list(labels, labels),
  epochs = 50,
  batch_size = 32
)

注意,我这里没有生成数据
也可以指定不同的损失函数:

model %>% fit(
  x = list(main_input = headline_data, aux_input = additional_data),
  y = list(main_output = labels, aux_output = labels),
  epochs = 50,
  batch_size = 32
)
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,607评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,047评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,496评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,405评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,400评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,479评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,883评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,535评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,743评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,544评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,612评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,309评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,881评论 3 306
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,891评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,136评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,783评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,316评论 2 342

推荐阅读更多精彩内容