240 发简信
IP属地:安徽
  • 深度学习-前向传播与反向传播2

    不同损失函数与激活函数所带来的训练的不同 ,,,导数 对比前两列,最大的不同在,使用交叉熵的模型少乘了一个,而往往是很小的(只在0附近比较大),...

  • Resize,w 360,h 240
    深度学习-RNN-循环神经网络

    1,结构 输入层,它通过一组连接权重接入状态层。变成 隐藏层,它就厉害了。他有两个输入,一是输入层,二是上一个自己。再通过激活函数变成所以,RN...

  • 深度学习-激活函数与优化器

    1,激活函数 具体激活函数参见此篇https://www.jiqizhixin.com/articles/2017-10-10-3 激活函数从图...

  • Resize,w 360,h 240
    NLP-Word Embedding-Attention机制

    attention机制是个坑。要明白attention机制,首先要明白seq2seq要明白seq2sql,首先要明白RNN要明白RNN,首先要明...

  • Resize,w 360,h 240
    深度学习-前向传播与反向传播

    概述 对于全连接的神经网络(MLP),其结构看似复杂, 其实只是简单结构的不断重复。这里的简单结构就是sigmoid函数即LR:对于 有 和 ...

  • Resize,w 360,h 240
    推荐系统-重排序-CTR-DCN-CIN-xDeepFM

    一个总结https://www.cnblogs.com/xianbin7/p/10661572.html 特征交叉的 元素级bit-wise V...

  • Resize,w 360,h 240
    推荐系统-重排序-CTR-DeepFM等DNN模型

    概述 关键词:特征组合LR:缺乏特征组合能力,需人工做特征工程GBDT+LR:特种组合能力不强,对高维的稀疏特征应对乏力FM:具有较强的二阶特征...

  • Resize,w 360,h 240
    推荐系统-重排序-CTR-Wide&Deep模型

    模型 上图讲得十分清楚:第一层(最下层)黄点和灰点,表示稀疏离散特征。第二层表示对稀疏离散特征embedding后的稠密特征向量。第三层就是深度...

  • Resize,w 360,h 240
    推荐系统-重排序-CTR-GBDT+LR

    概述 GBDT的加入,是为了弥补LR难以实现特征组合的缺点。 LR LR作为一个线性模型,以概率形式输出结果,在工业上得到了十分广泛的应用。其具...