240 发简信
IP属地:山东
  • 理解Tensorflow的shape

    Tensorflow中的shape应该怎么理解,怎么记住呢? 以上面这段代码为例为例。首先,单看[1,2,3],这是1维的,但它作为shape时...

  • 反思tensorflow实现RNN中遇到的问题

    在写placeholder时,shape参数一定要和喂给的数据shape一致,这是毋庸置疑的。x = tf.placeholder(tf.flo...

  • 开始学习RNN

    首先从阅读论文开始。 先后阅读了如下文章 关于《A Critical Review of Recurrent Neural Networks f...

  • Resize,w 360,h 240
    迁移学习的延伸思考

    迁移学习是将一个已经训练好的多层神经网络的后几层拿掉,替换成另一个任务的输出层。已训练完的神经网络提供前面几层的权重,继承给新神经网络。在喂入新...

  • Resize,w 360,h 240
    loss下降之路 —— 小批量梯度下降法

    y值开始浮动了,那么loss现在是什么情况呢? 单输出loss,似乎看不出来。 在tensorboard中观察一下 看来基本面是向好的,权重开始...

  • Resize,w 360,h 240
    梯度不下降怎么办?欠拟合的解决方案

    在网络上查阅很多拟合曲线的示例后发现,绝大部分都在用平方差(tf.square)作为曲线拟合的loss,从这点深入搜索后发现,平方差(tf.sq...

  • tensorflow获取训练过程中变量的值

    训练时,想要获取过程中的值,网络上能查到以下几种方式: #第一种sess.run(train, feed_dict=feed_dict)prin...

  • 初始版本代码(伪)

    从最初的简单实现,到后面一步步的整合代码块,终于达到了可读、便于调试的程度。代码虽然清晰了,但是问题依然存在。目前主要的问题便是权重学习不到东西...