240 发简信
IP属地:香港
  • GoogLeNet(含并行连接的网络)

    GoogLeNet吸收了NiN中网络串联网络的思想,并在此基础上做了很大改进。在随后的几年里,研究人员对GoogLeNet进行了数次改进。 Inception 块 GoogL...

  • NIN(网络中的网络)

    LeNet、AlexNet和VGG在设计上的共同之处是:先以由卷积层构成的模块充分抽取空间特征,再以由全连接层构成的模块来输出分类结果。其中,AlexNet和VGG对LeNe...

  • VGG

    AlexNet在LeNet的基础上增加了3个卷积层。但AlexNet作者对它们的卷积窗口、输出通道数和构造顺序均做了大量的调整。虽然AlexNet指明了深度卷积神经网络可以取...

  • 120
    AlexNet

    一、多层神经网络中关于级数的解释 在多层神经网络中,图像的第一级的表示可以是在特定的位置和⻆度是否出现边缘; 而第二级的表示说不定能够将这些边缘组合出有趣的模式,如花纹; 在...

  • LeNet

    卷积层尝试解决这两个问题。 一方面,卷积层保留输入形状,使图像的像素在高和宽两个方向上的相关性均可能被有效识别; 另一方面,卷积层通过滑动窗口将同一卷积核与不同位置的输入重复...

  • 池化层

    为了缓解卷积层对位置的过度敏感性 最大池化和平均池化分别取池化窗口中输入元素的最大值和平均值作为输出。 池化层的一个主要作用是缓解卷积层对位置的过度敏感性。 可以指定池化层的...

  • 1X1卷积核

    1X1卷积核的作用: (1)对于channel维度的升维或者降维 例如128*128*64的图像,经过1*1*32的卷积核之后,变成了128*128*32的输出,在chann...

  • 120
    反向传播

    1、数值带入的方式介绍有一层隐藏层的三层全连接神经网络的推导 https://blog.csdn.net/weixin_38347387/article/details/82...

  • softmax_simple.ipynb

    { "cells": [ { "cell_type": "code", "execution_count": 8, "metadata": {}, "out...

  • softmax.ipynb

    { "cells": [ { "cell_type": "code", "execution_count": 15, "metadata": {}, "ou...

  • 动手学深度学习-pytoch版

    http://tangshusen.me/Dive-into-DL-PyTorch/#/ jupyter更换工作路径: https://blog.csdn.net/lwx35...

  • fashion-minist.ipynb

    { "cells": [ { "cell_type": "code", "execution_count": 21, "metadata": {}, "ou...

  • linear_regression_2.ipynb

    { "cells": [ { "cell_type": "code", "execution_count": 5, "metadata": {}, "out...

  • d2lzh_pytorch

    import torch from IPython import display from matplotlib import pyplot as plt import ra...

  • pytorch

    1、Sequential创建层 (1) 写法一 net = nn.Sequential( nn.Linear(num_inputs, 1) # 此处还可以传入其他...

  • Jupyter使用

    1、安装和使用Jupyter notebook https://www.zhihu.com/question/46309360/answer/254638807 2、note...

  • xshell sftp

    sftp:/tmp> help bye 关闭 SFTP 会话 cd 切换服务器端目录 clear 清屏 exit finish your SFTP session...

  • 120
    激活函数

    1、怎样选用激活函数 激活函数选用的两个考虑因素: (1) 饱和问题 如果激活函数的输入值落在饱和区间,梯度值就趋近于0,会发生梯度消失问题(sigmoid和tanh) (2...