240 发简信
IP属地:吉林
  • Resize,w 360,h 240
    Pytorch:十二的作业

    用LSTM来做下那个预测问题 LSTM要初始化的参数:input_size,hidden_size,num_layers,batch_first...

  • Resize,w 360,h 240
    Pytorch:十二、RNN(基础)

    实际上就是对线性层的复用? 卷积层运算复杂,但是权重不多(共享权重);而FC层则是反一下,如果同一层的个数太多,那么其权重的数量可能会多到难以处...

  • Pytorch:跑模型简单模板

    题外话 用MNIST数据集来进行模型学习的通用代码:

  • Resize,w 360,h 240
    Pytorch:十一、CNN(高级)

    实际的CNN结构可能要更为复杂,比如:分支,输出拿来再用等; 分支网络: other是指 如果还是跟之前一样,一个个的去实例化的话,那么这个Ne...

  • Resize,w 360,h 240
    Pytorch:十、卷积神经网络(基础)

    全连接网络:网络中所使用的全都是线性层,并且串行器来,就跟上一章的那个模型一样的样子: 线性层中输入\出层的任意两个节点之间都有权重,即所有输入...

  • Resize,w 360,h 240
    Pytorch:九、多分类问题

    经常使用softmax分类器 以Mnist数据集为例: 这里有10种数据类型,那么其对应输出该如何写? 我们希望y1-10之间具有竞争性:也就是...

  • Pytorch:八的作业

    拿神经网络写一下泰坦尼克 导入数据,用dataset&dataloader 注意,之前的各种数据预处理在这里直接调用pd.get_dummies...

  • Resize,w 360,h 240
    Pytorch:八、加载数据集

    Dataloader主要是拿出一些Mini-Batch来供训练时能够快速使用。使用batch可以提升计算速度,但是其求值的性能会有些问题。因此选...

  • Resize,w 360,h 240
    Pytorch:七、多维输入

    在面对多维输入时,σ函数的输入就变成了: 通常把那两个向量相乘记为z(i); Mini-Batch (N samples): pytorch的s...