240 发简信
IP属地:江西
  • 什么是BERT?

    作者: Jeffery 链接:https://zhuanlan.zhihu.com/p/98855346 来源:知乎 著作权归作者所有。商业转载...

  • Resize,w 360,h 240
    《Augmented CycleGAN: Learning Many-to-Many Mappings from Unpaired Data》读后感

    介绍 经典的CycleGAN的主要缺陷是只能在领域之间学习一对一的mapping,也就是每一种输入都只会有单种的输出图像。而本文作者相信域之间的...

  • 联合信息熵和条件信息熵

    下面这几个熵都是描述联合分布中的两个变量相互影响的关系。 联合信息熵 联合信息熵的定义如下: 条件信息熵 条件信息熵的定义如下: 用图像形象化地...

  • Resize,w 360,h 240
    Unsupervised Visual Representation Learning by Context Prediction读后感

    这篇文章的思想是利用self-supervise的思想去运用一些互联网规模的数据集(人工的annotation很难获得),无监督地为图片生成特征...

  • 白化

    白化:相关性低,方差相同。 PCA:去均值,去相关性。 PCA白化:去均值,去相关性,方差相同为1。 ZCA白化:pca白化后,把它又变换到原来...

  • Resize,w 360,h 240
    读后感:Image Style Transfer Using Convolutional Neural Networks

    该文章是研究一个比较有意思的Issue,就是风格迁移问题。风格迁移可以定义为纹路(Texture)迁移问题。之前大多数的工作是用non-para...

  • PCA与SVD分解的关系

    PCA: 目标是使 因为可对 E的每列是相应的非线性相关且相互正交的特征向量,为正交阵。我们令 因为这样P就成为了正交阵,有 则PCA是要对X的...

  • Resize,w 360,h 240
    读后感:Controlling Perceptual Factors in Neural Style Transfer

    本论文是对2016年的《Image Style Transfer Using Convolutional Neural Networks》进行的...

  • 机器学习中的交叉熵

    p和q是两个概率分布。其中xi是取值的可能,在机器学习中,xi为样本的某一个类别的可能,n为类标的数量。p(xi)为样本取值为xi的真实概率,q...