1、定义 熵:信息不确定性的量度,越随机的信源的熵越大。[https://zh.wikipedia.org/wiki/%E7%86%B5_(%E4%BF%A1%E6%81%A...
1、定义 熵:信息不确定性的量度,越随机的信源的熵越大。[https://zh.wikipedia.org/wiki/%E7%86%B5_(%E4%BF%A1%E6%81%A...
1、归纳偏置 (Inductive Bias)[https://blog.csdn.net/qq_39478403/article/details/121107057] 当学...
# 冒泡 # 复杂度n^2 def BubbleSort(array): length = len(array) for i in range(length): ...
1、进程和线程 进程(processing)是系统系统资源分配的基本单元; 线程(thread)是独立运行和调度的基本单元; 当一个程序开始运行,这个程序就变成了一个进程。 ...
1、ROI pooling fast-rcnn论文提出,常用于two stage的方法中,实质是将原始feature map中不同大小的proposal区域,通过切分和max...
1、常规卷积 理论上卷积步骤:卷积核翻转;加权求和。 深度学习中的卷积计算中卷积核并未翻转,本质上是相关操作,只是由于卷积核都是随机初始化,导致卷积和互相计算结果一样。 连续...
梯度下降是一种通用的优化算法,核心是目标函数梯度的方向更新参数以期望降低目标函数值 反向传播是梯度下降算法在深度学习中的具体实现方式 CNN的BP 【转自】深度学习---反向...
motivation 在CV领域已有的预训练方法大多属于有监督,数据要求高。MAE基于自监督,且有效降低计算量。 算法流程 1、输入图像patch切分 2、encoder结构...
motivation 现有的OCR识别主要基于encoder-decoder的架构,采用基于CNN的encoder进行图像特征理解;基于RNN的decoder完成文本生成,再...
两个二维矩阵相乘 A矩阵大小为M*N,B矩阵大小为N*L,A*B的代码如下: def multiply(A, B): C = np.zeros((M, L)) for...
可变参数 def func(*args, **kwargs): *arg:入参的个数和名称未知,“*”代表入参是元组,"*"的作用是把元组arg拆开,然后传递给func **...
1、motivation CNN的优势是平移不变、尺度不变、层次感受野; transformer应用到CV的优势全局的感受野(计算量很大),可实现平移不变,但无法做到尺度不变...
1、motivation 将transformer应用于目标检测,并改进当时目标检测范式 按照AI约读社[https://zhuanlan.zhihu.com/p/26572...
场景:目标检测中存在尺寸很小的目标,或同时存在大小差距很大的目标,小目标由于下采样/数量少丢失风险大 方案一:构造传统多尺度图像空间 在传统的图像处理,多尺度问题通常通过...
场景:目标图像获取困难,可用原始样本数量少 方案一、数据增强[https://zhuanlan.zhihu.com/p/120056051] 1.1 通过图像处理增强方式,如...
motivation transformer在NLP领域成为事实标准,但是在图像领域知识作为组件或CNN的附庸,必须一统江湖。 网络结构 图像 -》序列 -》transfor...
1、motivation anchor-base的目标检测存在弊端:anchor超参设置困难、anchor计算量和资源需求大、anchor都是基于场景的,难以迁移、ancho...
motivation 去掉anchor密集候选,降低资源消耗 方案 model an object as a single point — the center point ...
1、网络结构 backbone:ResNet50, ResNet101 neck: FPN P3-P5由ResNet得到,P6由P5经过stride=2的3*3卷积得到,P7...