LightGBM 摘要 Gradient Boosting Decision Tree (GBDT)非常流行却鲜有实现,只有像XGBoost和p...
embedding:以较少的维度表示每个类别,并且还可以一定的表现出不同类别变量之间的关系 embedding的理解 4.1 word2vec:...
首先介绍三种类型的聚类方法: 原型聚类:假设聚类结构能够通过一组原型求解。通常算法先对原型进行初始化,然后进行迭代求解。不同的原型表示、不同的迭...
image-20200404101747244.pngimage-20200404101811276.png 对数几率回归的损失函数为:imag...
自信息简单来说,自信息表述的是随机变量的某个事件发生带来的信息量(一个事件)image-20200403221749825.png 信息熵信息熵...
多元函数的泰勒展开式image-20200403212859301.png 牛顿法牛顿法是梯度下降法的进一步发展,梯度利用目标函数的一阶偏导数信...
bagging: 对训练样本进行自助采样,产生若干个不同的子集,再从每个数据子集中训练出一个基学习器,再将这些基学习器进行结合。 Bagging...
XGBoost 摘要 提升树是一种非常高效和广泛应用的机器学习算法。在这篇文章中,我们描述了一个名为XGBoost的可扩展的端到端的提升树模型,...
在CTR比赛中,我们常常会使用“第几次交互”、“倒数第几次交互”等特征,这就需要使用到排序功能。rank函数极为方便。 rank函数返回从小到大...