240 发简信
IP属地:北京
  • var const let的区别

    var var 声明提升,就是把所有变量声明都拉到函数作用域的顶部,且反复多次使用var声明同一个变量也不会有问题,只是会覆盖上一个变量 var声明的变量,成为window对...

  • 240
    CRF模型

    CRF概念 随机场是由若干个位置组成的整体,当给每一个位置中按照某种分布随机赋予一个值之后,其全体就叫做随机场。 马尔科夫随机场是随机场的特例,它假设随机场中某一个位置的赋值...

  • 树算法

    信息增益的计算方法 https://blog.csdn.net/it_beecoder/article/details/79554388 决策树--信息增益,信息增益比,Ge...

  • 240
    FTRL在线最优化

    (一)RDA(Regularized Dual Averaging) 是微软的研究成果,它更有效地提升了特征权重的稀疏性。 算法原理--特征权重的更新策略为:---公式(1)...

  • 240
    XGBoost原理梳理

    Content Introduction Regularized Learning Objective - 正则化目标方程 Split Finding Algorithm -...

  • 240
    Adam优化器

    (1)SGD (2)mini-batch SGD 这种算法能够带来很好的训练速度,但是在到达最优点的时候并不能够总是真正到达最优点,而是在最优点附近徘徊; 另一个缺点就是这种...