一直以为KL散度是什么新奇玩意,但是其实还是旧瓶装新酒
机器学习中的熵、条件熵、相对熵(KL散度)和交叉熵_冉茂松的博客-CSDN博客
KL散度及Python实现_写代码的阿呆的博客-CSDN博客_kl散度代码
KL散度(Kullback-Leibler divergence,简称KLD):
在信息系统中称为相对熵(relative entropy)
在连续时间序列中称为随机性(randomness)
在统计模型推断中称为信息增益(information gain)。也称信息散度(information divergence)。