很多论文都谈论了训练的公平性:
Focal loss 中就对数据集作出调整,以平衡。
机器学习里的公平性到底有没有意义?其实是有多方面意义的
从实际生活中看,虽然是服从大众的社会,但是仍然需要给小众自己的空间,不能忽略他们。下面这个论文就论述了这样的情况。
论文:Fairnes without demographics in Repeated loss minimization
机器学习的公平性:
公平性在很多论文中都有讨论,其具有很多现实意义,如现实中有很多少数族,而其决定了这个项目的上线,
disparity amplification 区别放大:
Empirical approximation minimization经验近似缩小会把原本公正的模型变得不公正,其会降低少数族的比重,因为在优化过程中是机会平等的,没有对少数族的照顾,使得少数族可能被忽视,
分布式鲁班优化 distributionally robust formulation of Duchi et al. (2016)
```
import tensorflow as tf
```