16 年美国大选,是美国民调第二次预测失败。之前的失败在于抽样有偏。按道理这次应该不会犯同样错误,可为什么偏离结果那么大呢?
一种解释是支持特朗普选民,不愿意发表真实想法,否则被支持希拉里的陌生人打压 ,导致被试造假。
那用行为数据作为抽样呢?比如利用 twitter 提及两位候选人名字和情感词语作为特征,毕竟在 twitter 发表意见,顶多被人骂,一般没太大人身安全问题。作出准确预测的 AI ,的确预测特朗普胜选高达 90% ,其他准确预测 AI 胜率也差不多。但预测失败的 AI , 同样认为希拉里当选高达 90% ,比如微软、Facebook。
事实上,以上预测的概率与定义有很大问题。美国当选是指优先拿下多少个州,而非实际意义公投,特朗普从这一点上的确是大赢。但如果按照全民投票来算,希拉里微胜于特朗普,就是接近 50:50,这一点目前没任何民调和专业机构预测的值没有一个是这样。
美国民调已经不会只抽样一次,而是每月做一次统计,尤其在后面三轮总统辩论。以之前成功两次预测奥巴马当选 538 分析机构为例:
如图所示,橙色线属于 538 预测希拉里当选胜率,会发现结果波动性十分大,这也是为什么调研机构、预测 AI 分歧大的原因之一。
实际上在观察窗口,二选一数据预测概率波动性越高,最后预测的结果越接近 50:50,正如图中蓝线(Rigorous updating),只有到最后一刻才能说出到底哪个获胜。
换到调研与数据分析场景,如果监测的指标属于二项分布(比如判断用户是否忠诚),观察窗口波动性过大,用它作为决策就不那么合适了。