本文不算是严格意义的读书笔记,只能算是读书摘抄。所有的内容来自于的[英]维克托·迈尔-舍恩伯格、肯尼斯·库克耶合著的《大数据时代》。
自从有了人类,就产生了数据。那何为大数据,它同我们原来一直接触并使用的数据有什么不同?仅仅就是“大”吗?作者在书中提出了,大数据区别于小数据的三个特征。
1.大数据即全数据,样本=总体
在大数据时代之前人们处理数据通常的做法是采取采样的方法。统计学家们证明,采样分析的精确性随着采样随机性的增加而大幅度提升但与样本数量增加的关系不大。据说,要预测美国大选,严格依据统计学抽样调查,样本数量只要5000多人就可以达到97%以上的准确性。从另外一个角度来说,抽样也是原来人类没有能力去收集全面而完整的数据并高效精确的进行分析,而采取的变通之举。
大数据时代,人类收集数据的手段、处理数据的能力,都实现了天翻地覆的进步。现在人类完全有能力不再采用随机分析法这样的捷径,而采用所有数据的方式。书中通过谷歌预测流感趋势、发现相扑比赛中非法操作结果等案例进行了阐释。
2.大数据允许不精确,更重混杂性
曾几何时,精确是我们对数据质量最基本、也是最重要的要求。在小数据时代,一个数据不准确,往往就会出现失之毫厘差之千里的现象。所以我们拼命的改进测量技术,制造更加精密的仪器,只为让小数点后面的位数越来越多,让结果不受外界因素的干扰。
大数据时代则不然,数据规模的的扩大是以精确性的降低为代价的。而且在大数据时代,高达95%的数据都是非结构化数据,如果我们还执着于精确性,这意味着我们要不要花难以承受的成本来清洗数据,要不就要舍弃掉这些数据。
非结构化数据带来的一个最明显的特征就是纷繁混杂,但是只要规模足够大、数据足够多,就越接近我们这个混沌的世界,最终的结果也更精确。书中举了谷歌翻译系统为例,其数据输入来源很混乱,会从各种各样语言的公司网站上寻找对译文档,还会去寻找联合国和欧盟这些国际组织发布的官方文件和报告的译本。但是,它的翻译质量确得到了保证。
3.大数据不重因果关系,而重相关关系
我曾写了一篇短文《买书时,可别再上当了》(请点击阅读),介绍的是亚马逊的图书推荐系统,里面说的其实是这个道理:知道是什么就够了,没必要知道为什么。
我们一直被教导的是,要知其然更要知其所以然。但作者认为这是小数据世界的思维方式,在大数据时代可吃不开了。作者认为,建立在相关关系分析法基础上的预测才是大数据的核心。
作者在大数据时代书中举了不少例子来作为佐证,如沃尔玛把蛋挞与飓风用品摆在一起,塔吉特如何预测客户怀孕等,还拉上了这几年很火的丹尼尔·卡尼曼的研究来增强说服力。但我个人认为这是书中说服力最不强的一个论点,因为那些案例人们也可以认为是存在因果关系。而整个论证过程有点类似于思辨的,并不是很严谨,不同的人还是有不同的看法的。
但无论如何作者的这个观点我还是认同的,大多数情况下,我们只要相关分析就够了,没有必要再花成本和时间去深究其因果性。本来这就是我们采用大数据的本意,是不是?