这两年大数据是个时髦词,很多企业、专家、学者都在喊,我们平头老百姓也道出一二三来。
海量数据意味着海量可供挖掘的金矿,尤其是这两年移动网络的迅猛发展,大数据给我们的生活带来了很多便利,比如滴滴打车、约饭,美团之类的。但我们在享受大数据便利的同时,也被一些别有用心的人用来获利。
例如:你连接了一个免费的WIFI,骇客通过端口就可以获取你手机的所有数据,通过带有时间序列的GPS数据可以分析你的行踪规律。通过网页的历史数据分析你的兴趣爱好,通过短信和手机相册获取更多隐私的信息,就这些简单的数据,人家可以做出一份专业详尽的人物档案,如果坏人要做恶的话,足够让你比落水狗更惨了。晕,发现扯的有点远,还是回到交易的正题来。
以前很多高手通过大量的K线图解读来寻找可能盈利的模式,并且总结了一些流传几十年且五花八门的K线组合,比如:长天射箭、金针探底、希望之星、头肩顶等等。我曾经看到一位高手的文章,他为了研究股票,曾经对K图进行分析,每张K线图写一篇分析的文章,大致分析了1000张图就是1000篇文章,技术小成,达到持续稳定盈利。
显然,交易市场90%的人根本达不到上面那个高手的努力程度,要持续稳定盈利显然很难。但是这个高手显然面对一些细节问题时,需要大量繁琐和重复的工作。比如:平台突破会有大概率涨,那到底哪些周期突破概率大呢?一个月?一季度?一年?三年?对于一些第六感强烈和盘感好的顶尖高手人来说,他脑子一动,就已经得出了与计算机大致相同的答案。
但是对于交易经验尚浅,且盘感一般的人来说,这些问题就变的很重要,因为直接关系到是否能赚到钱的问题。比如:我是盈利10%加仓呢,还是15%加仓,加仓多少才能使风险更少?我们脑子里有许许多多的念头,有些还精妙绝伦,因为得不到实践的可量化检验,导致很多好的想法白白丢掉。
对此,有一个笨的办法,那就是很刻苦很勤奋,我选100个股票作为样本验证我的想法,一个一个计算概率,然后进行汇总分析。但是这里存在一些比较严重的问题,由于一个人经历有限,他不可能选取更多样本,而且样本的时间跨度也不能太大,这样得出去的结论往往有失客观。
比如你用06年的数据和05的数据验证你的想法,可能得出完全相反的结论,如果再往前追到08年98年呢,结论就更加五花八门了,这样海量的数据显然不是人力所能承担的。
面对越来越多的数据和大量失效的模型,我们必须借助计算机超常的速度帮我们完成那些繁琐和重复的工作,我们只需有好想法,就可以快速和验证,并通过计算机优化相关策略。
虽然交易很方便,但是需要我们一些必备的知识,统计学、概率学、编程室核心。对于统计学和概率学本身不算太高深的学科。对于个人交易者来说,我们无非想实现的就是自动化交易和利用历史数据对交易系统进行评测和优化,显然不需要太复杂的编程技术。翻阅大量知乎问答,推荐最多的是Python,至少比很多人大学时学的C语言好上手多了。
如果有志于通过交易赚点小钱的话,不妨学学,毕竟在计算方面人脑还是大大落后于计算机的。