数据挖掘工程师的第十个月(7个场景应用)

Hadoop

上班以后,越发觉得日子过得快了。不知不觉,已经到了第十个月。成为一家互联网公司的数据挖掘工程师后,我从一些貌似枯燥琐碎的小任务中学到很多东西。下面简单地谈谈我在工作中get到的技能,以及我是怎么解决实际问题的。

一、shell命令

研究生的时候一直在Windows系统下进行软件开发,而工作后都是在Linux系统下操作。与Windows相比,Linux更加安全、稳定。刚进公司,我们人手一份shell命令和hadoop命令文档,以供查阅。单纯地背命令不但枯燥乏味,也容易忘记。因此,我们一般是在项目中需要用的时候再去查,现学现卖,这样印象更加深刻。

场景1:一个大项目包含很多文件夹,每个文件夹下又包含很多小文件。当我们需要重新编辑最近一段时间更新过的文件时,可以怎么做呢?

可选做法:使用Tab键的自动补全功能快速cd到指定目录,然后用“ll -t  |  head -n 20 ”列出最近变动的文件详细信息,从中找到需要的文件,加以修改。其中“ll”的作用是列出文件详细信息,“-t”表示按时间排序。小竖扛“|”表示管道,用途为将前一个命令的输出作为后一个命令的输入。这里,要注意不要将管道“|”和重定向“>”弄混。重定向“>”一般用于将命令的输出重定向到某个文件中,比如“ll -t  |  head > log”。head命令是显示输入流的前几行内容,参数“-n”可以指定行数。

补充:在工作中,我在一段时间内会反复修改某几个文件,但自己记性又不太好,总记不住文件名,所以常常使用这个命令。如果知道大致文件名,也可以使用“find . -type d -name filename”命令,其中filename用你需要查找的文件名替换。

场景2:我需要从其他机器上拷贝文件过来,怎么办?

可选做法:使用wget命令,例如“wget ftp://hostsite//home/work/username/userfile”。其中hostsite用源的主机地址替换,后面是需要拷贝的文件目录。

补充:理论上需要拷贝文件夹的时候,我们可以用命令“wget -r”来操作。实际上,我更喜欢将文件夹打包压缩后再使用wget命令。因为直接从其他机器上拉取文件夹,可能会丢失文件而不自知。另外,拷贝文件时最好带上相应的md5文件,以便check文件是否传输完整。生成md5文件的命令为“md5sum filename > filename.md5”。

场景3:公用机器上磁盘空间慢了,写不进去东西了,怎么办?

可选做法:首先找出谁的目录所占空间比较大,“du -h --max-depth=1 /home/work/”,可以提醒占用磁盘空间最多的几个人删一些文件。

补充:如果自己占用空间比较多,可以用同样的方法确定哪个目录比较占空间“du -h --max-depth=1 /home/work/username”。在一个目录下,可以使用“ls -l  | sort -n -k5  |  tail -n k”命令查看哪些文件比较大,其中最后一个k用你需要查看的具体文件数目替换。

二、hadoop命令

有些hadoop命令和shell命令很相似,有些是hadoop所独有的。

场景4:我想看一下集群上某个目录下的文件有哪些?

可选做法:使用命令“/home/work/hadoop_client/hadoop/bin/hadoop  fs -ls /dir1/dir2/dir3”,其中第一项是hadoop客户端的位置,可以有多个客户端,比如命令中的hadoop_client可以是hadoop_client1,hadoop_client2……最后一项是你想查看目录的位置,你所使用的hadoop客户端必须有对那个目录读的权限才能访问,否则会报权限相关的错误。

补充:如果有权限,A集群的hadoop客户端可以访问B集群的数据,但是必须加上B集群的主机名和端口名,比如“/home/work/hadoop_client/hadoop/bin/hadoop  fs -ls hdfs://host:port//dir1/dir2/dir3”。如果你嫌第一项太长了,可以通过“vim ~/.bashrc”为每一个hadoop客户端设置别名,比如“alias hadoopMine="/home/work/hadoop_client1/hadoop/bin/hadoop"”。以后,你想使用hadoop命令,就可以这样写,“hadoopMine fs -ls /dir1/dir2/dir3”。是不是简洁多了?

场景5:我想将文件夹从一个集群拷贝到另一个集群,怎么做呢?

可选做法:使用命令“hadoopMine distcp  hdfs://host:port//dir1/dir2/dir3 /dir4/dir5/dir6”,其中第三项是源集群的目录地址,第四项是目标集群的目录地址。

补充:distcp命令实际上是启的一个集群任务,即我们常说的job。一般来说,distcp默认的优先级和并发数目都不高。如果我们比较赶时间,想让任务快点执行,可以动态地修改map-capacity和priority两个参数,例如“hadoopMine job -set-map-capacity  JobID 5000”,“hadoopMine job -set-priority JobID  VERY_HIGH”。

三、map和reduce脚本

单纯地看书,听别人谈论,你会觉得大数据很高大上,写大数据分析脚本很难。其实,你只要拿一两个小项目练练手,了解启动集群任务时配置的几个常用参数,弄清map-reduce原理,一个月就可以自如地写大数据分析脚本。“纸上得来终觉浅,绝知此事要躬行。”

场景6:我想本地测一下map和reduce程序怎么办?

可选做法:先模拟map过程,“cat inputFile | python myMapper.py 1>map.out 2>map.err”@1,再模拟reduce过程“cat map.out | sort | python myReducer.py 1>reduce.out 2>reduce.err”@2。

补充:有些大任务可以划分为若干个小任务,每个小任务是python脚本,各个小任务间用shell脚本串起来。

举个实例:有一个能够处理1小时数据的现成python脚本,例如myMapper.py和myReducer.py,现在想在本地处理24小时的数据,怎么办?

你可以选择做重复性工作,将@1和@2的输入文件和输出文件修改24次,再分别将命令输入24次。也可以用shell语言写一个批量处理的小脚本,一键执行。

有人也许会问能不能并行执行呢?答案是肯定的,利用nohup和&后台执行命令就可以实现这一目的。但一般情况下,不主张在同一个目录下并行执行。我们需要考虑程序运行中生成的中间文件是否会相互干扰,多个程序占用的内存之和是否过大等因素。如果你嫌弃本地程序跑得太慢,可以放到集群上运行,让成千上万台机器并发执行。

场景7:我想在集群上跑一下数据,怎么启任务?

可选做法:可以在shell脚本中将hadoop任务的配置写好,然后用“nohup sh myHadoopJob.sh 1>out 2>err &”@3 启动集群任务。特别需要注意一点的是,集群任务一旦启起来后,即使你在本地kill掉@3进程,集群上的任务并不受影响,会继续运行。shell脚本中的部分内容如下所示。

${hadoop_home}/bin/hadoop streaming

        -D mapred.job.name="${job_name}"

        -D mapred.map.tasks=${map_task_num}

        -D mapred.reduce.tasks=${reduce_task_num}

        -D mapred.job.map.capacity=${map_capacity} 

        -D mapred.job.reduce.capacity=${reduce_capacity}

        -D mapred.job.priority=VERY_HIGH

        -partitioner "org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner"

        -input ${input_dir}

        -output ${output_dir}

        -mapper "${mapper}"

        -reducer "${reducer}

        -file ${mapper_file}

        -file ${reducer_file}

其中,变量hadoop_home表示本地hadoop客户端的位置,比如上文提到的“/home/work/hadoop_client1/hadoop/”。job_name是你给任务取的名字,理论是可以任意取。实际上,任务名称中应该包含你自己的名字,以便别人查看任务队列时知道那是你启的任务,有什么事也好找你协商。

顾名思义,map_task_num和reduce_task_num分别是map和reduce阶段的任务数目,map_capacity和reduce_capacity分别是map和reduce阶段并发数目的上限。那是不是把这四个参数设置得越大越好呢?未见得。如果优先级不够高的话,自己的任务很难抢到几台空闲机器,好不容易抢到台机器,只跑完小部分数据又释放了,需要再等下一次机会。即使优先级足够高,比如上文提到的VERY_HIGH,也不要把这四个参数设置得过大。因为你把集群资源都用光了,别人就没得用了,然后就会有人找你算账或者要你请客吃冰淇淋。

参数partitioner "org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner"@4 非常有用。我们都知道hadoop任务的输出有很多切片,part-00000,part-00001……当我们想知道某个key在哪个part时,就可以使用命令“KeyFieldBasedPartitioner key 总文件个数”查找,当然前提条件是你在启动任务时添加了@4参数。值得提醒的一点是,如果你的任务只有map没有reduce,那么即使你加了@4参数也没有用,除非你在reduce阶段添加cat操作,使其重新分桶。

在实战中学习吧!


ps: 下面这部分内容来源于我在知乎上的一个回答。

数据挖掘工程师的主要工作职责:

1、研究数据挖掘和统计学习领域的前沿技术,并用于实际问题的解决和优化

2、大规模机器学习算法研究及并行化实现,为各种大规模机器学习应用研发核心技术

3、通过对数据的敏锐洞察,深入挖掘产品潜在价值和需求,进而提供更有价值的产品和服务,通过技术创新推动产品成长

入职前几个月实际用到的知识或技能:

1、用python写数据分析程序,难度为leetcode上的easy级别题目。

2、linux命令,shell脚本,hadoop程序(现学现卖,入职前完全不会,入职后很快就学会了)。

3、统计学的一些基础知识,比如计算均值和方差。

4、了解机器学习中的常见模型和适用场景,比如GBDT(不熟悉也没关系,一般模型很少变动,平常就是改改特征)。建议做一个与机器学习相关的项目,熟悉一下用机器学习算法解决实际问题的流程(可以考虑参加阿里大数据竞赛,我之前面试就是拿阿里比赛作为敲门砖的)。

5、踏实、勤奋、爱思考、能干活。这一条说着有点虚,但其实是最重要的。公司给你安排的活不会是单纯的设计个算法或者写段代码,工作往往和团队当前的业务紧密相连。我们在学校一般不会接触到那些业务,这就意味着大家的起跑线都差不多,我们入职后都需要学习很多新东西。

数据挖掘工程师面试

1、与机器学习相关的项目。一面和二面都会问,发问的角度和深度不一样。

2、给你个纯算法题,让你纸上写代码。难度一般不超过leetcode上的中档题。

3、与机器学习相关的基础知识(推荐一下吴恩达的机器学习视频),有些面试官也会给你一些业务场景,让你选择一个机器学习模型。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容