Spark集群硬件配置参考

Spark集群硬件配置参考

标签(空格分隔): Spark


Hardware Provisioning

A common question received by Spark developers is how to configure hardware for it. While the right hardware will depend on the situation, we make the following recommendations.

硬件配置

Spark开发人员面临的最常见一个问题就是集群的配置硬件。一般来说,合理的硬件配置取决于自身的实际情况,我们只能从以下几个方面提出建议。

Storage Systems

Because most Spark jobs will likely have to read input data from an external storage system (e.g. the Hadoop File System, or HBase), it is important to place it as close to this system as possible. We recommend the following:

If at all possible, run Spark on the same nodes as HDFS. The simplest way is to set up a Spark standalone mode cluster on the same nodes, and configure Spark and Hadoop’s memory and CPU usage to avoid interference (for Hadoop, the relevant options are mapred.child.java.opts for the per-task memory and mapred.tasktracker.map.tasks.maximum and mapred.tasktracker.reduce.tasks.maximum for number of tasks). Alternatively, you can run Hadoop and Spark on a common cluster manager like Mesos or Hadoop YARN.

If this is not possible, run Spark on different nodes in the same local-area network as HDFS.

For low-latency data stores like HBase, it may be preferrable to run computing jobs on different nodes than the storage system to avoid interference.

存储系统

大部分的Spark作业会从外部存储系统(比如Hadoop文件系统或者Hbase)读取输入数据,因此将其与存储系统放得越近越好,我们给出如下建议:

如果可能的话,在与HDFS相同的节点上运行Spark。最简单的方法是在相同的节点上安装Spark standalone模式集群,并配置Spark和Hadoop的内存和CPU使用,以避免干扰 (对于Hadoop来说,相关的选项是:每个任务的内存配置是mapred.child.java.opts,任务数的配置是mapred.tasktracker.map.tasks.maximummapred.tasktracker.reduce.tasks.maximum)。你也可以在集群管理器上运行Hadoop和Spark,比如Mesos或Hadoop YARN。

如果这个没办法实现,那么Spark集群要与HDFS在同一局域网。

对于像HBase这样的低延迟数据存储,在不同的节点上运行计算作业可能比存储系统更容易,以避免干扰。

Local Disks

While Spark can perform a lot of its computation in memory, it still uses local disks to store data that doesn’t fit in RAM, as well as to preserve intermediate output between stages. We recommend having 4-8 disks per node, configured without RAID (just as separate mount points). In Linux, mount the disks with the noatime option to reduce unnecessary writes. In Spark, configure the spark.local.dir variable to be a comma-separated list of the local disks. If you are running HDFS, it’s fine to use the same disks as HDFS.

本地磁盘

虽然Spark很多计算都在内存中进行,但当数据在内存中装不下的时候,它仍然使用本地磁盘来存储数据,以及在不同阶段之间保留中间的输出。我们建议每个节点有4-8个磁盘,不做RAID(就像单独的挂载点一样)。在Linux中,用noatime选项挂载磁盘,以减少不必要的写操作。在Spark中,将多个挂载的磁盘配置在spark.local.dir变量中,用逗号分隔。如果你正在运行HDFS,那么可以使用与HDFS相同的磁盘。

Memory

In general, Spark can run well with anywhere from 8 GB to hundreds of gigabytes of memory per machine. In all cases, we recommend allocating only at most 75% of the memory for Spark; leave the rest for the operating system and buffer cache.

How much memory you will need will depend on your application. To determine how much your application uses for a certain dataset size, load part of your dataset in a Spark RDD and use the Storage tab of Spark’s monitoring UI (http://<driver-node>:4040) to see its size in memory. Note that memory usage is greatly affected by storage level and serialization format – see the tuning guide for tips on how to reduce it.

Finally, note that the Java VM does not always behave well with more than 200 GB of RAM. If you purchase machines with more RAM than this, you can run multiple worker JVMs per node. In Spark’s standalone mode, you can set the number of workers per node with the SPARK_WORKER_INSTANCES variable in conf/spark-env.sh, and the number of cores per worker with SPARK_WORKER_CORES.

内存

一般来说,每台机器上8GB到几百GB的内存,Spark都可以运行的很好。如果考虑所有情况,我们建议在Spark中最多分配75%的内存,剩下的部分留给操作系统和缓冲区缓存。

需要多少内存取决于你的应用程序。想要确定你的应用程序在某个数据集下对内存的使用情况,将数据集的一部分加载到RDD中,并使用Spark的监视UI(http://<driver-node>:4040)的Storage选项卡来查看内存使用情况。需要注意一点,内存使用情况受存储等级和序列化格式的影响很大,请参阅有关如何减少它的提示的调优指南。

最后请注意,内存超过200GB时,Java虚拟机运行状况并不是总是那么良好。如果你购买的机器内存很大,超过了200G,那么可以在每个节点上运行多个Worker。在Spark的Standalone模式中,你可以使用conf/spark-env.sh中通过SPARK_WORKER_INSTANCES变量来配置每个节点的worker数量,用SPARK_WORKER_CORES配置每个worker的CPU核心数目。

Network

In our experience, when the data is in memory, a lot of Spark applications are network-bound. Using a 10 Gigabit or higher network is the best way to make these applications faster. This is especially true for “distributed reduce” applications such as group-bys, reduce-bys, and SQL joins. In any given application, you can see how much data Spark shuffles across the network from the application’s monitoring UI (http://<driver-node>:4040).

网络

根据我们的经验,当数据在内存中时,很多Spark应用程序都是和网络紧密相关的。使用10千兆或更高的网络是使这些应用程序更快的最好的方法。这对于“分布式reduce”应用程序尤其适用,比如group-by操作、reduce-by操作和SQL join。在任何给定的应用程序中,您都可以看到从应用程序的监视UI(http://<driver-node>:4040)中看到网络中有多大量的shuffle数据。

CPU Cores

Spark scales well to tens of CPU cores per machine because it performes minimal sharing between threads. You should likely provision at least 8-16 cores per machine. Depending on the CPU cost of your workload, you may also need more: once data is in memory, most applications are either CPU- or network-bound.

CPU核心数目

Spark在每台机器上可以扩展到数十个CPU内核,因为它在线程之间最小共享。在每台机器上至少提供8-16个内核。根据工作负载的CPU消耗,可能还需要更多:一旦数据在内存中,大多数应用程序要么是CPU相关,要么是网络相关。

翻译原文地址:http://spark.apache.org/docs/1.6.3/hardware-provisioning.html

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,482评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,377评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,762评论 0 342
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,273评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,289评论 5 373
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,046评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,351评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,988评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,476评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,948评论 2 324
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,064评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,712评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,261评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,264评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,486评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,511评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,802评论 2 345

推荐阅读更多精彩内容

  • 文/蒋小哈 算上家乡方言,一共习得四门语言。 而如今,除了普通话讲得还算利索,不知另外三种语言去了哪个异时空? 2...
    大梨陪你读书阅读 594评论 0 4
  • 时间在走,我们也在走。你还好吗? 一句舒服的问候,一个风趣的话题,不冷不热的态度,恰如初恋的暖风,一切都刚刚好。 ...
    曼色陀罗阅读 174评论 0 1
  • 成绩上不是很稳定,老师觉得你还存在很大的潜力,如果能在学习上再卖力些,成绩的进步会令你满意的。老师希望你以后不仅学...
    佳一数学胡老师阅读 602评论 0 0