spark监控

有几种方法可以监控Spark应用程序:Web UI,指标和外部检测。

Web界面

默认情况下,每个SparkContext都会在端口4040上启动Web UI,以显示有关应用程序的有用信息。这包括:

调度程序阶段和任务的列表

RDD大小和内存使用情况的摘要

环境信息。

有关运行执行程序的信息

您只需http://:4040在Web浏览器中打开即可访问此界面。如果多个SparkContexts在同一主机上运行,​​它们将绑定到以4040(4041,4042等)开头的连续端口。

请注意,此信息仅在应用程序的默认时间内可用。要在事后查看Web UI,请spark.eventLog.enabled在启动应用程序之前设置为true。这会将Spark配置为记录Spark事件,该事件将UI中显示的信息编码为持久存储。

事后观察

如果应用程序的事件日志存在,仍然可以通过Spark的历史服务器构建应用程序的UI。您可以通过执行以下命令启动历史记录服

./sbin/start-history-server.sh

http://:18080默认情况下,这会创建一个Web界面,列出未完成和已完成的应用程序和尝试。

使用文件系统提供程序类(请参见spark.history.provider下文)时,必须在spark.history.fs.logDirectory配置选项中提供基本日志记录目录,并且应包含每个代表应用程序事件日志的子目录。

必须将spark作业本身配置为记录事件,并将它们记录到同一个共享的可写目录中。例如,如果服务器配置了日志目录hdfs://namenode/shared/spark-logs,那么客户端选项将是:

spark.eventLog.enabledtrue

spark.eventLog.dir hdfs://namenode/shared/spark-logs

历史服务器可以配置如下:

环境变量

环境变量含义

SPARK_DAEMON_MEMORY要分配给历史服务器的内存(默认值:1g)。

SPARK_DAEMON_JAVA_OPTS历史服务器的JVM选项(默认值:无)。

SPARK_DAEMON_CLASSPATH历史服务器的类路径(默认值:无)。

SPARK_PUBLIC_DNS历史服务器的公共地址。如果未设置此选项,则指向应用程序历史记录的链接可能会使用服务器的内部地址,从而导致链接断开(默认值:无)。

SPARK_HISTORY_OPTSspark.history.*历史服务器的配置选项(默认值:无)。

Spark配置选项

物业名称默认含义

spark.history.providerorg.apache.spark.deploy.history.FsHistoryProvider实现应用程序历史后端的类的名称。目前,Spark只提供了一个实现,用于查找存储在文件系统中的应用程序日志。

spark.history.fs.logDirectory文件:/ tmp目录/火花事件对于文件系统历史记录提供程序,包含要加载的应用程序事件日志的目录的URL。这可以是本地file://路径,HDFS路径hdfs://namenode/shared/spark-logs或Hadoop API支持的备用文件系统。

spark.history.fs.update.interval10S文件系统历史记录提供程序检查日志目录中的新日志或更新日志的时间段。较短的间隔可以更快地检测新应用程序,代价是更多服务器负载重新读取更新的应用程序。更新完成后,已完成和未完成的应用程序列表将反映更改。

spark.history.retainedApplications50保留缓存中UI数据的应用程序数。如果超过此上限,则将从缓存中删除最旧的应用程序。如果应用程序不在缓存中,则必须从磁盘加载它(如果从UI访问)。

spark.history.ui.maxApplicationsInt.MaxValue要在历史摘要页面上显示的应用程序数。即使应用程序UI未显示在历史摘要页面上,它们仍然可以直接访问其URL。

spark.history.ui.port18080历史服务器的Web界面绑定的端口。

spark.history.kerberos.enabled假指示历史记录服务器是否应使用kerberos登录。如果历史记录服务器正在访问安全Hadoop集群上的HDFS文件,那么这是必需的。如果这是真的,它使用配置spark.history.kerberos.principal和spark.history.kerberos.keytab。

spark.history.kerberos.principal(没有)历史服务器的Kerberos主体名称。

spark.history.kerberos.keytab(没有)历史记录服务器的kerberos密钥表文件的位置。

spark.history.ui.acls.enable假指定是否应检查acls以授权查看应用程序的用户。如果启用,则无论应用spark.ui.acls.enable程序运行时单个应用程序设置了什么,都会进行访问控制检查。应用程序所有者将始终拥有查看自己的应用程序的权限,spark.ui.view.acls并且通过spark.ui.view.acls.groups应用程序运行时指定的任何用户和组指定的任何用户 也将有权查看该应用程序。如果禁用,则不进行访问控制检查。

spark.history.ui.admin.acls空逗号分隔的用户/管理员列表,具有对历史服务器中所有Spark应用程序的查看访问权限。默认情况下,只允许在运行时查看应用程序的用户可以访问相关的应用程序历史记录,配置的用户/管理员也可以拥有访问它的权限。在列表中加上“*”表示任何用户都可以拥有admin权限。

spark.history.ui.admin.acls.groups空逗号分隔的组列表,具有对历史服务器中所有Spark应用程序的查看访问权限。默认情况下,只允许在运行时查看应用程序的组可以访问相关的应用程序历史记录,配置的组也可以拥有访问它的权限。在列表中加上“*”表示任何组都可以拥有admin的权限。

spark.history.fs.cleaner.enabled假指定历史记录服务器是否应定期清理存储中的事件日志。

spark.history.fs.cleaner.interval1D文件系统作业历史记录清理程序检查要删除的文件的频率。仅当文件早于文件时才删除文件spark.history.fs.cleaner.maxAge

spark.history.fs.cleaner.maxAge7D文件系统历史记录清理程序运行时,将删除早于此的作业历史记录文件。

spark.history.fs.numReplayThreads25%的可用内核历史记录服务器用于处理事件日志的线程数。

spark.history.store.path(没有)本地目录缓存应用程序历史数据的位置。如果设置,则历史服务器将应用程序数据存储在磁盘上,而不是将其保留在内存中。写入磁盘的数据将在历史服务器重新启动时重复使用。

请注意,在所有这些UI中,表格可以通过单击其标题进行排序,从而可以轻松识别缓慢的任务,数据倾斜等。

注意

历史记录服务器显示已完成和未完成的Spark作业。如果应用程序在失败后进行多次尝试,则将显示失败的尝试,以及任何正在进行的未完成尝试或最终成功尝试。

不完整的应用程序仅间歇性更新。更新之间的时间由检查已更改文件(spark.history.fs.update.interval)之间的间隔定义。在较大的集群上,可以将更新间隔设置为较大的值。查看正在运行的应用程序的方法实际上是查看自己的Web UI。

退出但未将自己注册为已完成的应用程序将被列为不完整 - 尽管它们不再运行。如果应用程序崩溃,可能会发生这种情况。

发出Spark作业完成信号的一种方法是显式地停止Spark上传(sc.stop()),或者使用with SparkContext() as sc:构造来处理Spark上下文设置和拆除。

REST API

除了在UI中查看指标外,它们还可以作为JSON使用。这为开发人员提供了一种为Spark创建新的可视化和监视工具的简便方法。JSON既可用于正在运行的应用程序,也可用于历史记录服务器。端点安装在/api/v1。例如,对于历史服务器,它们通常可以在http://:18080/api/v1运行的应用程序中访问,也可以在运行的应用程序中访问http://localhost:4040/api/v1。

在API中,应用程序由其应用程序ID引用[app-id]。在YARN上运行时,每个应用程序可能有多次尝试,但是只有集群模式下的应用程序才有尝试ID,而不是客户端模式下的应用程序。YARN集群模式中的应用程序可以通过它们来识别[attempt-id]。在下面列出的API中,当在YARN群集模式下运行时,[app-id]实际上是[base-app-id]/[attempt-id],[base-app-id]YARN应用程序ID 在哪里。

端点含义

/applications所有申请表。

?status=[completed|running]仅列出所选状态的应用程序。

?minDate=[date]最早的开始日期/时间列表。

?maxDate=[date]最新开始日期/时间列表。

?minEndDate=[date]最早的结束日期/时间列表。

?maxEndDate=[date]最新结束日期/时间列表。

?limit=[limit]限制列出的应用程序数量。

例子:

?minDate=2015-02-10

?minDate=2015-02-03T16:42:40.000GMT

?maxDate=2015-02-11T20:41:30.000GMT

?minEndDate=2015-02-12

?minEndDate=2015-02-12T09:15:10.000GMT

?maxEndDate=2015-02-14T16:30:45.000GMT

?limit=10

/applications/[app-id]/jobs给定应用程序的所有作业的列表。

?status=[running|succeeded|failed|unknown]仅列出特定州的工作。

/applications/[app-id]/jobs/[job-id]给定工作的详细信息。

/applications/[app-id]/stages给定应用程序的所有阶段的列表。

?status=[active|complete|pending|failed]仅列出州内的各个阶段。

/applications/[app-id]/stages/[stage-id]给定阶段的所有尝试的列表。

/applications/[app-id]/stages/[stage-id]/[stage-attempt-id]给定阶段尝试的详细信息。

/applications/[app-id]/stages/[stage-id]/[stage-attempt-id]/taskSummary给定阶段尝试中所有任务的摘要度量标准。

?quantiles用给定的分位数总结度量。

例:?quantiles=0.01,0.5,0.99

/applications/[app-id]/stages/[stage-id]/[stage-attempt-id]/taskList给定阶段尝试的所有任务的列表。

?offset=[offset]&length=[len]列出给定范围内的任务。

?sortBy=[runtime|-runtime]对任务进行排序。

例:?offset=10&length=50&sortBy=runtime

/applications/[app-id]/executors给定应用程序的所有活动执行程序的列表。

/applications/[app-id]/allexecutors给定应用程序的所有(活动和死)执行程序的列表。

/applications/[app-id]/storage/rdd给定应用程序的存储RDD列表。

/applications/[app-id]/storage/rdd/[rdd-id]给定RDD的存储状态的详细信息。

/applications/[base-app-id]/logs将给定应用程序的所有尝试的事件日志下载为zip文件中的文件。

/applications/[base-app-id]/[attempt-id]/logs以zip文件的形式下载特定应用程序尝试的事件日志。

/applications/[app-id]/streaming/statistics流式上下文的统计信息。

/applications/[app-id]/streaming/receivers所有流媒体接收器的列表。

/applications/[app-id]/streaming/receivers/[stream-id]给定接收器的详细信息。

/applications/[app-id]/streaming/batches所有保留批次的列表。

/applications/[app-id]/streaming/batches/[batch-id]给定批次的详细信息。

/applications/[app-id]/streaming/batches/[batch-id]/operations给定批次的所有输出操作的列表。

/applications/[app-id]/streaming/batches/[batch-id]/operations/[outputOp-id]给定操作和给定批次的详细信息。

/applications/[app-id]/environment给定应用程序的环境详细信息。

/version获取当前的火花版本。

可以检索的作业和阶段的数量受独立Spark UI的相同保留机制的限制;"spark.ui.retainedJobs"定义触发作业垃圾收集的阈值,以及spark.ui.retainedStages阶段的垃圾收集。请注意,垃圾回收在回放时发生:可以通过增加这些值并重新启动历史记录服务器来检索更多条目。

API版本控制策略

这些端点经过了强大的版本控制,可以更轻松地开发应用程序。特别是,Spark保证:

永远不会从一个版本中删除端点

对于任何给定的端点,永远不会删除单个字段

可以添加新的端点

可以将新字段添加到现有端点

可以在将来添加新版本的api作为单独的端点(例如,api/v2)。新版本要求是向后兼容。

Api版本可能会被删除,但只有在至少一个与新api版本共存的次要版本之后。

请注意,即使在检查正在运行的应用程序的UI时,applications/[app-id]仍然需要该部分,尽管只有一个应用程序可用。例如。要查看正在运行的应用程序的作业列表,您可以访问http://localhost:4040/api/v1/applications/[app-id]/jobs。这是为了在两种模式下保持路径一致。

度量

Spark有一个基于Dropwizard指标库的可配置指标系统 。这允许用户将Spark指标报告给各种接收器,包括HTTP,JMX和CSV文件。度量系统通过Spark期望出现的配置文件进行配置$SPARK_HOME/conf/metrics.properties。可以通过spark.metrics.conf配置属性指定自定义文件位置 。默认情况下,用于驱动程序或执行程序度量标准的根命名空间是值spark.app.id。但是,通常情况下,用户希望能够跟踪应用程序中驱动程序和执行程序的度量标准,这很难用应用程序ID(即spark.app.id),因为它随应用程序的每次调用而变化。对于此类用例,可以为使用的度量标准指定自定义命名空间spark.metrics.namespace配置属性。例如,如果用户想要将metrics命名空间设置为应用程序的名称,则可以将spark.metrics.namespace属性设置为类似的值${spark.app.name}。然后,Spark会适当地扩展此值,并将其用作度量系统的根命名空间。非驱动程序和执行程序指标从不作为前缀spark.app.id,spark.metrics.namespace属性也不 会对此类指标产生任何影响。

Spark的度量标准分离到与Spark组件对应的不同实例中。在每个实例中,您可以配置一组报告度量标准的接收器。目前支持以下实例:

master:Spark独立主进程。

applications:主服务器中的一个组件,用于报告各种应用程序。

worker:Spark独立工作进程。

executor:Spark执行者。

driver:Spark驱动程序进程(创建SparkContext的过程)。

shuffleService:Spark shuffle服务。

每个实例都可以向零个或多个接收器报告。org.apache.spark.metrics.sink包装中包含水槽 :

ConsoleSink:将度量标准信息记录到控制台。

CSVSink:定期将指标数据导出到CSV文件。

JmxSink:注册要在JMX控制台中查看的度量标准。

MetricsServlet:在现有Spark UI中添加servlet,以将度量数据作为JSON数据提供。

GraphiteSink:将指标发送到Graphite节点。

Slf4jSink:将指标发送到slf4j作为日志条目。

StatsdSink:将指标发送到StatsD节点。

Spark还支持Ganglia接收器,由于许可限制,该接收器未包含在默认构建中:

GangliaSink:将度量标准发送到Ganglia节点或多播组。

要安装,GangliaSink您需要执行Spark的自定义构建。请注意,通过嵌入此库,您将在Spark包中包含LGPL-licensed代码。对于sbt用户,SPARK_GANGLIA_LGPL在构建之前设置 环境变量。对于Maven用户,请启用-Pspark-ganglia-lgpl配置文件。除了修改集群的Spark构建之外,用户应用程序还需要链接到spark-ganglia-lgpl工件。

度量配置文件的语法在示例配置文件中定义$SPARK_HOME/conf/metrics.properties.template。

高级仪器

可以使用几个外部工具来帮助分析Spark作业的性能:

群集范围的监视工具(如Ganglia)可以提供对整体群集利用率和资源瓶颈的深入了解。例如,Ganglia仪表板可以快速显示特定工作负载是磁盘绑定,网络绑定还是CPU绑定。

操作系统分析工具(如dstatiostatiotop)可以在各个节点上提供细粒度的分析。

JVM实用程序(如jstack用于提供堆栈跟踪,jmap用于创建堆转储,jstat用于报告时间序列统计信息以及jconsole用于可视化地探索各种JVM属性)对于那些熟悉JVM内部的人来说非常有用。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,937评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,503评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,712评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,668评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,677评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,601评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,975评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,637评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,881评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,621评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,710评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,387评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,971评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,947评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,189评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,805评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,449评论 2 342

推荐阅读更多精彩内容

  • 翻译: https://www.cloudera.com/documentation/enterprise/lat...
    金刚_30bf阅读 2,685评论 0 0
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,591评论 18 139
  • Ui相关流程Spark集群启动之后,我们可以通过Web观查集群状态等信息,这一部分工作是Spark WebUi 模...
    曹振华阅读 1,785评论 0 1
  • 同事家的孩子刚上小学一年级,小男孩,正是爱玩淘气的年纪,学习成绩不好,上学期期末考试数学中下游,语文倒数第一。其实...
    阳光下的风女子阅读 716评论 0 1
  • 早上,老公去工作了,就我一人在家,我每次都舍不得他走,想让他多呆一会。感觉两个人天天呆一起,还呆不够。呵呵,回到正...
    露露2008阅读 297评论 0 3