运维系列:10、Spark监控之Metrics

Spark使用的Metrics是https://github.com/dropwizard/metrics

配置

参考conf/metrics.properties.template 模块模板,并带有配置说明

配置方法

syntax: [instance].sink|source.[name].[options]=[value]

[instance]可取值为:master、worker、executor、driver、applications、*等。*配置的属性被其它值继承.

sink|source:指定配置的属性是source,还是sink

   source:第一种为Spark内部source,MasterSource、WorkerSource等,它们会接收Spark组件的内部状态;
        第二种为通用source,如:JvmSource,它收集低级别的状态
   sink:指定metrics信息发送到哪,每个instance可以设置一个或多个Sink

[name]:指定source或sink的名称

[options]:

备注:
  添加一个新sink,选项class的值为完整类名称,带包
  一些Sink牵涉轮询时间,最短的轮询时间是1秒
  精确的instance会覆盖*配置,如:master.sink.console.period会覆盖*.sink.console.period
  默认的配置文件为“park.metrics.conf=${SPARK_HOME}/conf/metrics.properties”,因此会自动加载${SPARK_HOME}/conf/metrics.properties。如果想修改文件位置,可以使用java的运行时属性-Dspark.metrics.conf=xxx进行修改。
  

 

新建文件conf/metrics.properties

 

posted on 2014-09-16 17:43  宁 弘道  阅读(1142)  评论(0编辑  收藏  举报

导航