【Dr.Elephant中文文档-4】开发者指南

Dr.Elephant设置

请按照快速安装说明操作here.

先决条件

Play/Activator

Hadoop/Spark on Yarn

为了在本地部署Dr.Elephant测试,你需要安装Hadoop(version 2.x)或者Spark(Yarn mode, version > 1.4.0),以及资源管理服务和历史作业服务(可以用伪分布式)。关于伪分布式模式在YARN上运行MapReduce作业相关说明可以在这里找到。

如果还没设置环境变量,可以导入HADOOP_HOME变量

1
2
$> export HADOOP_HOME=/path/to/hadoop/home
$> export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

将hadoop的home目录添加到系统变量下,因为Dr.Elephant会调用到hadoop的某些类库

1
$> export PATH=$HADOOP_HOME/bin:$PATH

确保历史作业服务器正常运行,因为Dr.Elephant需要依赖他运行

1
$> $HADOOP_HOME/sbin/mr-jobhistory-daemon.sh start historyserver

数据库

Dr.Elephant需要一个数据库来存储相关祖业信息和分析结果数据

本地配置并启动一个mysql。可以从以下链接获取最新版的mysqlhttps://www.mysql.com/downloads/。`Dr.Elephant`支持`mysql 5.5+以上的版本,有啥问题可以去Alex (wget.null@gmail.com) 的Google小组讨论。 创建一个名为drelephant`的库。

1
2
$> mysql -u root -p
mysql> create database drelephant

可以在Dr.Elephant的配置文件app-conf/elephant.conf中配置数据库的url、数据库名称、用户名和密码。

使用其他数据库
目前,Dr.Elephant默认是支持MySQL数据库。但我们可以在evolution files中看到DDL声明。如果想配置其他的数据库,可以参考这里进行配置。

测试Dr.Elephant

你可以通过调用编译脚本来测试,脚本会进行所有单元测试。

项目结构

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
app → Contains all the source files
└ com.linkedin.drelepahnt → Application Daemons
└ org.apache.spark → Spark Support
└ controllers → Controller logic
└ models → Includes models that Map to DB
└ views → Page templates
app-conf → Application Configurations
└ elephant.conf → Port, DB, Keytab and other JVM Configurations (Overrides application.conf)
└ FetcherConf.xml → Fetcher Configurations
└ HeuristicConf.xml → Heuristic Configurations
└ JobTypeConf.xml → JobType Configurations
conf → Configurations files
└ evolutions → DB Schema
└ application.conf → Main configuration file
└ log4j.properties → log configuration file
└ routes → Routes definition
images
└ wiki → Contains the images used in the wiki documentation
public → Public assets
└ assets → Library files
└ css → CSS files
└ images → Image files
└ js → Javascript files
scripts
└ start.sh → Starts Dr. Elephant
└ stop.sh → Stops Dr. Elephant
test → Source folder for unit tests
compile.sh → Compiles the application

启发式算法

Dr.Elephant已经为MapReduce和Spark集成了一系列的启发式算法。有关这些算法的详细信息,请参阅启发式算法指南。这些算法都是可插拔式的模块,可以很简单的配置好。

添加新的启发式算法

  1. 你可以添加自定义的算法到Dr.Elephant中。
  2. 创建新的启发式算法,并完成测试
  3. 为自定义的启发式算法创建一个新的view页,例如helpMapperSpill.scala.html
  4. HeuristicConf.xml文件中添加该启发式算法的详情
  5. HeuristicConf.xml文件应该包含下列内容:
    • applicationtype:应用程序类型,是MapReduce还是spark
    • heuristicname:算法名称
    • classname:类名全称
    • viewname:view页全称
    • hadoopversions:该算法匹配的hadoop版本号
  6. 运行Dr.Elephant,他应该包含你新添加的算法了

HeuristicConf.xml文件示例

1
2
3
4
5
6
<heuristic>
<applicationtype>mapreduce</applicationtype>
<heuristicname>Mapper GC</heuristicname>
<classname>com.linkedin.drelephant.mapreduce.heuristics.MapperGCHeuristic</classname>
<viewname>views.html.help.mapreduce.helpGC</viewname>
</heuristic>

配置启发式算法

如果你想要覆盖启发式算法中用到的关于严重性指标的的阈值,你可以在HeuristicConf.xml文件中指定其值,例子如下。
配置严重性阈值

1
2
3
4
5
6
7
8
9
10
11
<heuristic>
<applicationtype>mapreduce</applicationtype>
<heuristicname>Mapper Data Skew</heuristicname>
<classname>com.linkedin.drelephant.mapreduce.heuristics.MapperDataSkewHeuristic</classname>
<viewname>views.html.help.mapreduce.helpMapperDataSkew</viewname>
<params>
<num_tasks_severity>10, 50, 100, 200</num_tasks_severity>
<deviation_severity>2, 4, 8, 16</deviation_severity>
<files_severity>1/8, 1/4, 1/2, 1</files_severity>
</params>
</heuristic>

调度器

如今,Dr.Elephant支持3种工作流调度器。他们是AzkabanAirflowOozie。默认情况下,这些调度器都是可用的,除了AirflowOozie需要一些配置外,一般都是开箱即用。

调度器配置

调度器和他们所有的参数都在app-conf目录下的SchedulerConf.xml文件中配置。
通过下面的示例SchedulerConf.xml文件,了解调度器相应的配置和属性。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
<!-- Scheduler configurations -->
<schedulers>
<scheduler>
<name>azkaban</name>
<classname>com.linkedin.drelephant.schedulers.AzkabanScheduler</classname>
</scheduler>
<scheduler>
<name>airflow</name>
<classname>com.linkedin.drelephant.schedulers.AirflowScheduler</classname>
<params>
<airflowbaseurl>http://localhost:8000</airflowbaseurl>
</params>
</scheduler>
<scheduler>
<name>oozie</name>
<classname>com.linkedin.drelephant.schedulers.OozieScheduler</classname>
<params>
<!-- URL of oozie host -->
<oozie_api_url>http://localhost:11000/oozie</oozie_api_url>
<!-- ### Non mandatory properties ###
### choose authentication method
<oozie_auth_option>KERBEROS/SIMPLE</oozie_auth_option>
### override oozie console url with a template (only parameter will be the id)
<oozie_job_url_template></oozie_job_url_template>
<oozie_job_exec_url_template></oozie_job_exec_url_template>
### (if scheduled jobs are expected make sure to add following templates since oozie doesn't provide their URLS on server v4.1.0)
<oozie_workflow_url_template>http://localhost:11000/oozie/?job=%s</oozie_workflow_url_template>
<oozie_workflow_exec_url_template>http://localhost:11000/oozie/?job=%s</oozie_workflow_exec_url_template>
### Use true if you can assure all app names are unique.
### When true dr-elephant will unit all coordinator runs (in case of coordinator killed and then run again)
<oozie_app_name_uniqueness>false</oozie_app_name_uniqueness>
-->
</params>
</scheduler>
</schedulers>

贡献新的调度器

为了充分利用Dr. Elephant的全部功能,需要提供以下4个ID

  1. 作业定义ID:整个作业流程中定义的唯一ID。通过过滤这个ID可以查询所有历史作业
  2. 作业执行ID:作业执行的唯一ID
  3. 工作流定义ID:独立于任何执行的对整个流程的唯一ID
  4. 工作流执行ID:特定流程执行的唯一ID

Dr. Elephant希望通过上述ID能与任何调度器对接。没有这些ID,Dr. Elephant无法为Azkaban提供集成。例如,如果没有提供作业定义Id,那么Dr. Elephant将无法捕获作业的历史数据。同样,如果没有提供Flow定义Id,则无法捕获工作流的历史记录。如果没有上述所有链接,Dr. Elephant只能在执行过程中(Mapreduce作业级别)显示作业的性能数据。

除了上述的4个ID之外,Dr. Elephant还需要一个可选的工作名称和4个可选链接,这些链接将帮助用户轻松的从Dr. Elephant跳转到相应的作业应用程序。
请注意,这不会影响Dr. Elephant的功能。

  1. Flow Definition Url
  2. Flow Execution Url
  3. Job Definition Url
  4. Job Execution Url

打分器

Dr.Elephant中,通过启发式算法来分析运行完成的任务,会得到一个打分。这个分数的计算方法比较简单,可以通过将待优化等级的值乘以作业(task)数量。

1
2
3
4
5
int score = 0;
if (severity != Severity.NONE && severity != Severity.LOW) {
score = severity.getValue() * tasks;
}
return score;

我们定义下列打分类型:

  • 作业得分:所有作业的待优化等级数值之和
  • 任务得分:该任务中所有的作业分数之和
  • 任务流得分:该任务流中所有的任务分数之和
hyperxu wechat
欢迎您扫一扫上面的二维码,订阅我的公众号!
坚持原创技术分享,您的支持将鼓励我继续创作!