您的位置:首页 > 其它

azkaban2.5 详细配置以及使用方式

2015-07-10 13:58 429 查看
azkaban支持shell、java、mapreduce以及hive的工作流调度,在对这些不同类型任务调度之前需要配置所对应的插件;azkaban整体分为两部分azkaban executor server(负责任务调度的处理)、azkaban web server(提供web ui可视化操作);
目前采用的版本插件均为2.5.0 完整包下载

1、编译

azkaban源码地址:https://github.com/azkaban/azkaban/tree/release-2.5/src

azkaban插件源码地址:https://github.com/azkaban/azkaban-plugins/tree/release-2.5

是用ant来进行编译、打包

2、安装和编译

http://azkaban.github.io/downloads.html下载如下安装包

azkaban-web-server-2.5.0.tar.gz
azkaban-executor-server-2.5.0.tar.gz
azkaban-sql-script-2.5.0.tar.gz
azkaban-jobtype-2.5.0.tar.gz
azkaban-hdfs-viewer-2.5.0.tar.gz
azkaban-jobsummary-2.5.0.tar.gz
azkaban-reportal-2.5.0.tar.gz

Azkaban Web Server的部署

1、在本地安装mysql数据库,用来存储azkaban任务id、probject等信息的元数据库

2、建表,解压azkaban-sql-script-2.5.0.tar.gz 在创建的数据库中执行create-all-sql-2.5.0.sql文件

3、解压azkaban-web-server-2.5.0.tar.gz,里面带有mysql-connector-java-5.1.28.jar,版本不一致可以更换

4、在解压后的目录下中的conf文件中输入keytool -keystore keystore -alias azkaban -genkey -keyalg RSA ,

在执行该命令后会提示输入密码(建议输入的密码都一样,方便后续配置),这个密码是后续配置jetty时使用的,最后将在当前目录生成 keystore 证书文件,将 keystore 考贝到 azkaban web 目录中。

5、在/conf/azkaban.properties配置:

azkaban的大部分web方面的配置均在这个文件中包括:

时区的配置:default.timezone.id=Asia/Shanghai
web所依赖mysql的配置:

database.type=mysql

mysql.port=**

mysql.host=**

mysql.database=**

mysql.user=**

mysql.password=**

mysql.numconnections=**

jetty的配置

jetty.maxThreads=**

jetty.ssl.port=**

jetty.port=**

jetty.keystore=keystore

jetty.password=创建keystore的密码

jetty.keypassword=azkaban

jetty.truststore=创建keystore的密码

jetty.trustpassword=创建keystore的密码

邮件的配置

mail.sender=

mail.host=

mail.user=

mail.password=

job.failure.email=

job.success.email=
其他配置可默认

6、azkaban-users.xml 配置用户的权限登录账号和密码

7、服务的启动和关闭均在bin目录下命令:

bin/azkaban-web-shutdown.sh

bin/azkaban-web-start.sh

Azkaban Executor Server的部署

1、解压azkaban-executor-server-2.5.0.tar.gz到安装目录在lib中自带了mysql-connector-java-5.1.28.jar,如果版本不一致请自行替换。

2、修改配置文件 安装目录/conf/azkaban.properties

设置时区

default.timezone.id=Asia/Shanghai
设置数据库,与Web Server中的数据库设置一致

3、启动/停止服务

和 web Service类似切到bin的上一目录

bin/azkaban-executor-shutdown.sh 停止

bin/azkaban-executor-start.sh 启动

4、插件的安装

进入 安装目录/plugins目录,在该目录下解压azkaban-jobtype- 2.5.0.tar.gz得到目录:azkaban-jobtype-2.5.0。这个目录用来存放之后安装的所有插 件,与Web Server中的viewer目录类似。每次插件的安装配置需要重启Executor Server。
修改 安装目录/plugins/azkaban-jobtype-2.5.0/common.properties,设置hadoop.home和hive.home,与你的环境变量HADOOP_HOME和HIVE_HOME分布保持一致。



hadoop.home=/etc/hadoop
hive.home=/usr/lib/hive

executor.home=/opt/azkaban2/executor //executor所在目录

hadoop.lib=/usr/lib/hadoop //hadoop lib

azkaban.should.proxy=false



修改 同等目录下的commonprivate.properties:

1、同样需要设置hadoop.home和hive.home、executor.home、 hadoop.lib。

2、设置.classpath

ehive.classpath.items=${hive.home}/lib/*,${hive.home}/conf/,${hive.aux.jars.path}/*,${hadoop.lib}/*,${hadoop.lib}/lib/*,${hadoop.lib}/client/*,${hadoop.home}/conf/

hive.classpath.items=${hive.home}/lib/*,${hive.home}/conf/,${hive.aux.jars.path}/*

3、设置权限、代理

# proxy.keytab.location=/home/aa.keytab

# proxy.user=media-sns/111111@qq.COM

azkaban.should.proxy=false//如果为true的话需要进行kerkeros,即注释打开,打开会后报hadoop的gettoken异常

obtain.binary.token=true

obtain.namenode.token=true

obtain.jobtracker.token=true

hive的安装

修改hive文件夹下的plugin.properties

hive.aux.jars.path=${hive.home}/lib

修改hive文件夹下的private.properties

jobtype.classpath=${hive.home}/lib/*,${hive.home}/conf,${hive.aux.jars.path}

jobtype.class=azkaban.jobtype.HadoopHiveJob

hive.aux.jars.path=${hive.home}/aux/lib

上面的${hive.home} 均为/common.properties 文件中设置的hive.home

注意:使用官网的jar包会有问题,需要下载源码更改重新编译:
azkaban-hadoopsecuritymanager-2.5.0.fix.jar



/plugins/jobtype/src/azkaban/jobtype/HadoopSecureHiveWrapper.java

删除:

if (!ShimLoader.getHadoopShims().usesJobShell()) { } 重新打包编译

jar包清单:

1、/azkaban2/executor/lib


executor/lib.jpg

2、/azkaban2/executor/plugins/azkaban-jobtype-2.5.0/hive hive以及java hadoopjava等都一样


插件jar.jpg

其中的azkaban-hadoopsecuritymanager-2.5.0.fix.jar 是编译完之后的包

3、 使用

azkaban的使用方式是按照job文件描述来进行使用的,使用type来执行执行任务的类型,通过dependencies可以用来连接任务,即dependencies=A,只有A任务执行完了才可以执行改任务

将描述文件和脚本文件打成zip包上传到azkaban所对应的probject中

执行Shell文件:
job文件:
type=command
command=echo "mr"
command.1=sh mr.sh
文件目录:


执行Java文件
type=hadoopJava
job.class=azkaban.jobtype.examples.java.WordCount
classpath=./lib/*,${hadoop.home}/lib/*
main.args=${param.inData} ${param.outData}
Method.run=test();
force.output.overwrite=true
input.path=${param.inData}
 output.path=${param.outData}
如果不指定方法名默认找run()方法去执行 如果没有会报错
如果没有输入输出参数等,可以省略
执行hive
type=hive
user.to.proxy=media-sns
azk.hive.action=execute.query
hive.script=hive.sh
在hive.sh中写hive的sql
use test;
select * from t_user limit 10;
   目录结构:



执行mr
可通过shell执行mr任务的命令方式和shell一样
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: