您的位置:首页 > Web前端 > HTML5

Flink on Yarn - CDH5

2020-07-13 05:20 525 查看

本篇文章大概2892字,阅读时间约8分钟

根据Flink官网资料,实操CDH5.16.2上配置Flink on yarn,给出了flink on yarn的集成方式和HA的配置方式
1

文档编写目的

  • 记录Flink on yarn的部署流程

  • 集群环境:CDH5.16.2

2

Flink如何与YARN交互 上图来自Flink官方

Flink YARN Client需要获取Hadoop的配置访问到集群的YARN Resource Manager和HDFS,可以使用如下方式进行配置:

  • 检查一下参数是否配置,只要有一个配置就可以读到集群的配置文件

  • YARN_CONF_DIR

  • HADOOP_CONF_DIR

  • HADOOP_CONF_PATH

  • Flink YARN Client使用HADOOP_HOME环境变量,如果设置了HADOOP_HOME,Flink YARN Client会去读取目标路径下的配置$HADOOP_HOME/etc/hadoop(Hadoop 2.X)

整个交互流程

  • 启动一个新的Flink YARN会话时,Client会先检查所请求的资源(AM的cpu和内存)是否可用。之后,会上传包含Flink和相关配置的jar包到hdfs上

  • 向YARN的RM申请容器,启动AM

  • JobManager和AM会运行在同一容器中。成功启动后,AM就会知道JobManager的地址,然后为TaskManager生成一个新的配置文件以连接到JobMananger。新生成的文件也会上传到HDFS上。

  • AM容器还会提供Flink的web界面

  • YARN分配的端口都是临时端口,因此可以同时并行执行多个Flink YARN Session

  • 最后,AM开始为TaskManager分配容器,完成以上步骤,就可以开始运行Flink的Jobs

3

在CDH5上部署Flink

添加HADOOP_CONF_DIR环境变量

vi /etc/profile
# 配置HADOOP_CONF_DIR
export HADOOP_CONF_DIR=/etc/hadoop/conf
# 刷新环境变量
source /etc/profile

配置HADOOP的CLASSPATH

vi /etc/profile
# 配置hadoop的classpath
export HADOOP_CLASSPATH=`hadoop classpath`
# 刷新环境变量
source /etc/profile
添加操作HDFS的用户

编辑/bin目录下的yarn-session.sh文件,配置HADOOP_USER_NAME=hdfs

# 操作hdfs的用户
export HADOOP_USER_NAME=hdfs

启动Flink on yarn集群

基础功能测试

per-job提交模式

直接向yarn上提交一个example包下的wordcount任务, per job方式

./bin/flink run -m yarn-cluster ./examples/batch/WordCount.jar

yarn-session提交模式

启动yarn-session

./bin/yarn-session.sh -tm 8192 -s 4
yarn上生成的yarn-session对应的机器是dn2.develop.com:8042

yarn id:application_1589377449274_0645

提交任务到该yarn-session上

./bin/flink run -m yarn-cluster -yid application_1589377449274_0645 ./examples/batch/WordCount.jar
进入yarn-session的web,发现任务执行完成

Flink YARN Session

利用bin下的yarn-session.sh启动yarn-session

./bin/yarn-session.sh
命令行参数:
Usage:
   Optional
     -at,--applicationType <arg>    设置yarn上应用的自定义程序类型
     -D <property=value>        动态参数
     -d,--detached           使用分离模式
     -h,--help            打出 cli help
     -id,--applicationId <arg>     把任务提交到正在运行的yarn session
     -j,--jar <arg>           flink jar的路径
     -jm,--jobManagerMemory <arg>    JobMananger内存
     -m,--jobmanager <arg>        连接到指定的JobManager
     -nl,--nodeLabel <arg>        指定yarn的节点标签
     -nm,--name <arg>           指定一个yarn应用的名称
     -q,--query             显示可用的yarn资源 cpu + 内存
     -qu,--queue <arg>          指定yarn队列
     -s,--slots <arg>           每个TaskManager的slot
     -t,--ship <arg>            文件发送目录
     -tm,--taskManagerMemory <arg>   每个TaskManager容器的内存,默认值mb
     -yd,--yarndetached         不建议使用
     -z,--zookeeperNamespace <arg>   为高可用性模式创建zk的namespace
生产环境上用得比较多的是flink的per job模式。

Flink on YARN HA配置

在YARN HA情况下,Flink集群不需要多个JobManager实例,当JM出现故障的时候,yarn会尝试重启JM。具体的YARN的操作取决于YARN的版本。

配置YARN高可用

最大的Application Master重试次数

配置集群中yarn-site.xml的最大重试次数,集群的配置一般是2次

<property>
  <name>yarn.resourcemanager.am.max-attempts</name>
  <value>4</value>
  <description>
    The maximum number of application master execution attempts.
  </description>
</property>

配置flink应用的重试次数 flink-conf.yaml

yarn.application-attempts: 10
配置高可用的YARN-session
high-availability: zookeeper
high-availability.storageDir: hdfs:///flink/ha/
high-availability.zookeeper.quorum: localhost:2181
state.checkpoints.dir: hdfs:///flink/flink-checkpoints

进入dn3机器,打印jps

直接kill掉yarnsessionclusterentrypoint, kill -9 117533

看到yarn上的attempt id增加, flink的web ui可以重新进行访问了 flink on yarn ha 测试完成

点个“在看”表示朕

已阅

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: