flume-ng 使用spool source 传输文件到hdfs
2014-06-03 14:11
507 查看
Flume 1.4.0 User Guide 地址:http://archive.cloudera.com/cdh4/cdh/4/flume-ng-1.4.0-cdh4.6.0/FlumeUserGuide.html
本文档主要用来记录如何在日志服务器和hdfs服务器端利用flume-ng将已经写好的日志传输到hdfs。一 安装与环境配置
下载地址 http://archive.cloudera.com/cdh4/cdh/4/flume-ng-latest.tar.gz ,使用chd4版本。
解压到服务器目录。
配置JAVA_HOME和PATH (具体路径参考实际情况)
declare -x JAVA_HOME="/usr/java/default"
export PATH=$JAVA_HOME:$PATH
export PATH=/home/dongxiao.yang/apache-flume-1.4.0-cdh4.6.0-bin/bin:$PATH
二 程序参数配置
flume-ng的程序参数主要通过修改各种配置文件实现。 (具体路径参考实际情况)
1 flume-ng默认程序最大内存为20m,打开解压文件路径下的/home/dongxiao.yang/apache-flume-1.4.0-cdh4.6.0-bin/conf/flume-env.sh.template文件
修改如下一行
2 配置source channel sink。
服务器端的配置文件conf.properties
日志服务器端的配置文件conf.properties
运行程序位于解压文件/bin目录下。运行前需要先为flume-ng赋予可执行权限:chmod 777 flume-ng。
在bin目录下运行命令 ,程序即可执行。
flume-ng agent --conf /home/dongxiao.yang/apache-flume-1.4.0-cdh4.6.0-bin/conf --conf-file /home/dongxiao.yang/apache-flume-1.4.0-cdh4.6.0-bin/conf/conf.properties
--name agent1 -Dflume.root.logger=INFO,DAILY -Duser.timezone=UTC+8
其中 --conf 对应的是配置文件目录
--conf-file 对应配置文件
--name 对应配置文件内的angent的名字
-D对应日志以及运行时区
相关文章推荐
- Flume(4)实用环境搭建:source(spooldir)+channel(file)+sink(hdfs)方式
- [bigdata] 使用Flume hdfs sink, hdfs文件未关闭的问题
- 【Flume】flume ng中HDFS sink设置按天滚动,0点滚动文件,修改源码实现
- Flume使用大全之kafka source-kafka channel-hdfs(kerberos认证)
- Flume使用大全之kafka source-kafka channel-hdfs(kerberos认证,SSL加密)
- 【Java】【Fulme】Flume-NG源码阅读之SpoolDirectorySource
- 模拟使用Flume监听日志变化_并且把增量的日志文件写入到hdfs中
- Hadoop硬实战之一:使用flume将系统日志文件导入HDFS
- 【Java】【Fulme】Flume-NG源码阅读之SpoolDirectorySource
- flume流(三)如何用flume流从本地传输文件到hdfs?
- Flume-NG源码阅读之SpoolDirectorySource
- 【Flume】flume文件监控的source组件开发,增量传输文件内容,支持断点续传功能
- flume使用(四):taildirSource多文件监控实时采集
- Flume使用大全之kafka source-kafka channel-hdfs(SSL加密)
- 模拟使用Flume监听日志变化,并且把增量的日志文件写入到hdfs中
- flume 使用 spool source的时候字符集出错
- Flume NG源码分析(五)使用ThriftSource通过RPC方式收集日志
- 使用flume将avro文件上传到hdfs上
- 模拟使用Flume监听日志变化,并且把增量的日志文件写入到hdfs中
- Flume-NG源码阅读之SpoolDirectorySource(原创)