flume+kafka使用
2016-10-11 09:30
225 查看
1、下载flume的安装包,解压至任一路径。
2、搭建kafka集群。
3、配置flume的配置文件,将其命名为kafka.conf,如下。
agent.sources.s1.type = spooldir
agent.sources.s1.spoolDir = /tmp/cdz/log
agent.sources.s1.fileHeader = false
agent.sources.s1.channels=c1
#agent.sources.s1.type=exec
#agent.sources.s1.command=tail -F /tmp/cdz/log/test.log
#agent.sources.s1.channels=c1
agent.channels.c1.type=memory
agent.channels.c1.capacity=10000
agent.channels.c1.transactionCapacity=100
agent.sinks.k1.type= org.apache.flume.sink.kafka.KafkaSink
agent.sinks.k1.brokerList=1.2.3.4:9092,1.2.3.5:9092
agent.sinks.k1.topic=cdz_test
agent.sinks.k1.serializer.class=kafka.serializer.StringEncoder
agent.sinks.k1.channel=c1
agent.channels = c1
agent.sources = s1
agent.sinks = k1
4、指定运行flume。
sh bin/flume-ng agent --conf ./conf --conf-file ./conf/kafka.conf --name agent -Dflume.root.logger=INFO,console -Dflume.monitoring.type=http -Dflume.monitoring.port=34545
5、把任意文件放到spoolDir后,flume将会采集并发送至kafka。
6、消费即可看到flume采集的数据。
bin/kafka-console-consumer.sh --zookeeper 99.12.73.208:2181 --topic cdz_test
2、搭建kafka集群。
3、配置flume的配置文件,将其命名为kafka.conf,如下。
agent.sources.s1.type = spooldir
agent.sources.s1.spoolDir = /tmp/cdz/log
agent.sources.s1.fileHeader = false
agent.sources.s1.channels=c1
#agent.sources.s1.type=exec
#agent.sources.s1.command=tail -F /tmp/cdz/log/test.log
#agent.sources.s1.channels=c1
agent.channels.c1.type=memory
agent.channels.c1.capacity=10000
agent.channels.c1.transactionCapacity=100
agent.sinks.k1.type= org.apache.flume.sink.kafka.KafkaSink
agent.sinks.k1.brokerList=1.2.3.4:9092,1.2.3.5:9092
agent.sinks.k1.topic=cdz_test
agent.sinks.k1.serializer.class=kafka.serializer.StringEncoder
agent.sinks.k1.channel=c1
agent.channels = c1
agent.sources = s1
agent.sinks = k1
4、指定运行flume。
sh bin/flume-ng agent --conf ./conf --conf-file ./conf/kafka.conf --name agent -Dflume.root.logger=INFO,console -Dflume.monitoring.type=http -Dflume.monitoring.port=34545
5、把任意文件放到spoolDir后,flume将会采集并发送至kafka。
6、消费即可看到flume采集的数据。
bin/kafka-console-consumer.sh --zookeeper 99.12.73.208:2181 --topic cdz_test
相关文章推荐
- Flume+Kafka+Strom基于分布式环境的结合使用
- Flume简介与使用(三)——Kafka Sink消费数据之Kafka安装
- Flume中使用KafkaChannel时topic中存在异常奇怪字符
- 使用flume-ng+kafka+storm+mysql 搭建实时日志处理平台
- 使用Flume+Kafka+SparkStreaming进行实时日志分析
- flume使用场景 flume与kafka的比较
- Flume使用大全之kafka source-kafka channel-hdfs(kerberos认证,SSL加密)
- Flume使用大全之kafka source-kafka channel-hdfs(SSL加密)
- 大数据新手之路四:联合使用Flume和Kafka
- Flume中同时使用Kafka Source和Kafka Sink的Topic覆盖问题
- 使用Flume+Logstash+Kafka+Spark Streaming进行实时日志处理分析【公安大数据】
- 使用flume将kafka数据sink到HBase【转】
- 日志采集系统flume和kafka有什么区别及联系,它们分别在什么时候使用,什么时候又可以结合?
- 记录Flume使用KafkaSource的时候Channel队列满了之后发生的怪异问题
- Flume使用Kafka Sink导致CPU过高的问题
- Flume 与 kafka 配置和使用
- flume+kafka+storm的集成使用
- HADOOP离线分析+实时分析框架使用技术框架Hadoop+Flume+Kafka+Storm+Hive+Sqoop+mysql/oracle
- 日志采集系统flume和kafka有什么区别及联系,它们分别在什么时候使用,什么时候又可以结合?
- Flume使用大全之kafka source-kafka channel-hdfs(kerberos认证)