模拟nginx+flume数据采集+Kafka集群
2018-01-06 12:53
169 查看
版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/dxj_100/article/details/78988017
执行shell脚本模拟nginx生成日志:nginx.sh
for((i=0;i<=500000;i++)); do echo "i am lilei"+$i >> 1.log done
- 1
- 2
- 3
执行flume程序进行数据采集:
flume 任务文件 exec.conf
a1.sources = r1 a1.channels = c1 a1.sinks = k1 a1.sources.r1.type = exec a1.sources.r1.command = tail -F /root/1.log a1.sources.r1.channels = c1 a1.channels.c1.type = memory a1.channels.c1.capacity = 10000 a1.channels.c1.transactionCapacity=100 a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink a1.sinks.k1.topic=all1 a1.sinks.k1.brokerList=mini1:9092 a1.sinks.k1.requiredAcks=1 a1.sinks.k1.batchSize=20 a1.sinks.k1.channel=c1
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
启动flume 程序:
bin/flume-ng agent -c conf -f conf/exec.conf -n a1 -Dflume.root.logger=INFO,console
- 1
kafka 集群收集数据:
启动kafka
bin/kafka-server-start.sh config/server.properties
- 1
创建topic
sh bin/kafka-console-consumer.sh --zookeeper mini1:2181 --from-beginning --topic all1
- 1
storm 程序进行单词统计
https://github.com/JiyangM/stom/tree/master/src/main/java/cn/itcast/storm/kafkastormredis
- 顶
- 0
- 踩
- 0
相关文章推荐
- 模拟nginx+flume数据采集+Kafka集群
- 整合Flume和Kafka完成实时数据采集
- Spark Streaming 04 整合flume&kafka完成数据采集
- flume + Kafka采集数据 超简单
- Flume+Kafka+Zookeeper搭建大数据日志采集框架
- Flume和Kafka完成实时数据的采集
- 实战Apache-Flume采集DB数据到kafka
- flume采集数据输出到kafka还是hdfs
- Flume和Kafka的整合完成实时数据采集
- flume采集数据到kafka和hive
- nginx-lua+kafka进行数据采集
- flume实现kafka到hdfs实时数据采集 - 有负载均衡策略
- flume通过tcp/udp采集数据并存到kafka配置及操作方式
- Flume和Kafka完成实时数据的采集
- 数据采集阶段技术对比(flume,kafka,sqoop)
- 3.数据采集 - 文件内容断点续采[flume1.6 + kafka0.10.2.0]
- 2016年大数据Spark“蘑菇云”行动之spark streaming消费flume采集的kafka数据Directf方式
- 开源数据采集组件比较: scribe、chukwa、kafka、flume
- Kafka实战之整合Flume和Kafka完成实时数据采集
- 20条关于Kafka集群应对高吞吐量的避坑指南 - 大数据