Kafka发送消息到HDFS
2014-04-16 17:10
148 查看
本文采用的是kafka0.7.2,安装好kafka后在kafka的contrib目录下有关于kafka与hadoop的一系列文件,我们可以使用hadoop-consumer目录下的脚本及配置文件将kafka中某topic的信息发送到HDFS中。
1.修改test目录下的test.properties的配置文件。
kafka.etl.topic:topic的名称
hdfs.default.classpath.dir:hdfs的类路径
input:HDFS的输入路径
output:HDFS的输出路径
2.生成topic的offset
执行命令./run-class.sh kafka.etl.impl.DataGenerator test/test.properties,会在HDFS的/tmp/kafka/data目录下生成.dat的文件
3.复制kakfa的相关jar到HDFS的类路径
执行命令./copy-jars.sh /usr/lib/hadoop/lib
4.运行hadoop job
./run-class.sh kafka.etl.impl.SimpleKafkaETLJob test/test.properties,该job会将kafka中test-topic该话题的消息写入HDFS中。
在HDFS的/tmp/kafka/output目录中我们会看到写入的消息。
1.修改test目录下的test.properties的配置文件。
kafka.etl.topic:topic的名称
hdfs.default.classpath.dir:hdfs的类路径
input:HDFS的输入路径
output:HDFS的输出路径
2.生成topic的offset
执行命令./run-class.sh kafka.etl.impl.DataGenerator test/test.properties,会在HDFS的/tmp/kafka/data目录下生成.dat的文件
3.复制kakfa的相关jar到HDFS的类路径
执行命令./copy-jars.sh /usr/lib/hadoop/lib
4.运行hadoop job
./run-class.sh kafka.etl.impl.SimpleKafkaETLJob test/test.properties,该job会将kafka中test-topic该话题的消息写入HDFS中。
在HDFS的/tmp/kafka/output目录中我们会看到写入的消息。
相关文章推荐
- spring MVC简单示例(用表单提交消息然后kafka发送该消息)
- FLume监控文件夹,将数据发送给Kafka以及HDFS的配置文件详解
- Kafka、RabbitMQ、RocketMQ发送小消息性能对比
- Kafka、RabbitMQ、RocketMQ等消息中间件的对比 —— 消息发送性能和优势
- Kafka、RabbitMQ、RocketMQ 消息中间件的对比 | 消息发送性能篇
- log4j2发送消息至Kafka
- Kafka、RabbitMQ、RocketMQ消息中间件的对比 —— 消息发送性能-转自阿里中间件
- scala发送消息到kafka示例
- log4j2发送消息至Kafka
- kafka发送消息问题,could not be resolved
- kafka producer 发送消息
- flume实时接收kafka消息并保存至HDFS
- kafka producer 发送消息的流程分析
- 4.nginx发送kafka消息
- Kafka、RabbitMQ、RocketMQ消息中间件的对比 —— 消息发送性能
- 【转】解决Maxwell发送Kafka消息数据倾斜问题
- spring boot整合spring-kafka实现发送接收消息实例代码
- kafka producer发送消息 Failed to update metadata after问题
- java向linux的kafka发送消息 并接收消息实例
- kafka代码初步涉猎,用代码发送消息到客户端