Kafka 安装与配置
2017-08-30 17:53
92 查看
Kafka 依赖于 ZooKeeper,所以在每一个 Kafka 安装包里面都内置了一个 ZooKeeper,如果你需要搭建集群环境,则一定要自己进行 ZooKeeper 的配置。
1、 将 kakfa 安装包上传到 Linux 之中,而后进行解压缩:
tar xzvf /srv/ftp/kafka_2.10-0.10.1.0.tgz -C /usr/local/
2、 为了方便配置将解压缩后的目录进行更名:
mv /usr/local/kafka_2.10-0.10.1.0/ /usr/local/kafka
3、 Kafka 本身依赖于 ZooKeeper,所以一定要首先启动 ZooKeeper,Kafka 内部已经提供了可用ZooKeeper:
/usr/local/kafka/bin/zookeeper-server-start.sh /usr/local/kafka/config/zookeeper.properties
4、 启动 Kafka 服务:
/usr/local/kafka/bin/kafka-server-start.sh /usr/local/kafka/config/server.properties
5、 创建一个新的主题,主题的名称为:test;
/usr/local/kafka/bin/kafka-topics.sh –create –zookeeper localhost:2181 –replication-factor 1 –partitions 1 –topic test
6、 查看所有的主题:
/usr/local/kafka/bin/kafka-topics.sh –list –zookeeper localhost:2181
7、 启动一个消息的生产者:
/usr/local/kafka/bin/kafka-console-producer.sh –broker-list localhost:9092 –topic test
8、 启动消息的消费者:
· 启动一个只接收启动之后消息的消费者:
/usr/local/kafka/bin/kafka-console-consumer.sh –bootstrap-server localhost:9092 –topic test
· 启动接收历史全部消息的消费者:
/usr/local/kafka/bin/kafka-console-consumer.sh –bootstrap-server localhost:9092 –topic test –from-beginning
可以发现,当 Kafka 操作的时候所有的消息实际上都会自动进行保存。
1、 将 kakfa 安装包上传到 Linux 之中,而后进行解压缩:
tar xzvf /srv/ftp/kafka_2.10-0.10.1.0.tgz -C /usr/local/
2、 为了方便配置将解压缩后的目录进行更名:
mv /usr/local/kafka_2.10-0.10.1.0/ /usr/local/kafka
3、 Kafka 本身依赖于 ZooKeeper,所以一定要首先启动 ZooKeeper,Kafka 内部已经提供了可用ZooKeeper:
/usr/local/kafka/bin/zookeeper-server-start.sh /usr/local/kafka/config/zookeeper.properties
4、 启动 Kafka 服务:
/usr/local/kafka/bin/kafka-server-start.sh /usr/local/kafka/config/server.properties
5、 创建一个新的主题,主题的名称为:test;
/usr/local/kafka/bin/kafka-topics.sh –create –zookeeper localhost:2181 –replication-factor 1 –partitions 1 –topic test
6、 查看所有的主题:
/usr/local/kafka/bin/kafka-topics.sh –list –zookeeper localhost:2181
7、 启动一个消息的生产者:
/usr/local/kafka/bin/kafka-console-producer.sh –broker-list localhost:9092 –topic test
8、 启动消息的消费者:
· 启动一个只接收启动之后消息的消费者:
/usr/local/kafka/bin/kafka-console-consumer.sh –bootstrap-server localhost:9092 –topic test
· 启动接收历史全部消息的消费者:
/usr/local/kafka/bin/kafka-console-consumer.sh –bootstrap-server localhost:9092 –topic test –from-beginning
可以发现,当 Kafka 操作的时候所有的消息实际上都会自动进行保存。
相关文章推荐
- kafka的集群安装及配置文件说明
- Kafka安装配置
- Ubuntu server 16.04 mongodb和kafka安装及配置
- 安装,配置kafka
- kafka安装配置(集群)以及收发消息讲解
- Kafka的安装和使用以及配置文件的说明
- Kafka 安装配置
- mac(Linux)安装配置kafka环境
- kafka入门1:安装及配置
- kafka配置以及安装
- [集群配置]macOS Flume+kafka单机安装连接
- Kafka安装配置(集群模式)
- kafka集群安装配置
- kafka安装及配置文件详解
- kafka学习 (一)集群安装配置
- Kafka 集群的安装与配置
- logstash安装配置入kafka(配置hadoop审计日志)
- kafka自动化安装配置
- kafka安装配置及与logstash集成
- 领英的kafka安装和配置