随着大数据行业的发展,越来越多的企业选择Kafka作为内部总线中间件,小编就介绍一些相关脚本的简单使用
工具/原料
1
Kafka
2
大数据
3
Hadoop
方法/步骤
1
使用脚本./kafka-topics.sh --topic demo1 --zookeeper 172.16.140.84:2181 --create --partitions 1 --replication-factor 1 创建主题:topic,用于消费者进行消息订阅,topic的名字为demo1,zookeeper的ip以及端口号,partitions代表分区数,replication-factor代表副泥泪本数
2
使用脚本./kafka-topics.sh --zookeeper 172.16.140.84:2181 --list 查看topic的总争激体信息
4
使用脚本 ./kafka-topics.sh --zookeeper 172.16.140.84:2181 --alter --topic demo1 --partitions 3 强睡蹲 将名为demo1的topic的分区数修改为3
5
查看是否修改生效
6
使用脚本./kafka-console-producer.sh --broker-list 172.16.140.84:9092 --topic demo1 启动Kafka的producer客户端向demo1中发送数据
7
使用脚本./kafka-console-consumer.sh --topic demo1 --bootstrap-server 172.16.140.84:9092 订阅消费demo1中的数据
注意事项
使用Kafka脚本的前提是安装号Kafka进入到bin目录下