这篇文章将为大家详细讲解有关Kafka 1.0.0的安装使用以及命令是什么,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。
0.三台机器 data133,data135,data136 1.修改配置文件 server.properties broker.id=1 #全局唯一 log.dirs=/data/kafka/log #kafka存放数据的目录 zookeeper.connect=data135:2181,data133:2181,data136:2181 port=9092 host.name=data136 然后分发到另两台机器 data133:broker.id=2 host.name=data133 data135:broker.id=2 host.name=data135 2.后台 2.后台启动kafka server bin目录下 nohup ./kafka-server-start.sh ../config/server.properties & 3.创建topic ./kafka-topics.sh --create --topic "test1" --partitions 5 --replication-factor 1 --zookeeper data133 4.通过shell脚本生产消费 生产:./kafka-console-producer.sh -topic test --broker-list data133:9092,data135:9092,data136:9092 消费:./kafka-console-consumer.sh --topic test --from-beginning --bootstrap-server data133:9092 5.显示所有的topic ./kafka-topics.sh --list --zookeeper bigdata03 --------------------------------------------------------------- flume整合kafka,flume的配置文件 kafka-dest.conf # Name the components on this agent a1.sources=sr1 a1.channels=ch2 a1.sinks=si1 # Describe/configure the source a1.sources.sr1.type=exec a1.sources.sr1.command=tail -F /home/ch.log a1.sources.sr1.batchSize=50 # Describe the sink a1.sinks.si1.type=org.apache.flume.sink.kafka.KafkaSink a1.sinks.si1.kafka.bootstrap.servers=bigdata01:9092,bigdata02:9092,bigdata03:9092 a1.sinks.si1.kafka.topic=test7 a1.sinks.si1.flumeBatchSize=100 a1.sinks.si1.kafka.producer.acks=1 a1.sinks.si1.kafka.producer.partitioner.class=org.apache.kafka.clients.producer.internals.DefaultPartitioner # Use a channel which buffers events in memory a1.channels.ch2.type = memory a1.channels.ch2.capacity = 1000000 a1.channels.ch2.transactionCapacity = 1000 a1.sources.sr1.channels=ch2 a1.sinks.si1.channel=ch2 #the command to start a agent #bin/flume-ng agent -n a1 -c conf -f conf/fkafka-dest.conf
关于Kafka 1.0.0的安装使用以及命令是什么就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
原创文章,作者:506227337,如若转载,请注明出处:https://blog.ytso.com/tech/opensource/223795.html