🔥码云GVP开源项目 12k star Uniapp+ElementUI 功能强大 支持多语言、二开方便! 广告
## 前提 * JDK已经安装好,建议JDK8。如果JDK7,可能无法正常使用G1 collector * 假设您已经安装好zookeeper集群并启动,如果没有,请参考[《zookeeper的安装》](http://www.zimug.com/2016/02/20/zookeeper%E7%9A%84%E5%AE%89%E8%A3%85/) ## 单机单点安装测试 ### 第一步:下载解压 下载地址 :http://kafka.apache.org/downloads.html ``` > tar -xzf kafka_2.11-0.10.0.0.tgz > cd kafka_2.11-0.10.0.0 ``` ### 第二步:启动kafka-server ``` > bin/kafka-server-start.sh config/server.properties ``` 关于server.properties配置文件请参考[《server.properties配置文件参数说明》](http://www.kancloud.cn/hanxt/elk/159233) ### 第三步:新建一个topic 创建一个名为“test”的Topic,只有一个分区和一个备份: ``` > bin/kafka-topics.sh --create \ --zookeeper localhost:2181 \ --replication-factor 1 --partitions 1 \ --topic test ``` 创建好之后,可以通过运行以下命令,查看已创建的topic信息: ``` > bin/kafka-topics.sh --list --zookeeper localhost:2181 test ``` ### 第四步:发送消息 Kafka提供了一个命令行的工具,可以从输入文件或者命令行中读取消息并发送给Kafka集群。每一行是一条消息。运行producer(生产者),然后在控制台输入几条消息到服务器。 ``` > bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test This is a message This is another message ``` ### 第五步:消费消息 Kafka也提供了一个消费消息的命令行工具,将存储的信息输出出来。 ``` > bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning This is a message This is another message ``` 如果你有2台不同的终端上运行上述命令,那么当你在运行生产者时,消费者就能消费到生产者发送的消息。 所有的命令行工具有很多的选项,你可以查看文档来了解更多的功能。 ## 单机多点安装 ### 第六步:设置有多个broker的集群(单机) 到目前,我们只是单一的运行一个broker,,没什么意思。对于Kafka,一个broker仅仅只是一个集群的大小, 所有让我们多设几个broker.**注意:broker.id从0开始递增,每个broker实例必须唯一** 首先为每个broker创建一个配置文件: ``` > cp config/server.properties config/server-1.properties > cp config/server.properties config/server-2.properties ``` 现在编辑这些新建的文件,设置以下属性: ``` config/server-1.properties: broker.id=1 port=9093 log.dir=/tmp/kafka-logs-1 config/server-2.properties: broker.id=2 port=9094 log.dir=/tmp/kafka-logs-2 ``` broker.id是集群中每个节点的唯一永久的名称,我们修改端口和日志分区是因为我们现在在**同一台机器上**运行,我们要防止broker改写同一端口上注册的数据。 我们已经运行了zookeeper和刚才的一个kafka节点,所有我们只需要在启动2个新的kafka节点。 ``` > bin/kafka-server-start.sh config/server-1.properties & ... > bin/kafka-server-start.sh config/server-2.properties & ... ``` 现在,我们创建一个新topic,把备份设置为:3 ``` > bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic ``` 好了,现在我们已经有了一个集群了,我们怎么知道每个broker在做什么呢? 运行命令“describe topics” ``` > bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic Topic:my-replicated-topic PartitionCount:1 ReplicationFactor:3 Configs: Topic: my-replicated-topic Partition: 0 Leader: 1 Replicas: 1,2,0 Isr: 1,2,0 ``` 这是一个解释输出,第一行是所有分区的摘要,下面的每行提供一个分区信息,因为我们只有一个分区,所有只有一行。 * "leader":该节点负责所有指定的分区读和写,每个节点都可能领导一个随机选择的分区。 * "replicas":备份的节点,无论该节点是否活着,只是显示。 * "isr":备份节点的集合,也就是活着的节点集合。 我们运行这个命令,看看一开始我们创建的那个节点。 ``` > bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test Topic:test PartitionCount:1 ReplicationFactor:1 Configs: Topic: test Partition: 0 Leader: 0 Replicas: 0 Isr: 0 ``` 没有惊喜,原始主题没有Replicas,所以是0。 让我们来发布一些信息在新的topic上: ``` > bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic ... my test message 1 my test message 2 ``` 现在,消费这些消息。 ``` > bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic ... my test message 1 my test message 2 ``` 我们要测试集群的容错,kill掉leader,Broker1作为当前的leader,也就是kill掉Broker1。 ``` > ps | grep server-1.properties 7564 ttys002 0:15.91 /System/Library/Frameworks/JavaVM.framework/Versions/1.6/Home/bin/java... > kill -9 7564 ``` 备份节点之一成为新的leader,而broker1已经不在同步备份集合里了。 ``` > bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic Topic:my-replicated-topic PartitionCount:1 ReplicationFactor:3 Configs: Topic: my-replicated-topic Partition: 0 Leader: 2 Replicas: 1,2,0 Isr: 2,0 ``` 但是,消息没仍然没丢: ``` > bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic ... my test message 1 my test message 2 ```