为了账号安全,请及时绑定邮箱和手机立即绑定

Kafka安装启动入门教程

标签:
Spark

转载请务必注明原创地址为:https://dongkelun.com/2018/05/21/kafkaConf/

前言

本文讲如何安装启动kafka,并进行测试,其中zookeepr是kafka自带的,本文基本按照官网文档进行安装启动的,并提出可能会出现的问题。官方文档:http://kafka.apache.org/quickstart
本文虚拟机系统:centos7,不过其他版本的Linux系统是一样的~

1、下载

可直接在官网下载对应的版本http://kafka.apache.org/downloads,我下载的是二进制版的,由于我的scala版本是2.11,所以下载kafka_2.11-1.1.0.tgz,大家可以根据自己的实际情况选择对应的版本。执行以下命令即可下载到本地了。

wget http://mirrors.tuna.tsinghua.edu.cn/apache/kafka/1.1.0/kafka_2.11-1.1.0.tgz

2、解压到指定目录

tar -xzf kafka_2.11-1.1.0.tgz -C /opt/

3、启动服务

3.1 启动zookeeper

kafka用到zookeeper,因此如果您的机器上没有zookeeper服务,则需要先启动zookpeer服务,本文使用kafka自带的zookeeper。

cd /opt/kafka_2.11-1.1.0/
bin/zookeeper-server-start.sh config/zookeeper.properties


因日志较多,所以只给出前几行信息和最后一行成功的信息

[2018-05-21 12:17:44,461] INFO Reading configuration from: config/zookeeper.properties (org.apache.zookeeper.server.quorum.QuorumPeerConfig)
[2018-05-21 12:17:44,472] INFO autopurge.snapRetainCount set to 3 (org.apache.zookeeper.server.DatadirCleanupManager)
...
[2018-05-21 12:17:44,844] INFO binding to port 0.0.0.0/0.0.0.0:2181 (org.apache.zookeeper.server.NIOServerCnxnFactory)

可以看到zookeeper服务的端口为2181

3.2 启动kafka服务

打开第二个终端

bin/kafka-server-start.sh config/server.properties
[2018-05-21 12:21:07,901] INFO Registered kafka:type=kafka.Log4jController MBean (kafka.utils.Log4jControllerRegistration$)
[2018-05-21 12:21:09,417] INFO starting (kafka.server.KafkaServer)
[2018-05-21 12:21:09,419] INFO Connecting to zookeeper on localhost:2181 (kafka.server.KafkaServer)
...
[2018-05-21 12:21:15,955] INFO [KafkaServer id=0] started (kafka.server.KafkaServer)

其中kafka的端口为9092,在下面这条信息可以看到

INFO Registered broker 0 at path /brokers/ids/0 with addresses: ArrayBuffer(EndPoint(ambari.master.com,9092,ListenerName(PLAINTEXT),PLAINTEXT)) (kafka.zk.KafkaZkClient)

4、创建一个主题

打开第三个个终端

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
Created topic "test".

可以通过list topic命令查看所有的主题

bin/kafka-topics.sh --list --zookeeper localhost:2181
test

或者,您也可以将代理配置为在发布不存在的主题时自动创建主题,而不是手动创建主题。

5、发送消息

Kafka带有一个命令行客户端,它将从文件或标准输入中获取输入,并将其作为消息发送到Kafka集群。默认情况下,每行将作为单独的消息发送。
启动生产者

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

输入几条消息发送到服务器

>This is a message
>This is another message

[图片上传失败...(image-23876a-1531322761514)]

6、启动消费者

消费者可以将消息转储到标准输出
打开第四个个终端

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning

然后就可以在命令行看到生产者发送的消息了

This is a message
This is another message

[图片上传失败...(image-f8324f-1531322761514)]

7、spark远程连接kafka

因为我是用spark进行开发的,所以此时就想测试一下,这样配置,用spark程序在celipse里是否可以获取到kafka的数据(我之前使用ambari搭建的kafka进行测试的),程序可参考Spark Streaming连接Kafka入门教程,但是运行程序发现并不能获取到kafka对应topic里的消息。
几次尝试,发现修改下面的配置即可

vim config/server.properties
listeners=PLAINTEXT://192.168.44.129:9092

其中kafka默认的端口就是9092,不同的地方是端口前面加上了ip(192.168.44.129),我想默认的是localhost,spark程序远程通过ip地址和localhost对应不上,所以获取不到kafka的消息,注意在第8部分:配置多个broker的集群,为了和官方文档一致,并没有加上ip,大家可根据需要自行修改。
这样的话就可以在程序里获取到历史消息了,但是如果想新产生几条数据的话,启动命令需要将localhost改为192.168.44.128(ambari安装的kafka启动命令localhost就没事,而且远程也可以获取到kafka的数据,因为我只是用来测试,所以就没深入研究~),否则会产生异常,即:

bin/kafka-console-producer.sh --broker-list 192.168.44.129:9092 --topic testbin/kafka-console-consumer.sh --bootstrap-server 192.168.44.129:9092 --topic test --from-beginning

对ambari有兴趣的可以参考centos7 ambari2.6.1.5+hdp2.6.4.0 大数据集群安装部署

8、设置多个broker的集群

到目前为止,我们设置的是单个broker,这样并不好,下面我们还是在这一台机器上设置三个节点。

8.1 为每个broker创建一个配置文件

cp config/server.properties config/server-1.properties
cp config/server.properties config/server-2.properties

然后用vim修改
config/server-1.properties:

broker.id=1listeners=PLAINTEXT://:9093log.dir=/tmp/kafka-logs-1

config/server-2.properties:

broker.id=2listeners=PLAINTEXT://:9094log.dir=/tmp/kafka-logs-2

(其中listeners需要把前面的注释也就是#去掉)
broker.id是集群中每个节点唯一且永久的名称,因为我们实在同一个机器上运行这些文件,所以为了避免端口冲突和数据彼此覆盖,我们必须重写它的端口和日志目录。

8.2 启动新节点

我们已经启动了一个节点了(broker.id=0),现在启动两个新节点

bin/kafka-server-start.sh config/server-1.properties &
bin/kafka-server-start.sh config/server-2.properties &

8.3 创建三个副本的新主题:

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic

运行describe topics查看主题的信息

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
Topic:my-replicated-topic   PartitionCount:1    ReplicationFactor:3 Configs:
    Topic: my-replicated-topic  Partition: 0    Leader: 0   Replicas: 0,1,2 Isr: 0,1,2

下面解释一下这些输出,第一行是所有分区的摘要,另外的每一行是一个分区的信息,因为这个主题只有一个分区,所以只有一行。
leader:负责所有读和写,是这个分区从所有节点随机选择的。
replicas:是为这个分区复制日志的节点列表,无论他们是领导者还是他们现在还活着。
isr:是同步副本的集合,是还活着的副本的自己并被leader捕获(caught-up)。

在我的示例中节点0是该主题唯一分区的leader。
我们可以用相同的命令查看之前创建的主题 test

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test
Topic:test  PartitionCount:1    ReplicationFactor:1 Configs:
    Topic: test Partition: 0    Leader: 0   Replicas: 0 Isr: 0

8.4 发送消息

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic
>my test message 1
>my test message 2

8、5 消费消息

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic my-replicated-topic
my test message 1
my test message 2

8.6 测试容错及发现的问题

我的leader是节点0,现在kill掉

ps aux | grep server.properties

得到对应的进程号

root      16557 34.6  8.4 4322904 326472 pts/1  Sl+  05:30 ...
...2.11-1.1.0/bin/../libs/zookeeper-3.4.10.jar kafka.Kafka config/server.properties

root      11040  0.0  0.0 112648   976 pts/4    R+   03:04   0:00 grep --color=auto server-0.properties

然后kill掉第一个(第二个是grep命令本身的)

kill -9 16557

kill掉之后再描述下topic

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
Topic:my-replicated-topic   PartitionCount:1    ReplicationFactor:3 Configs:
    Topic: my-replicated-topic  Partition: 0    Leader: 1   Replicas: 0,1,2 Isr: 1,2

现在leader已经切换到节点1,Isr也只有节点1和2了

官网上说:但是即使原来的leader失败,这些消息仍然可用于消费,但是下面又有一些坑
首先执行下面这句

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic my-replicated-topic

发现会报错

[2018-05-22 03:55:13,304] WARN [Consumer clientId=consumer-1, groupId=console-consumer-29320] Connection to node -1 could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)

原因是节点0已经kill掉了,也就是端口9092已经不能用了,要换成别的端口,所以把上面的命令的端口换成节点1或者2,再执行,发现不报错了,但是没有得任何数据,即使再生成几条消息,也是不报错,但没有数据。
于是想是不是因为节点0没有加 &,加上 &重新启动节点0,新建主题,直到找到leader为节点0的,再kill掉节点0发现还是同样的问题,但是官网上说是可以的...
找一个leader不是节点0的主题进行测试,比如官网例子上的节点1,kill掉节点1,之前的leader由1变为0了,再消费测试,发现不管是新增的消息还是历史消息都可以得到,至于这是不是官网的bug及如何解决这个bug(可能还需要修改其他配置),目前我还没找到,如果找到我会更新的。



作者:董可伦
链接:https://www.jianshu.com/p/2425b9b34165


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消