kafka安装配置及使用说明.doc

上传人:F****n 文档编号:97898662 上传时间:2019-09-07 格式:DOCX 页数:56 大小:750.40KB
返回 下载 相关 举报
kafka安装配置及使用说明.doc_第1页
第1页 / 共56页
kafka安装配置及使用说明.doc_第2页
第2页 / 共56页
kafka安装配置及使用说明.doc_第3页
第3页 / 共56页
kafka安装配置及使用说明.doc_第4页
第4页 / 共56页
kafka安装配置及使用说明.doc_第5页
第5页 / 共56页
点击查看更多>>
资源描述

《kafka安装配置及使用说明.doc》由会员分享,可在线阅读,更多相关《kafka安装配置及使用说明.doc(56页珍藏版)》请在金锄头文库上搜索。

1、Kafka安装配置及使用说明(铁树2018-08-08)(Windows平台,5个分布式节点,修改消息大小,调用程序范例)1 安装配置采用5台服务器作为集群节点,IP地址为:XX.XX.0.12-XX.XX.0.16.每台机器依次安装配置JDK、zookeeper、kafka,先安装完一台机器,然后拷贝到其他机器,再修改配置文件。1.1 JDK安装配置JDK版本:jdk1.7.0_51_x64解压版(jdk1.7.0_51_x64.rar)解压到C盘kafka目录下,如图所示。设置环境变量:JAVA_HOME:C:kafkajdk1.7.0_51_x64PATH:C:kafkajdk1.7.0

2、_51_x64bin1.2 zookeeper安装配置1.2.1 解压安装zookeeper版本:3.4.12 (zookeeper-3.4.12.tar.gz)解压到C盘kafka目录下,如图所示。1.2.2 创建zookeeper数据目录和日志目录zkdata #存放快照 C:kafkazookeeper-3.4.12zkdatazkdatalog#存放日志C:kafkazookeeper-3.4.12zkdatalog1.2.3 修改配置文件进入到“C:kafkazookeeper-3.4.12”目录下的conf目录中,复制zoo_sample.cfg(官方提供的zookeeper的样板

3、文件),重命名为zoo.cfg(官方指定的文件命名规则)。默认内容:修改后配置文件为:# The number of milliseconds of each ticktickTime=2000# The number of ticks that the initial # synchronization phase can takeinitLimit=10# The number of ticks that can pass between # sending a request and getting an acknowledgementsyncLimit=5# the directory

4、 where the snapshot is stored.# do not use /tmp for storage, /tmp here is just # example sakes.dataDir=C:/kafka/zookeeper-3.4.12/zkdatadataLogDir=C:/kafka/zookeeper-3.4.12/zkdatalog# the port at which the clients will connectclientPort=12181server.1=XX.XX.0.12:12888:13888server.2=XX.XX.0.13:12888:13

5、888server.3=XX.XX.0.14:12888:13888server.4=XX.XX.0.15:12888:13888server.5=XX.XX.0.16:12888:13888# the maximum number of client connections.# increase this if you need to handle more clients#maxClientCnxns=60# Be sure to read the maintenance section of the # administrator guide before turning on auto

6、purge.# http:/zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance# The number of snapshots to retain in dataDirautopurge.snapRetainCount=100# Purge task interval in hours# Set to 0 to disable auto purge featureautopurge.purgeInterval=24配置文件解释:#tickTime:这个时间是作为 Zookeeper 服务器之间或客户端与服务器

7、之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。#initLimit:这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 10个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 10*2000=20 秒#syncLimit:这个配置项标识 Leader 与Fol

8、lower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是5*2000=10秒#dataDir:快照日志的存储路径#dataLogDir:事物日志的存储路径,如果不配置这个那么事物日志会默认存储到dataDir制定的目录,这样会严重影响zk的性能,当zk吞吐量较大的时候,产生的事物日志、快照日志太多#clientPort:这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。修改他的端口改大点通过配置 autopurge.snapRetainCount 和 autopurge.p

9、urgeInterval 这两个参数能够实现定时清理了。这两个参数都是在zoo.cfg中配置的:autopurge.purgeInterval这个参数指定了清理频率,单位是小时,需要填写一个1或更大的整数,默认是0,表示不开启自己清理功能。autopurge.snapRetainCount这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。1.2.4 创建myid文件在“C:kafkazookeeper-3.4.12zkdata”目录下,创建myid文件(无后缀名),内容为对应IP地址的主机号。如server.1则内容为1。1.3 Kafka安装配置1.3.1 解压

10、安装kafka 版本:kafka1.1.1(kafka_2.11-1.1.1.tgz)解压到C盘kafka目录下,如图所示。1.3.2 创建消息目录kafkalogs :C:kafkakafka_2.11-1.1.1kafkalogs1.3.3 修改配置文件打开C:kafkakafka_2.11-1.1.1config server.properties实际的修改项为:broker.id=1listeners=PLAINTEXT:/:19092log.dirs= C:/kafka/kafka_2.11-1.1.1/kafkalogs#在log.retention.hours=168 下面新增下

11、面三项(消息大小最大1GB)message.max.byte=replica.fetch.max.bytes=log.segment.bytes=default.replication.factor=2#设置zookeeper的连接端口zookeeper.connect=XX.XX.0.12:12181,XX.XX.0.13:12181,XX.XX.0.14:12181,XX.XX.0.15:12181,XX.XX.0.16:12181配置说明:broker.id=0 #当前机器在集群中的唯一标识,和zookeeper的myid性质一样port=19092 #当前kafka对外提供服务的端口默

12、认是9092host.name=192.168.7.100 #这个参数默认是关闭的,在0.8.1有个bug,DNS解析问题,失败率的问题。work.threads=3 #这个是borker进行网络处理的线程数num.io.threads=8 #这个是borker进行I/O处理的线程数log.dirs=/opt/kafka/kafkalogs/ #消息存放的目录,这个目录可以配置为“,”逗号分割的表达式,上面的num.io.threads要大于这个目录的个数这个目录,如果配置多个目录,新创建的topic他把消息持久化的地方是,当前以逗号分割的目录中,那个分区数最少就放那一个socket.send

13、.buffer.bytes= #发送缓冲区buffer大小,数据不是一下子就发送的,先回存储到缓冲区了到达一定的大小后在发送,能提高性能socket.receive.buffer.bytes= #kafka接收缓冲区大小,当数据到达一定大小后在序列化到磁盘socket.request.max.bytes= #这个参数是向kafka请求消息或者向kafka发送消息的请请求的最大数,这个值不能超过java的堆栈大小num.partitions=1 #默认的分区数,一个topic默认1个分区数log.retention.hours=168 #默认消息的最大持久化时间,168小时,7天message.

14、max.byte= #消息保存的最大值5Mdefault.replication.factor=2 #kafka保存消息的副本数,如果一个副本失效了,另一个还可以继续提供服务replica.fetch.max.bytes= #取消息的最大字节数log.segment.bytes= #这个参数是:因为kafka的消息是以追加的形式落地到文件,当超过这个值的时候,kafka会新起一个文件log.retention.check.interval.ms= #每隔毫秒去检查上面配置的log失效时间(log.retention.hours=168 ),到目录查看是否有过期的消息如果有,删除log.clea

15、ner.enable=false #是否启用log压缩,一般不用启用,启用的话可以提高性能zookeeper.connect=192.168.7.100:12181,192.168.7.101:12181,192.168.7.107:1218 #设置zookeeper的连接端口1.4 其他节点配置将安装以上配置好的目录c:kafka拷贝到其他节点的c盘目录,并修改如下配置。1、JAVA环境变量:JAVA_HOME:C:kafkajdk1.7.0_51_x64PATH:C:kafkajdk1.7.0_51_x64bin2、zookeeper的myidC:kafkazookeeper-3.4.12zkdatamyid,修改为对应的数值XX.XX.0.12:1XX.XX.0.13:2XX.XX.0.14:3XX.XX.0.15:4XX.XX.0.16:53、kafka配置C:kafkakafka_2.11-1.1.1config server.

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 教学/培训

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号