一、zookeeper概述:
zookeeper:是一个开源的分布式架构。提供协调服务(Apache项目)
1、zookeeper工作机制:
主要职责:存储和管理数据。分布式节点上的服务接收观察者的注册。一旦这些分布式节点上的数据发生变化,由zookeeper来负责通知分布式节点上的服务
zookeeper分为领导者和被迫者 leader follower 组成的集群
只要有一半以上的集群存活,zookeeper集群就可以正常工作。适用于安装奇数台的服务集群
2、zookeeper主要作用:
全局数据一致,每个zookeeper节点都保存相同的数据。维护监控服务的数据一致
3、zookeeper特性:
- Zookeeper:一个领导者(Leader),多个跟随者(Follower)组成的集群。
- Zookeepe集群中只要有半数以上节点存活,Zookeeper集群就能正常服务。所以Zookeeper适合安装奇数台服务器。
- 全局数据一致:每个Server保存一份相同的数据副本,Client无论连接到哪个Server,数据都是一致的。
- 更新请求顺序执行,来自同一个Client的更新请求按其发送顺序依次执行,即先进先出。
- 数据更新原子性,一次数据更新要么成功,要么失败。
- 实时性,在一定时间范围内,Client能读到最新数据。
4、zookeeper的应用场景:
- 统一命名服务:在分布式的环境下,对所有的应用和服务进行统一命名
- 统一配置管理:配置文件同步,kafka的配置文件被修改,可以快速同步到其他节点
- 统一集群管理:实时掌握所有节点的状态
- 服务器动态上下限
- 负载均衡,把访问的服务器的数据,发送到访问最少的服务器处理客户端的请求
5、领导者和追随者:zookeeper的选举机制
三台服务器:A B C
A先启动,发起第一次选举,投票投给自己,有3台但是自己只有1票,不满足半数,A的状态的looking
B启动,再发起一次选举,A和B分别投自己一票,交换选票信息,A发现B的myid比A大,A的这一票会转而投给B。A0 B2,没有半数以上的结果,A B会进入looking(B有可能成为leader)
C启动,C的myid若最大,A和B都会把票都会投给C 这时A B C都会把票投给C,A0 B0 C3
1、服务器ID大的胜出
2、EPOCH大,直接胜出
EPOCH是每个leader任期的代号,没有leader,大家的逻辑地位是相同的,没投完一次之后,数据是递增的。
事务ID是用来标识服务器的每一次变更,每变更一次,事务ID变化一次
服务器ID,zookeeper集群中都有一个ID,每台机器不重复,和myid保持一致
二、zookeeper安装部署:
部署zookeeper集群(三台都安装zookeeper+kafka,最少2核4G)
20.0.0.24
20.0.0.25
20.0.0.26
yum install –y java-1.8.0-openjdk java-1.8.0-openjdk–devel
tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz
mv apache-zookeeper-3.5.7-bin /opt/zookeeper
tickTime=2000 #通信心跳时间,Zookeeper服务器与客户端心跳时间,单位毫秒
initLimit=10 #Leader和Follower初始连接时能容忍的最多心跳数(tickTime的数量),这里表示为10*2s
syncLimit=5 #Leader和Follower之间同步通信的超时时间,这里表示如果超过5*2s,Leader认为Follwer死掉,
dataDir=/opt/zookeeper/data ●修改,指定保存Zookeeper中的数据的目录,目录需要单独创建
dataLogDir=/opt/zookeeper/logs ●添加,指定存放日志的目录,目录需要单独创建
server.1=20.0.0.24:3188:3288
server.2=20.0.0.25:3188:3288
server.3=20.0.0.26:3188:3288
20.0.0.24:服务器的初始地址
3188:领导者和追随者之间交换信息的端口(内部通信的端口)
3288:一旦leader丢失响应,开启选举,3288就是用来执行选举时的服务器之间通信端口。
在每个节点的dataDir指定的目录下创建一个 myid 的文件,不同节点分配1、2、3
echo 1 > /opt/zookeeper/data/myid
echo 2 > /opt/zookeeper/data/myid
echo 3 > /opt/zookeeper/data/myid
三台节点全部配置
#description:Zookeeper Service Control Script
ZK_HOME=’/opt/zookeeper’
echo “———- zookeeper 启动 ————“
$ZK_HOME/bin/zkServer.sh start
;;
stop)
;;
$ZK_HOME/bin/zkServer.sh restart
;;
echo “———- zookeeper 状态 ————“
$ZK_HOME/bin/zkServer.sh status
;;
*)
echo “Usage: $0 {start|stop|restart|status}”
chmod +x /etc/init.d/zookeeper
分别启动 Zookeeper
三、消息队列:kafka
1、消息队列概述:
他也是一个中间键。在高并发环境下,同步请求来不及处理。来不及处理的请求会形成阻塞
比方说数据库就会形成行锁或者表锁。请求线程满了,超标了,too many connection,引发整个系统雪崩
1.1、消息队列的作用:
解耦:只要通信保证,其他的修改不影响整个集群,每个组件可以独立的扩展,修改,降低组件之间的依赖性。
耦合:在软件系统当中,修改一个组件需要修改所有其他组件,高度耦合
可恢复性:系统当中有一部分组件消失,不影响整个系统。也就是说在消息队列当中,即使有一个处理消息的进程失败,一旦恢复还可以重新加入到队列当中,继续处理消息
缓冲机制:可以控制和优化数据经过系统的时间和速度。解决生产消息和消费消息处理速度不一致的问题。
峰值的处理能力:消息队列在峰值的情况之下,能够顶住突发的访问压力。避免专门为了突发情况而对系统进行修改
异步通信:允许用户把一个消息放入队列,但是不立即处理,等用户想处理的时候在处理
1.2、消息队列的模式:
点对点 一对一 :消息的生产者发送消息到队列中,消费者从队列中提取消息,消费者提取完之后,队列中被提取的消息将会被移除。后续消费者不能再消费队列中的消息。消息队列可以有多个消费者,但是一个消息,只能由一个消费者提取
RABBITMQ
发布、订阅模式:一对多,观察者模式,消费者提取数据之后,队列当中的消息不会被清除
主题:topic topic类似于一个数据流管道,生产者把消息发布到主题,消费者从主题当中订阅数据。每一个主题都可以被分区,每个分区都有自己的偏移量。
分区:partition 每个主题都可以分成多个分区。每个分区是数据的有序子集,分区可以允许kafka进行水平拓展,以处理大量数据。消息在分区中按照偏移量存储,消费者可以独立读取每个分区的数据。
偏移量:是每个消息在分区中的唯一标识。消费者通过偏移量跟踪、获取、已读或者未读消息的位置,也可以通过提交偏移量来记录已处理的信息。
生产者:producer 生产者把数据发送到kafka的主题当中,负责写入消息
消费者:consumer 从主题当中读取数据,消费者可以是一个也可以是多个。每个消费者有一个唯一的消费者组ID,kafka通过消费者实现负载均衡和容错性
经纪人:broker 每个kafka节点都有一个broker,每个broker负责一台服务器,id唯一,存储主题分区中的数据,处理生产和消费者的请求。维护元数据(3.0之前,zookeeper维护。3.0之后自己管理元数据)
zookeeper负责保存元数据,元数据就是topic的相关信息(发布在哪台主机上,指定了多少分区,以及副本数,偏移量)
zookeeper会自建一个主题 __consumer_offsets
3.0之后不依赖zookeeper的核心就是元数据由kafka节点自己管理
1.3、kafka的工作流程:
四、 Kafka(2.7.0)的安装部署:
cd /opt/
mv kafka_2.13-2.7.0 kafka/
cp server.properties server.properties.bak
21行
broker的全局唯一编号,每个broker不能重复,因此要在其他机器上配置 broker.id=1、broker.id=2
31行
指定监听的IP和端口,如果修改每个broker的IP需区分开来,也可保持默认配置不用修改
42行
broker 处理网络请求的线程数量,一般情况下不需要去修改
45行
48行
socket.send.buffer.bytes=102400
51行
socket.receive.buffer.bytes=102400
54行
socket.request.max.bytes=104857600
60行
65行
topic在当前broker上的默认分区个数,会被topic创建时的指定参数覆盖
69行
num.recovery.threads.per.data.dir=1
103行
segment文件(数据文件)保留的最长时间,单位为小时,默认为7天,超时将被删除
110行
一个segment文件最大的大小,默认为 1G,超出将新建一个新的segment文件
Kafka 以日志文件的形式维护其数据,而这些日志文件被分割成多个日志段。当一个日志段达到指定的大小时,就会创建一个新的日志段。
123行
zookeeper.connect=20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181
export KAFKA_HOME=/opt/kafka
export PATH=$PATH:$KAFKA_HOME/bin
配置 kafka 启动脚本
#!/bin/bash
#description:Kafka Service Control Script
KAFKA_HOME=’/opt/kafka’
case $1 in
echo “———- Kafka 启动 ————“
${KAFKA_HOME}/bin/kafka-server–start.sh -daemon ${KAFKA_HOME}/config/server.properties
;;
stop)
${KAFKA_HOME}/bin/kafka-server–stop.sh
;;
$0 stop
$0 start
;;
status)
echo “———- Kafka 状态 ————“
count=$(ps -ef | grep kafka | egrep –cv “grep|$$”)
;;
*)
echo “Usage: $0 {start|stop|restart|status}”
esac
分别启动 Kafka
20.0.0.24 test1
20.0.0.25 test2
20.0.0.26 test3
cd /opt/kafka/bin
1、在kafka的bin目录下,是所有的kafka可执行命令文件
2、–zookeeper 指定的是zookeeper的地址和端口,保存kafka的元数据
3、–replication–factor 2 定义每个分区的副本数
4、partitions 3 指定主题的分区数
kafka-topics.sh —create –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 —replication–factor 2 —partitions 3 —topic test1
20.0.0.24:2181:定义集群服务器地址,如果有多个 IP 地址使用逗号分割,一般使用一个 IP 即可
—replication–factor:定义分区副本数,1 代表单副本,建议为 2
kafka-topics.sh —list –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181
kafka-topics.sh —describe –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181
kafka-topics.sh —describe –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 —topic test1
Leader:每个分区都有一个领导者(Leader),领导者负责处理分区的读写操作。
Replicas:每个分区可以有多个副本(Replicas),用于提供冗余和容错性。在上述输出中,Replica 3、1、2 分别对应不同的 Kafka broker。
Isr:ISR(In-Sync Replicas)表示当前与领导者保持同步的副本。
发布消息
kafka-console–producer.sh –broker-list 20.0.0.24:9092,20.0.0.25:9092,20.0.0.26:9092 —topic test1
消费消息
kafka-console–consumer.sh —bootstrap–server 20.0.0.24:9092,20.0.0.25:9092,20.0.0.26:9092 –topic test1
后接–from-beginning:会把主题中以往所有的数据都读取出来
__consumer_offsets 主题的作用是记录每个消费者组中每个消费者在每个分区上的偏移量。
这样,当消费者组中的消费者重新加入或者新的消费者加入时,它们可以从上次提交的偏移量处继续消费消息,
而不会重复消费或错过消息。
请注意,对于这个主题,配置为 Replication Factor 为 1 可能会对高可用性造成一些影响。
在生产环境中,通常会将 __consumer_offsets 主题的 Replication Factor 设置得更高,
修改分区数
kafka-topics.sh –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 –alter –topic test1 —partitions 6
kafka-topics.sh —delete –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 –topic test1
“Note: This will have no impact if delete.topic.enable is not set to true.”
是关于删除 Kafka 主题的一个重要提示。默认情况下,Kafka 集群禁用了主题删除操作,为了确保不会意外删除数据。
在 Kafka 中,要执行主题删除操作,需要确保 delete.topic.enable 配置项被设置为 true。
这个配置项决定了是否允许删除主题。如果没有设置或设置为 false,即使你执行了删除主题的命令,
实际上也不会删除主题,而只是标记主题为 “marked for deletion”。
在zookeeper中查看topic信息:
/zkCli.sh –server 192.168.233.30:2181
总结:
在kafka当中,收集保存kafka的元数据
- kafka消息队列,订阅发布模式
五、kafka3.4.1安装部署
但是命令有些区别,原因是不再依靠zookeeper传输数据了
kafka-topics.sh —create —bootstrap–server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 —replication-factor 2 —partitions 3 –topic test1
————————————————————————————-
—bootstrap–server:定义 bootstrap–server 集群服务器地址,如果有多个 IP 地址使用逗号分割,一般使用一个 IP 即可
—replication-factor:定义分区副本数,1 代表单副本,建议为 2
—partitions:定义分区数
–topic:定义 topic 名称
————————————————————————————-
kafka-topics.sh —list —bootstrap–server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092
//查看某个 topic 的详情
[root@test1 efak]# kafka-topics.sh —describe —bootstrap–server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092
Topic: test1 TopicId: ihBKilk6SNyP7RrVHygCog PartitionCount: 3 ReplicationFactor: 2 Configs: segment.bytes=1073741824
Topic: test1 Partition: 0 Leader: 2 Replicas: 2,1 Isr: 2,1
Topic: test1 Partition: 1 Leader: 1 Replicas: 1,0 Isr: 1,0
Topic: test1 Partition: 2 Leader: 0 Replicas: 0,2 Isr: 0
Leader:每个分区都有一个领导者(Leader),领导者负责处理分区的读写操作。
Replicas:每个分区可以有多个副本(Replicas),用于提供冗余和容错性。
在上述输出中,Replica 0、1、2 分别对应不同的 Kafka broker。
Isr:ISR(In-Sync Replicas)表示当前与领导者保持同步的副本。
ISR 0、1、2 分别表示与领导者同步的副本。
//发布消息
kafka-console–producer.sh –broker-list 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 –topic test1
//消费消息
kafka-console–consumer.sh —bootstrap–server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 –topic test1 –from-beginning
————————————————————————————-
–from-beginning:会把主题中以往所有的数据都读取出来
————————————————————————————-
//修改分区数
kafka-topics.sh —bootstrap–server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 –alter –topic test1 —partitions 6
//删除 topic
kafka-topics.sh —delete –bootstrap-server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 –topic test1
六、ELK+filebeat+kafka的安装部署
部署 Zookeeper+Kafka 集群
zookeeper+kafka节点:
20.0.0.45
20.0.0.46
2.部署 Filebeat
output.kafka:
hosts: [“20.0.0.45:9092,20.0.0.46:9092”]
topic: “nginx“
启动 filebeat
nohup ./filebeat -e -c filebeat.yml > filebeat.out &
启动logstash:
systemctl start logstash.service
部署 ELK,在 Logstash 组件所在节点上新建一个 Logstash 配置文件
vim kafka.conf
input {
kafka {
bootstrap_servers => “192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092”
#kafka集群地址
topics => “nginx”
#拉取的kafka的指定topic
#传递给elasticsearch的数据额外增加kafka的属性数据
}
}
output {
hosts => [“192.168.233.12:9200″,”192.168.233.13:9200”]
index => “nginx_access-%{+YYYY.MM.dd}”
}
}
hosts => [“192.168.233.12:9200″,”192.168.233.13:9200”]
index => “nginx_error-%{+YYYY.MM.dd}”
}
}
}
#启动 logstash
logstash -f /opt/log/kafka.conf —path.data /opt/kafka1 &
在此之前要保证ES启动
systemctl restart elasticsearch
cd /opt/elasticsearch–head–master
去kafka看有没有创建topic(是filebeat操作的)
kafka-topics.sh —list –bootstrap-server 20.0.0.45:9092,20.0.0.46:9092
消费消息:
kafka-console–consumer.sh –bootstrap-server 20.0.0.45:9092,20.0.0.46:9092 –topic nginx –from-beginning
logstash也命中消息
原文地址:https://blog.csdn.net/koeda1/article/details/134765303
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.7code.cn/show_36028.html
如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除!