目录

一、zookeeper概述:

1、zookeeper工作机制:

2、zookeeper主要作用:

3、zookeeper特性:

4、zookeeper的应用场景:

5、领导者和追随者:zookeeper的选举机制

二、zookeeper安装部署:

三、消息队列:kafka

1、消息队列概述:

1.1、消息队列的作用:

1.2、消息队列的模式:

1.3、kafka的工作流程:

四、 Kafka(2.7.0)的安装部署:

五、kafka3.4.1安装部署

六、ELK+filebeat+kafka的安装部署


一、zookeeper概述

zookeeper:是一个开源分布式架构。提供协调服务(Apache项目

1、zookeeper工作机制

基于观察者模式设计分布式服务管理架构

主要职责存储管理数据分布式节点上的服务接收观察者注册。一旦这些分布式节点上的数据发生变化,由zookeeper负责通知分布式节点上的服务

总结zookeeper = 文件系统 + 通知机制

zookeeper分为领导者和被迫者 leader follower 组成的集群

只要有一半以上的集群存活zookeeper集群就可以正常工作。适用于安装奇数台的服务集群

2、zookeeper主要作用

全局数据一致,每个zookeeper节点保存相同数据。维护监控服务的数据一致

3、zookeeper特性

  1. Zookeeper一个领导者(Leader),多个跟随者(Follower)组成的集群。
  2. Zookeepe集群中只要有半数以上节点存活,Zookeeper集群就能正常服务。所以Zookeeper适合安装奇数服务器
  3. 全局数据一致:每个Server保存一份相同的数据副本,Client无论连接到哪个Server,数据都是一致的。
  4. 更新请求顺序执行,来自同一个Client更新请求按其发送顺序依次执行,即先进先出。
  5. 数据更新原子性,一次数据更新要么成功,要么失败
  6. 实时性,在一定时范围内,Client能读到最新数据。

4、zookeeper的应用场景

  1. 统一命名服务:在分布式环境下,对所有的应用和服务进行统一命名
  2. 统一配置管理配置文件同步kafka配置文件修改可以快速同步到其他节点
  3. 统一集群管理实时掌握所有节点的状态
  4. 服务器动态上下限
  5. 负载均衡,把访问服务器的数据,发送访问最少的服务器处理客户端请求

5、领导者和追随者:zookeeper的选举机制

三台服务器:A B C

A先启动,发起第一次选举,投票投给自己,有3台但是自己只有1票,不满足半数,A的状态looking

B启动,再发起一次选举,A和B分别投自己一票,交换选票信息,A发现B的myid比A大,A的这一票会转而投给B。A0 B2,没有半数以上的结果,A B会进入looking(B有可能成为leader

C启动,C的myid最大,A和B都会把票都会投给C 这时A B C都会把票投给C,A0 B0 C3

C的状态变为leader A和B会变成follower

只要leader确定,后续的服务器都是追随者。

只有两种情况会开启选举机制

  1. 初始化到达情况下会产生选举
  2. 服务器之间leader丢失连接状态

leader已存在,建立连接即可

leader不存在

1、服务器ID大的胜出

2、EPOCH大,直接胜出

3、EPOCH相同事务ID大的胜出

EPOCH是每个leader任期的代号,没有leader,大家逻辑地位是相同的,没投完一次之后,数据是递增的。

事务ID是用来标识服务器的每一次变更,每变更一次事务ID变化一次

服务器ID,zookeeper集群中都有一个ID,每台机器重复,和myid保持一致

service zookeeper restart

service kafka restart

二、zookeeper安装部署

部署zookeeper集群(三台都安装zookeeper+kafka,最少2核4G)

20.0.0.24

20.0.0.25

20.0.0.26

关闭防火墙安全机制

升级java环境

yum instally java-1.8.0-openjdk java-1.8.0-openjdkdevel

安装 Zookeeper

cd /opt

tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz

mv apache-zookeeper-3.5.7-bin /opt/zookeeper

修改配置文件

三台节点上同步操作

cd /opt/zookeeper/conf/

cp zoo_sample.cfg zoo.cfg

vim zoo.cfg

tickTime=2000   #通信心跳时间,Zookeeper服务器与客户端心跳时间,单位毫秒

initLimit=10    #Leader和Follower初始连接时能容忍的最多心跳数(tickTime的数量),这里表示为10*2s

syncLimit=5     #Leader和Follower之间同步通信超时时间,这里表示如果超过5*2s,Leader认为Follwer死掉,

                并从服务器列表中删除Follwer

dataDir=/opt/zookeeper/data      ●修改指定保存Zookeeper中的数据的目录,目录需要单独创建

dataLogDir=/opt/zookeeper/logs   ●添加指定存放日志的目录,目录需要单独创建

clientPort=2181   #客户端连接端口

#最后一行添加集群信息

server.1=20.0.0.24:3188:3288

server.2=20.0.0.25:3188:3288

server.3=20.0.0.26:3188:3288

1:每个zookeeper集群的初始myid

20.0.0.24:服务器的初始地址

3188:领导者和追随者之间交换信息的端口内部通信端口

3288:一旦leader丢失响应开启选举,3288就是用来执行选举时的服务器之间通信端口

在每个节点上创建数据目录和日志目录

mkdir /opt/zookeeper/data

mkdir /opt/zookeeper/logs

创建myid文件

在每个节点的dataDir指定的目录下创建一个 myid 的文件,不同节点分配1、2、3

echo 1 > /opt/zookeeper/data/myid

echo 2 > /opt/zookeeper/data/myid

echo 3 > /opt/zookeeper/data/myid

配置 Zookeeper 启动脚本

三台节点全部配置

vim /etc/init.d/zookeeper

#!/bin/bash

#chkconfig:2345 20 90

#description:Zookeeper Service Control Script

ZK_HOME=’/opt/zookeeper’

case $1 in

start)

echo “———- zookeeper 启动 ————“

$ZK_HOME/bin/zkServer.sh start

;;

stop)

echo “———- zookeeper 停止 ————“

$ZK_HOME/bin/zkServer.sh stop

;;

restart)

echo “———- zookeeper 重启 ————“

$ZK_HOME/bin/zkServer.sh restart

;;

status)

echo “———- zookeeper 状态 ————“

$ZK_HOME/bin/zkServer.sh status

;;

*)

    echo “Usage: $0 {start|stop|restart|status}”

esac

设置开机自启

chmod +x /etc/init.d/zookeeper

chkconfigadd zookeeper

分别启动 Zookeeper

service zookeeper start

查看当前状态(leader、follower)

service zookeeper status

三、消息队列:kafka

1、消息队列概述

为什么引入消息队列(MQ)

他也是一个中间键。在高并发环境下,同步请求来不及处理。来不及处理的请求会形成阻塞

比方说数据库就会形成行锁或者表锁。请求线程满了,超标了,too many connection,引发整个系统雪崩

1.1、消息队列作用

异步处理请求。流量削峰,应用解耦。

解耦:只要通信保证,其他的修改影响整个集群,每个组件可以独立扩展修改,降低组件之间依赖性。

耦合软件系统当中修改一个组件需要修改所有其他组件高度耦合

低度耦合改其中一个对其他组件影响不大,无需修改所有

恢复性:系统当中有一部分组件消失,不影响整个系统。也就是说在消息队列当中,即使有一个处理消息进程失败,一旦恢复可以重新加入到队列当中,继续处理消息

缓冲机制可以控制优化数据经过系统的时间和速度解决生产消息和消费消息处理速度不一致的问题

峰值的处理能力消息队列在峰值的情况之下,能够顶住突发的访问压力。避免专门为了突发情况而对系统进行修改

异步通信允许用户把一个消息放入队列,但是不立即处理,等用户想处理的时候在处理

1.2、消息队列的模式

点对点 一对一 :消息的生产者发送消息到队列中消费者从队列中取消息,消费者提取完之后,队列中提取的消息将会被移除。后续消费者不能再消费队列中的消息。消息队列可以有多个消费者,但是一个消息,只能由一个消费者提取

RABBITMQ

发布订阅模式:一对多,观察者模式,消费者提取数据之后,队列当中的消息不会被清除

生产者发布一个消息到主题,所有消费者都是通过主题获取消息

主题topic  topic类似于一个数据流管道生产者把消息发布主题,消费者从主题当中订阅数据。每一个主题都可以被分区,每个分区都有自己的偏移量

分区partition 每个主题都可以分成多个分区。每个分区是数据的有序子集,分区可以允许kafka进行水平拓展,以处理大量数据。消息在分区中按照偏移量存储,消费者可以独立读取每个分区的数据。

偏移量是每个消息在分区中的唯一标识。消费者通过偏移量跟踪、获取、已读或者未读消息的位置,也可以通过提交偏移量记录已处理的信息。

生产者:producer 生产者把数据发送到kafka的主题当中,负责写入消息

消费者:consumer 从主题当中读取数据,消费者可以是一个也可以是多个。每个消费者有一个唯一的消费者组ID,kafka通过消费者实现负载均衡和容错性

经纪人:broker 每个kafka节点都有一个broker,每个broker负责一台服务器,id唯一,存储主题分区中的数据,处理生产和消费者的请求。维护元数据(3.0之前,zookeeper维护。3.0之后自己管理元数据)

zookeeper负责保存元数据,元数据就是topic相关信息(发布在哪台主机上,指定多少分区,以及副本数,偏移量

zookeeper会自建一个主题 __consumer_offsets

3.0之后不依赖zookeeper的核心就是元数据由kafka节点自己管理

1.3、kafka的工作流程

四、 Kafka(2.7.0)的安装部署

cd /opt/

tar zxvf kafka_2.13-2.7.0.tgz

mv kafka_2.13-2.7.0 kafka/

修改配置文件

cd /opt/kafka/config

cp server.properties server.properties.bak

vim server.properties

21行

broker的全局唯一编号,每个broker不能重复,因此要在其他机器配置 broker.id=1、broker.id=2

31行

指定监听的IP和端口,如果修改每个broker的IP需区分开来,也可保持默认配置不用修改

这里上面broker配置过了

42行

num.network.threads=3  

broker 处理网络请求的线程数量,一般情况下不需要去修改

45行

num.io.threads=8

用来处理磁盘IO的线程数量,数值应该大于硬盘

48行

socket.send.buffer.bytes=102400

发送接字缓冲区大小

51行

socket.receive.buffer.bytes=102400

接收套接字缓冲区大小

54行

socket.request.max.bytes=104857600

请求套接字缓冲区大小

60行

log.dirs=/var/log/kafka

kafka运行日志存放路径,也是数据存放路径

65行

num.partitions=1

topic当前broker上的默认分区个数,会被topic创建时的指定参数覆盖

69行

num.recovery.threads.per.data.dir=1  

用来恢复清理data下数据的线程数量

103行

log.retention.hours=168

segment文件(数据文件)保留的最长时间,单位为小时,默认为7天,超时将被删除

110行

log.segment.bytes=1073741824

一个segment文件最大的大小,默认为 1G,超出新建一个新的segment文件

Kafka 以日志文件的形式维护其数据,而这些日志文件被分割成多个日志段。当一个日志段达到指定的大小时,就会创建一个新的日志段。

123行

配置连接Zookeeper集群地址

zookeeper.connect=20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181

修改环境变量日志段是主题分区日志文件的一部分

vim /etc/profile

export KAFKA_HOME=/opt/kafka

export PATH=$PATH:$KAFKA_HOME/bin

source /etc/profile

配置 kafka 启动脚本

vim /etc/init.d/kafka

#!/bin/bash

#chkconfig:2345 22 88

#description:Kafka Service Control Script

KAFKA_HOME=’/opt/kafka’

case $1 in

start)

echo “———- Kafka 启动 ————“

${KAFKA_HOME}/bin/kafka-serverstart.sh -daemon ${KAFKA_HOME}/config/server.properties

;;

stop)

echo “———- Kafka 停止 ————“

${KAFKA_HOME}/bin/kafka-serverstop.sh

;;

restart)

$0 stop

$0 start

;;

status)

echo “———- Kafka 状态 ————“

count=$(ps -ef | grep kafka | egrepcvgrep|$$”)

if [ “$count” -eq 0 ];then

        echo “kafka is not running

    else

        echo “kafka is running

    fi

;;

*)

    echo “Usage: $0 {start|stop|restart|status}”

esac

设置开机自启

chmod +x /etc/init.d/kafka

chkconfig —add kafka

分别启动 Kafka

service kafka start

地址映射

vim /etc/hosts

20.0.0.24 test1

20.0.0.25 test2

20.0.0.26 test3

Kafka 命令行操作

kafka的命令也只能在bin目录下执行

cd /opt/kafka/bin

创建topic(主题):

1、在kafka的bin目录下,是所有的kafka可执行命令文件

2、–zookeeper 指定的是zookeeper的地址端口保存kafka的元数据

3、–replicationfactor 2 定义每个分区的副本数

4、partitions 3 指定主题的分区数

5、–topic test1 指定主题的名称

kafka-topics.sh —create –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 —replicationfactor 2 —partitions 3 —topic test1

20.0.0.24:2181:定义集群服务器地址,如果有多个 IP 地址使用逗号分割,一般使用一个 IP 即可

replicationfactor定义分区副本数,1 代表单副本,建议为 2

partitions:定义分区数

topic定义 topic 名称

查看当前服务器中的所有 topic

kafka-topics.sh —list –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181

查看topic详情

kafka-topics.sh  —describe –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181

查看某个topic详情

kafka-topics.sh  —describe –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 —topic test1

Partition:分区编号

Leader:每个分区都有一个领导者(Leader),领导者负责处理分区的读写操作

上述输出中,领导者的编号分别为 3、1、3。

Replicas:每个分区可以有多个副本(Replicas),用于提供冗余和容错性。在上述输出中,Replica 3、1、2 分别对应不同的 Kafka broker。

Isr:ISR(In-Sync Replicas表示当前与领导者保持同步的副本。

ISR 3、1分别表示与领导者同步的副本。

发布消息

kafka-consoleproducer.sh –broker-list 20.0.0.24:9092,20.0.0.25:9092,20.0.0.26:9092  —topic test1

消费消息

kafka-consoleconsumer.sh —bootstrapserver 20.0.0.24:9092,20.0.0.25:9092,20.0.0.26:9092 –topic test1

后接–from-beginning:会把主题中以往所有的数据都读取出来

__consumer_offsets 主题的作用记录每个消费者组中每个消费者在每个分区上的偏移量

这样,当消费者组中的消费者重新加入或者新的消费者加入时,它们可以从上次提交偏移量处继续消费消息,

而不会重复消费或错过消息。

请注意,对于这个主题,配置为 Replication Factor 为 1 可能会对高可用性造成一些影响

在生产环境中,通常会将 __consumer_offsets 主题的 Replication Factor 设置得更高,

以确保偏移量信息的可靠性

修改分区数

kafka-topics.sh –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 –alter –topic test1 —partitions 6

//删除 topic

kafka-topics.sh —delete –zookeeper 20.0.0.24:2181,20.0.0.25:2181,20.0.0.26:2181 –topic test1

 “Note: This will have no impact if delete.topic.enable is not set to true.”

是关于删除 Kafka 主题的一个重要提示。默认情况下,Kafka 集群禁用了主题删除操作,为了确保不会意外删除数据。

在 Kafka 中,要执行主题删除操作需要确保 delete.topic.enable 配置项被设置true

这个配置项决定了是否允许删除主题。如果没有设置或设置为 false,即使你执行了删除主题的命令

实际上也不会删除主题,而只是标记主题为 “marked for deletion”。

在生产环境中,特别谨慎地处理主题删除操作

在配置文件中添加,将彻底删除topic.

delete.topic.enable=true

在zookeeper中查看topic信息:

/zkCli.sh –server 192.168.233.30:2181

ls /brokers/topics

总结

  1. zookeeper 主要是分布式观察者模式,统一各个服务器节点的数据

在kafka当中,收集保存kafka的元数据

  1. kafka消息队列,订阅发布模式

五、kafka3.4.1安装部署

kafka3.4.1的安装步骤和2.7.1的步骤一模一样

但是命令有些区别原因是不再依靠zookeeper传输数据

Kafka 命令行操作

//创建topic

kafka-topics.sh —create —bootstrapserver 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 —replication-factor 2 —partitions 3 –topic test1

————————————————————————————-

bootstrapserver:定义 bootstrapserver 集群服务器地址,如果有多个 IP 地址使用逗号分割,一般使用一个 IP 即可

replication-factor:定义分区副本数,1 代表单副本,建议为 2

partitions:定义分区数

–topic:定义 topic 名称

————————————————————————————-

//查看当前服务器中的所有 topic

kafka-topics.sh —listbootstrapserver 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092

//查看某个 topic 的详情

[root@test1 efak]# kafka-topics.sh  —describe —bootstrapserver 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092

Topic: test1 TopicId: ihBKilk6SNyP7RrVHygCog PartitionCount: 3 ReplicationFactor: 2 Configs: segment.bytes=1073741824

Topic: test1 Partition: 0 Leader: 2 Replicas: 2,1 Isr: 2,1

Topic: test1 Partition: 1 Leader: 1 Replicas: 1,0 Isr: 1,0

Topic: test1 Partition: 2 Leader: 0 Replicas: 0,2 Isr: 0

Leader:每个分区都有一个领导者(Leader),领导者负责处理分区的读写操作。

上述输出中,领导者的编号分别为 2、1、0。

Replicas:每个分区可以有多个副本(Replicas),用于提供冗余和容错性。

上述输出中,Replica 0、1、2 分别对应不同的 Kafka broker。

Isr:ISR(In-Sync Replicas)表示当前与领导者保持同步的副本。

ISR 0、1、2 分别表示与领导者同步的副本。

//发布消息

kafka-consoleproducer.sh –broker-list 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092  –topic test1

//消费消息

kafka-consoleconsumer.sh —bootstrapserver 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 –topic test1 –from-beginning

————————————————————————————-

–from-beginning:会把主题中以往所有的数据都读取出来

————————————————————————————-

//修改分区数

kafka-topics.sh —bootstrapserver 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 –alter –topic test1 —partitions 6

//删除 topic

kafka-topics.sh —delete –bootstrap-server 192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092 –topic test1

六、ELK+filebeat+kafka的安装部署

工作流程

部署 Zookeeper+Kafka 集群

zookeeper+kafka节点:

20.0.0.45

20.0.0.46

2.部署 Filebeat

cd /usr/local/filebeat

vim filebeat.yml

filebeat.prospectors:

type: log

  enabled: true

  paths:

    – /var/log/nginx/access_log

  tags: [“access“]

  

type: log

  enabled: true

  paths:

    – /var/log/nginx/error_log

  tags: [“error“]

#添加输出到 Kafka 的配置

output.kafka:

  enabled: true

  hosts: [“20.0.0.45:9092,20.0.0.46:9092”]

  topic: “nginx

因为不转发logstash,下面的output全部注释

启动 filebeat

nohup ./filebeat -e -c filebeat.yml > filebeat.out &

logstash

启动logstash

systemctl start logstash.service  

ps –elf | grep logstash

部署 ELK,在 Logstash 组件所在节点上新建一个 Logstash 配置文件

cd /etc/logstash/conf.d/

vim kafka.conf

input {

    kafka {

        bootstrap_servers => “192.168.233.10:9092,192.168.233.20:9092,192.168.233.30:9092”  

#kafka集群地址

        topics  => “nginx”     

#拉取的kafka的指定topic

        type => “nginx_kafka”  

#指定 type 字段

        codec => “json”        

#解析json格式的日志数据

auto_offset_reset => “latest”  

#拉取最近数据,earliest为从头开始拉取

decorate_events => true   

#传递elasticsearch的数据额外增加kafka的属性数据

    }

}

output {

  if “nginx_access” in [tags] {

    elasticsearch {

      hosts => [“192.168.233.12:9200″,”192.168.233.13:9200”]

      index => “nginx_access-%{+YYYY.MM.dd}”

    }

  }

  

  if “nginx_error” in [tags] {

    elasticsearch {

      hosts => [“192.168.233.12:9200″,”192.168.233.13:9200”]

      index => “nginx_error-%{+YYYY.MM.dd}”

    }

  }

  

  stdout { codec => rubydebug }

}

#启动 logstash

logstash -f /opt/log/kafka.confpath.data /opt/kafka1 &

在此之前要保证ES启动

systemctl restart elasticsearch

cd /opt/elasticsearchheadmaster

npm run start &

netstatnatp |grep 9100

netstatnatp |grep 9200

去kafka看有没有创建topic(是filebeat操作的)

kafka-topics.sh —list –bootstrap-server 20.0.0.45:9092,20.0.0.46:9092

消费消息:

kafka-consoleconsumer.sh –bootstrap-server 20.0.0.45:9092,20.0.0.46:9092 –topic nginx –from-beginning

logstash也命中消息

最后去logstash浏览器查看:

索引生成

原文地址:https://blog.csdn.net/koeda1/article/details/134765303

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_36028.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注