本文介绍: 【持久化】这个单词我想大家都不陌生吧。什么持久化?我们知道,Redis数据存储内存里面的,所以在Redis这里其实是指把内存中的数据通过一些策略写到磁盘中,方便因为宕机、或者重启Redis服务时候,再次把数据加载内存中。那么,Redis持久策略方式)有哪些呢?其实主要的方式如下三种,让我们来看看吧在默认情况下, Redis 将内存数据库快照保存名字dump.rdb二进制文件中。(PS:该持久策略,是默认策略,当然不排除在随后的版本中改了)

前言

课程目录

一、Redis持久

持久化】这个单词我想大家都不陌生吧。什么持久化?我们知道,Redis的数据存储在内存里面的,所以在Redis这里其实是指把内存中的数据通过一些策略写到磁盘中,方便因为宕机、或者重启Redis服务时候,再次把数据加载到内存中。
那么,Redis中持久化策略(方式)有哪些呢?其实主要的方式有如下三种,让我们来看看

1.1 RDB快照(Snapshot):二进制文件

基本介绍

默认情况下, Redis 将内存数据库快照保存名字dump.rdb二进制文件中。(PS:该持久化策略,是默认的策略,当然不排除在随后的版本中改了)

开启/关闭方式

开启/关闭方式:进入程序的目录,修改redis.conf配置文件开启/关闭RDB只需要将所有的save保存策略打开/注释即可

触发方式

RDB快照生成触发方式有两种。一种是通过设置策略,当满足条件时候自动触发;另一种,当然是手动触发了。

我们先来说一下【自动触发】的方式。自动触发的方式,就是按照Redis提供给我们的语法,在redis.conf里面增加触发策略。设置规则如下

语法save &lt;seconds&gt; &lt;changes> [<seconds> <changes> ...]
解释:在【N 秒内数据集至少有 M 个改动】这一条件被满足时,自动持久一次

举个例子,设置一条策略【在60秒内有1000个改动时,自动持久化一次】。设置如下

save 60 1000 // 关闭RDB只需要将所有的save保存策略注释即可

至于手动触发方式,则是进入redis客户端执行命令savebgsave,就可以生成dump.rdb文件,每次命令执行都会将所有redis内存快照到一个新的.rdb文件里,并覆盖原有.rdb快照文件
save同步执行生成rdb文件操作执行时不会处理外部命令bgsave则是异步执行生成操作,会同时处理外部命令

bgsave的写时复制(COW,Copy On Write)机制

Redis借助操作系统的写时复制技术(Copy On Write),在生成快照的同时,依然可以正常处理写命令。简单来说,bgsave进程是由主线fork出来的,所以可以共享主线程内存的所有数据。bgsave进程运行后,开始读取主线程的内存数据,并把他们他们写入.rdb文件。此时,如果主线程对这些数据也都是读操作,那主线程跟子进程之间肯定没有影响;若此时主线程需要修改一块数据,那么,这块数据会被复制一份,生成该数据的副本然后bgsave进程会把这个副本数据写入.rdb文件中,而在这个过程中,主线程仍然可以直接修改原来的数据。
savebgsave对比:

命令 save bgsave
IO类型 同步 异步
是否阻塞redis其他命令 否。不过在生成子进程执行调用函数时会有短暂阻塞
复杂度 O(n) O(n)
优点 不会消耗额外内存 不会阻塞客户端命令
缺点 阻塞客户端命令 需要fork一个进程,消耗额外内存

上面配置的【自动触发】生成.rdb文件的策略,后台使用的就是bgsave方式

优缺点

优点是:由于是二进制文件,所以Redis重启时候恢复速度
缺点是:容易丢失数据,为什么?看下面【AOF】策略的介绍

1.2 AOF(appendonly file):将读写命令记录下来,方便回放

基本介绍

看了上面的【RDB策略】不知道大家没有感觉,或者意识到什么。那就是,这种策略其实看起来有点“苛刻”,它的数据安全性并不靠谱!
比如【在60秒内有1000个改动时,自动持久化一次】的策略之下,万一我在做第1000个改动的时候服务器宕机了,那不是丢掉了前面999个操作了吗?
所以,快照功能并不是非常耐久(durable)的。 如果 Redis 因为某些原因而造成故障停机,那么服务器丢失最近写入、且仍未保存到快照中的那些数据。不过从1.1版本开始,Redis增加了一种完全耐久的持久化方式: AOF持久化,将修改的每一条指令记录进文件appendonly.aof文件中(先写os cache,每隔一段时间fsync磁盘)。
比如执行命令set zhuge 666.aof文件里会记录如下数据:(这是一种resp协议格式数据,我在下面写上注释大家翻译一下什么意思)

*3	# 星号后面的数字表示执行的命令有多少参数
$3	# 美元符号后面的数字代表这个参数有几个字符
set
$5	# 美元符号后面的数字代表这个参数有几个字符
zhuge
$3	# 美元符号后面的数字代表这个参数有几个字符
666

注意,如果执行过期时间set命令,aof文件里记录的是并不是执行的原始命令,而是记录key过期时间戳。比如执行set tuling 888 ex 1000对应aof文件里记录如下

*3
$3
set
$6
tuling
$3
888
*3
$9
PEXPIREAT
$6
tuling
$13
1604249786301
开启/关闭方式

开启/关闭方式:进入程序的目录,修改redis.conf配置文件。开启/关闭aof只需要修改如下参数
# appendonly yes // 有一些版本默认注释掉。打开注释,设置yes或者no即可 打开/关闭

开启之后,从现在开始, 每当 Redis 执行一个改变数据集的命令时(比如 SET), 这个命令就会被追加.aof文件的末尾
这样的话, 当 Redis 重新启动时, 程序可以通过重新执行.aof文件中的命令来达到重建数据集的目的。

触发方式

同样的,我们可以配置Redis多久才将数据同步到磁盘一次。.aof的触发方式同样也有两种:自动和手动。
【自动触发】的方式,如下:(Redis提供给我们的,需要自己手动打开、关闭)

appendfsync always:每次有新命令追加到 AOF 文件时就执行一次 fsync ,非常慢,也非常安全
appendfsync everysec每秒 fsync 一次,足够快,并且在故障时只会丢失 1 秒钟的数据。
appendfsync no:从不 fsync ,将数据交给操作系统来处理。更快,也更不安全选择

推荐(并且也是默认)的措施为每秒 fsync 一次, 这种 fsync 策略可以兼顾速度安全性(最多丢失最近1秒的缓存数据)。

AOF重写

.aof文件里可能有太多没用指令,所以【AOF策略】会定期根据内存的最新数据生成aof文件。例如,执行了如下几条命令:

127.0.0.1:6379> incr readcount
(integer) 1
127.0.0.1:6379> incr readcount
(integer) 2
127.0.0.1:6379> incr readcount
(integer) 3
127.0.0.1:6379> incr readcount
(integer) 4
127.0.0.1:6379> incr readcount
(integer) 5

重写后AOF文件里变成:

*3
$3
SET
$2
readcount
$1
5

如下两个配置可以控制AOF自动重写频率

// aof文件至少要达到64M才会自动重写,文件太小恢复速度本来就很快,重写的意义不大
# auto-aof-rewrite-min-size 64mb 

// aof文件自上一次重写后文件大小增长了100%则再次触发重写  
# auto-aof-rewrite-percentage 100
优缺点

优点是:数据安全相对【RDB】方式来说高点
缺点是:恢复速度慢,因为不是二进制,且需要通过【重放】的方式恢复

1.3 RDB和AOF对比,怎么选

命令 RDB AOF
启动优先级
文件大小
恢复速度
数据安全性 容易丢失数据 根据策略决定,但整体比较

上面提到的启动优先级什么意思呢?意思是,当Redis启动时,会优先读取.aof的文件,其次才是.rdb为什么呢?因为.aof文件的数据安全性相对可靠一点啊!
那我该选择哪一种持久化策略呢?其实在生产环境中,可以启用。反正Redis启动时如果既有.rdb文件又有.aof文件的时候,会根据优先级选取

1.4 Redis4.0 混合持久化:AOF + RDB

基本介绍

不出意外,当出现比较特点比较极端的两个方案时,总会有一个折中的方案出现。这就是Redis在4.0之后的版本推出的【混合持久化,AOF + RDB】方式。
重启Redis时,我们很少使用.rdb恢复内存状态,因为会丢失大量数据。我们通常使用.aof日志重放,但是重放.aof日志性能相对.rdb来说要慢很多,这样在Redis实例很大的情况下,启动需要花费很长的时间。Redis 4.0 为了解决这个问题,带来了一个新的持久化选项——混合持久化

开启/关闭方式

PS:混合方式的开启,必须要先开启AOF
开启/关闭方式:进入程序的目录,修改redis.conf配置文件。开启/关闭需要修改如下参数
# appendonly yes
# aof-use-rdb-preamble yes // 需要同时上面的参数也为yes才可开启

混合持久化aof文件内容

如果开启了混合持久化,AOF在重写时,不再是单纯将内存数据转换为RESP命令写入AOF文件,而是将重写这一刻之前的内存做RDB快照处理,并且将RDB快照内容和增量的AOF修改内存数据的命令存在一起,都写入新的.aof文件,新的文件一开始不叫appendonly.aof,等到重写完新的.aof文件才会进行改名,覆盖原有的.aof文件,完成新旧两个.aof文件的替换
于是在 Redis 重启的时候,可以加载.aof文件中的RDB内容然后再重放增量AOF日志就可以完全替代之前的.aof全量文件重放,因此重启效率大幅得到提升。
混合持久化AOF文件结构如下:
在这里插入图片描述

1.5 Redis数据生产备份策略

  1. crontab定时调度脚本,每小时都copy一份rdb或aof的备份一个目录中去,仅仅保留最近48小时的备份
  2. 每天都保留一份当日的数据备份一个目录中去,可以保留最近1个月的备份
  3. 每次copy备份的时候,都把太旧的备份给删了
  4. 每天晚上将当前机器上的备份复制一份到其他机器上,以防机器损坏

二、Redis主从架构——基础

Redis主从架构模型如下:
在这里插入图片描述
由上图可以看出,在主从结构中,通常从节点只做【读】业务,【写】业务通常还是由主节点master完成。并且,它目前并没有我们小白以为的【宕机自动切换新的主节点】的能力。(PS:我以前一直听说什么Redis集群高可用,节点宕机依然不影响业务,所以我乍一看【主从架构】就以为它已经有这个能力了。而事实上并没有,它只是【缓解了节点压力】,并不具备自动切换

2.1 主从架构搭建

好记性不如多操作几遍
redis主从架构搭建配置节点步骤如下:

  1. 复制一份redis.conf文件,例如,我在我的redis下就复制了两份,并且分别命名redis-6380.confredis-6381.conf,因为我计划搭建【一主二从】的结构
    在这里插入图片描述
  2. 相关配置修改为如下值:(redis-6380.conf为例,一定要确保全部都修改到了,不然很可能就因为你忽略了的一个修改,导致同步不生效
# 修改从节点的运行端口
port 6380

# 把pid进程号写入pidfile配置的文件
pidfile /var/run/redis_6380.pid

# 日志文件命名
logfile "6380.log"

# 指定数据存放目录,需要提前在redis-6380.conf当前目录下,新建data目录及其下面的slave-80目录
dir ./data/slave-80  

# 需要注释bind
# bind绑定的是自己机器网卡ip,如果有多块网卡可以配多个ip
# 代表允许客户端通过机器哪些网卡ip访问
# 内网一般可以不配置bind,注释即可
# bind 127.0.0.1
  1. 继续修改配置,这个是配置【主从复制】的核心:(以redis-6380.conf为例
# 从本机6379的redis实例复制数据,Redis 5.0之前使用slaveof
# 格式replicaof [master节点up地址] [master节点端口6379]
# 比如我的是下面这个
replicaof 127.0.0.1 6379

# 配置从节点只读,默认打开
replica-read-only yes 
  1. 然后就可以启动从节点了
# redis-6380.conf文件务必用你复制并修改了之后的redis.conf文件
./src/redis-server ./redis-6380.conf &amp;   
  1. 使用redis-cli -p 端口的方式,连接到对应的从库校验一下
  2. 测试在6379端口的master实例上写数据,看看6380和6381端口的slave实例是否能及时同步新修改数据。我的测试数据如下:
    在这里插入图片描述
    如上所示,我在6379主节点设置了一个name值为helloRedis接下来我们去从节点看看
    在这里插入图片描述
    在这里插入图片描述
    看,6380端口跟6381端口的从节点都同步了数据

2.2 Redis主从工作原理

Redis主从工作原理其实并不是那么神奇,主要是保证数据一致性就好了。那该怎么保证呢?首先肯定是要分场景的。比如:第一次过来同步复制(全量同步);之前已经同步过一次了,但后来因为某些原因断了,现在重新连接上,需要继续同步最近的数据(增量同步,断点续传)。
下面再给大家看看【全量同步】跟【增量同步】的业务流程图

全量同步业务流程图

在这里插入图片描述

  1. 如果你为master配置了一个slave,不管这个slave是否是第一次连接上Master,它都会发送一个PSYNC命令给master请求复制数据
  2. master收到PSYNC命令后,会在后台行数据持久化(通过bgsave生成最新.rdb快照文件),持久化期间,master会继续接收客户端请求,它会把这些可能修改数据集的请求缓存在内存中
  3. 当持久化进行完毕以后,master会把这份.rdb文件数据集发送给slave,slave会把接收到的数据进行持久化生成.rdb,然后再加载到内存中
  4. 然后,master再将之前缓存在内存中的命令发送给slave
  5. master与slave之间的连接由于某些原因断开时,slave能够自动重连master,如果master收到多个slave并发连接请求,它只会进行一次持久化,而不是一个连接一次,然后再把这一份持久化的数据发送给多个并发连接的slave

总结
上面在生成持久化文件的时候有两个要点不知道大家注意到没有?那就是:bgsave.rdb
前面bgsave比较理解异步生成.rdb文件嘛,为了不阻塞主节点的客户读写。那为什么.rdb而不是.aof呢?其实说来也不算难理解,只不过我估计大家刚接触【redis持久化】所以比较陌生而已。因为.rdb恢复速度快啊!二进制文件嘛。

增量同步业务流程图

在这里插入图片描述

  1. 当master和slave断开重连后,一般都会对整份数据进行复制。但从redis2.8版本开始,redis改用可以支持部分数据复制的命令PSYNC去master同步数据,slave与master能够在网络连接断开重连后只进行部分数据复制(断点续传)
  2. master会在其内存中创建一个复制数据用的缓存队列缓存最近一段时间的数据,master和它所有的slave都维护了复制的数据下标offset和master的进程id
  3. 因此,当网络连接断开后,slave会请求master继续进行未完成的复制,从所记录的数据下标开始。如果master进程id变化了,或者从节点数下标offset太旧,已经不在master的缓存队列里了,那么将会进行一次全量数据的复制
主从复制风暴

什么主从复制风暴?简单来说,就是一个主节点,需要应付很多从节点的复制请求,就算是采用异步执行同步命令,但是当数据多了之后也会容易陷入瓶颈。这就是主从复制风暴。
在这里插入图片描述
为了缓解主从复制风暴(多个从节点同时复制主节点导致主节点压力过大),可以做如下架构,让部分从节点与从节点(与主节点同步)同步数据:
在这里插入图片描述

代码实战

这里新建一个SpringBoot项目,然后试着跑一下代码看看主从是否真的生效
首先在pom.xml里面引入如下配置:

<!-- springboot-->
<dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot</artifactId>
      <version>2.7.0</version>
  </dependency>
  <!-- https://mvnrepository.com/artifact/org.springframework.boot/spring-boot-starter-data-redis -->
  <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-starter-data-redis</artifactId>
      <version>2.7.0</version>
  </dependency>
  <!--        redis客户端jedis-->
  <dependency>
      <groupId>redis.clients</groupId>
      <artifactId>jedis</artifactId>
      <version>2.9.0</version>
  </dependency>

然后添加如下代码试试看:

public class JedisSingleTest {
    public static void main(String[] args) {
        JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();
        jedisPoolConfig.setMaxTotal(20);
        jedisPoolConfig.setMaxIdle(10);
        jedisPoolConfig.setMaxIdle(5);

        // timeout这里既是连接超时又是读写超时,从Jedis 2.8开始有区分connectionTimeoutsoTimeout构造函数
        JedisPool jedisPool = new JedisPool(jedisPoolConfig, "114.132.46.145", 6379, 3000, null);
        Jedis jedis = null;
        try {

            // 从redis连接池里拿出一个连接执行命令
            jedis = jedisPool.getResource();
            System.out.println(jedis.set("single", "zhuge"));
            System.out.println(jedis.get("single"));

        } catch (Exception e) {
            e.printStackTrace();
        } finally {

            //注意这里不是关闭连接,在JedisPool模式下,Jedis会被归还给资源池。
            if (jedis != null)
                jedis.close();
        }
    }
}

如上代码,运行的时候,会往缓存中添加一key=single, value=zhuge的数据,我们看看效果
在这里插入图片描述
在这里插入图片描述

三、Redis主从架构——哨兵高可用架构

Redis哨兵高可用架构模型图如下:
在这里插入图片描述

sentinel哨兵特殊的redis服务,不提供读写服务,主要用来监控redis实例节点(sentinal哨兵也是redis服务,后面我们启动的时候就会知道,其实也是使用redis-server来启动的)
哨兵架构下client端第一次从哨兵找出redis的主节点,后续就直接访问redis的主节点,不会每次都通过sentinel代理访问redis的主节点。不过,当redis的主节点发生变化,哨兵会第一时间感知到,并且将新的redis主节点通知client端(这里面redis的client端一般都实现订阅功能订阅sentinel发布的节点变动消息

总结
不知道大家看到这个【三】这个标题没有意识到什么,那就是,【哨兵模式】其实还是属于【主从架构】。只不过新增了【哨兵】这个角色用来做【节点检测发现】。一旦真正运行【读写】的Redis实例挂了,那么【哨兵】就会即刻感知,并且做出反应,这就是【哨兵】的职责,也是保证架构【高可用】的原理

3.1 Redis哨兵架构搭建

好记性不如多操作几遍。注意:不需要关闭之前的【主从】Redis服务

  1. 在程序目录中复制一份sentinel.conf文件,这里改名为sentinel-26379.confsentinel-26380.confsentinel-26381.conf三个文件。因为我们后面需要新增3个哨兵
cp sentinel.conf sentinel-26379.conf
  1. 相关配置修改为如下值:(以sentinel-26379.conf为例
# 指定哨兵运行的端口
port 26379

# 是否守护线程
daemonize yes

# 把pid进程号写入pidfile配置的文件
pidfile "/var/run/redis-sentinel-26379.pid"

# 日志文件命名
logfile "26379.log"

# 指定数据存放目录,需要提前在当前目录下,新建好data目录及其下面的sentinal-79目录
dir ./data/sentinal-79
  1. 继续配置,下面的配置是哨兵的核心:(以sentinel-26379.conf为例
# 格式如下:
# sentinel monitor <master-redis-name> <master-redis-ip> <master-redis-port> <quorum>
# 上面最后一个参数【quorum】是一个数字,指明当有多少个sentinel
# 认为一个master失效时(值一般为:sentinel总数/2 + 1),master才算真正失效
# mymaster这个名字随便取,客户端访问时会用到
sentinel monitor mymaster 1xx.1xx.xx.xxx 6379 2

PS:上面的1xx.1xx.xx.xxx是我的外网地址,为什么要填外网地址,因为我在后面需要用Java代码演示

  1. 启动sentinal哨兵实例
./src/redis-sentinel sentinel-26379.conf &amp;
  1. 查看sentinel的info信息,可以看到Sentinel的info里已经识别出了redis的主从
    在这里插入图片描述
    另外,sentinel集群都启动完毕后,会将哨兵集群的元数据信息写入所有sentinel的配置文件里去(追加在文件的最下面),我们查看下如下配置文件sentinel-26379.conf的最末尾,如下所示
#代表redis主节点的从节点信息
sentinel known-replica mymaster 127.0.0.1 6380

#代表redis主节点的从节点信息
sentinel known-replica mymaster 127.0.0.1 6381

#代表感知到的其它哨兵节点
sentinel known-sentinel mymaster 10.0.x.x1 26381 cdd97406fbcb4fdcdbf226f0d8540b1b8ac75d5f

#代表感知到的其它哨兵节点
sentinel known-sentinel mymaster 10.0.x.x1 26380 41c32a30f100bb28590ef3fef8e53cf158c1b6a7

当redis主节点如果挂了,哨兵集群会重新选举出新的redis主节点,同时会修改所有sentinel节点配置文件的集群元数据信息比如6379的redis如果挂了,假设选举出的新主节点是6380,则sentinel文件里的集群元数据信息会变成如下所示

#代表主节点的从节点信息
sentinel known-replica mymaster 127.0.0.1 6379

#代表主节点的从节点信息
sentinel known-replica mymaster 127.0.0.1 6381

#代表感知到的其它哨兵节点
sentinel known-sentinel mymaster 10.0.x.x1 26380 52d0a5d70c1f90475b4fc03b6ce7c3c56935760f

#代表感知到的其它哨兵节点
sentinel known-sentinel mymaster 10.0.x.x1 26381 e9f530d3882f8043f76ebb8e1686438ba8bd5ca6

当然,还会修改sentinel文件里之前配置的mymaster对应的6379端口,改为6380:

sentinel monitor mymaster 1xx.1xx.xx.xxx 6380 2

6379的redis实例再次启动时,哨兵集群根据集群元数据信息就可以将6379端口的redis节点作为从节点加入集群

3.2 哨兵架构高可用工作原理

后面再总结

3.3 代码实战

这里新建一个SpringBoot项目,然后试着跑一下代码看看主从是否真的生效
首先在pom.xml里面引入如下配置:

<!-- springboot-->
 <dependency>
     <groupId>org.springframework.boot</groupId>
     <artifactId>spring-boot</artifactId>
     <version>2.7.0</version>
 </dependency>
 <!-- https://mvnrepository.com/artifact/org.springframework.boot/spring-boot-starter-data-redis -->
 <dependency>
     <groupId>org.springframework.boot</groupId>
     <artifactId>spring-boot-starter-data-redis</artifactId>
     <version>2.7.0</version>
 </dependency>

 <!--        redis客户端jedis-->
 <dependency>
     <groupId>redis.clients</groupId>
     <artifactId>jedis</artifactId>
     <version>2.9.0</version>
 </dependency>

 <dependency>
     <groupId>org.apache.commons</groupId>
     <artifactId>commons-pool2</artifactId>
     <version>2.7.0</version>
 </dependency>

然后添加如下代码试试看:

public class JedisSingleTest {
    public static void main(String[] args) {
        JedisPoolConfig config = new JedisPoolConfig();
        config.setMaxTotal(20);
        config.setMaxIdle(10);
        config.setMinIdle(5);

        String masterName = "mymaster";
        Set<String> sentinels = new HashSet<String>();
        sentinels.add(new HostAndPort("114.132.46.145", 26379).toString());
        sentinels.add(new HostAndPort("114.132.46.145", 26380).toString());
        sentinels.add(new HostAndPort("114.132.46.145", 26381).toString());

        // JedisSentinelPool其实本质跟JedisPool类似,都是与redis主节点建立的连接池
        // JedisSentinelPool并不是说与sentinel建立的连接池,而是通过sentinel发现redis主节点并与其建立连接
        JedisSentinelPool jedisSentinelPool = new JedisSentinelPool(masterName, sentinels, config, 3000, null);
        Jedis jedis = null;
        try {
            jedis = jedisSentinelPool.getResource();
            System.out.println(jedis.set("sentinel", "zhuge"));
            System.out.println(jedis.get("sentinel"));
        } catch (Exception e) {
            e.printStackTrace();
        } finally {

            // 注意这里不是关闭连接,在JedisPool模式下,Jedis会被归还给资源池。
            if (jedis != null)
                jedis.close();
        }
    }
}

总结
不知道大家看了上面的代码,有没有发现:我们都不用配置Redis相关信息了,而是改成配置【哨兵】。没毛病,我们在最上面的模型里面已经说了,我们的节点信息是从【哨兵】获取的。

学习总结

  1. 学习了Redis的主从架构,并且尝试自己云上配置普通的主从架构
  2. 学习了Redis主从架构之哨兵模式,并且尝试自己云上配置

原文地址:https://blog.csdn.net/qq_32681589/article/details/132689543

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_31295.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注