黄埔班第34节:分布式缓存Redis应用实战-4

2020/02/12

0. Redis分布式集群搭建

提问:

我们前面讲主从,讲哨兵体现出Redis分布式缓存的特性没?

背景:

主从复制(哨兵),虽然主从能提升读的并发,但是单个master容量是有限的,内存数据达到一定程度就会有瓶颈,无论多少套主从,master的容量都是最终的瓶颈

如何解决:

需要支持内存的水平扩展了,这个时候就需要使用集群了,包含了前面讲的主从,故障转移,监控。

集群解决的问题

  • 高可用
  • 高并发
  • 访问/存储水平扩展

Redis集群配置

# 批量删除旧的redis进程
pkill redis
# redis集群至少三主三从
cd /usr/local/redis-cluster
mkdir 8001
mkdir 8002
mkdir 8003
mkdir 8004
mkdir 8005
mkdir 8006
# redis.conf
# 单机配置
daemonize yes
dir /usr/local/cluster/8001
bind 0.0.0.0
requirepass icoding
masterauth icoding #集群创建会自动搭建主从关系,所以不要手工配置replicaof
port 8001
pidfile /var/run/redis_8001.pid
# 开启集群配置
cluster-enabled yes
# 集群每个节点都需要的配置文件
cluster-config-file nodes-8001.conf
# master超时时间,超过后主备切换
cluster-node-timeout 3000
# 开启AOF
appendonly yes
# 批量修改文件端口
.,$ s/8001/8006/g
# 整个批处理文件
chmod 777 cluster.sh
redis-server /usr/local/redis-cluster/8001/redis.conf
redis-server /usr/local/redis-cluster/8002/redis.conf
redis-server /usr/local/redis-cluster/8003/redis.conf
redis-server /usr/local/redis-cluster/8004/redis.conf
redis-server /usr/local/redis-cluster/8005/redis.conf
redis-server /usr/local/redis-cluster/8006/redis.conf

搭建集群

# Redis 3.x开始有集群,redis-trib.rb
# Redis 5.x使用redis-cli就可以了
# 集群创建的命令
# --cluster-replicas 1 每个master有几个slave
redis-cli -a icoding --cluster create 127.0.0.1:8001 127.0.0.1:8002 127.0.0.1:8003 127.0.0.1:8004 127.0.0.1:8005 127.0.0.1:8006 --cluster-replicas 1
# 查看集群信息
redis-cli -a icoding --cluster check 127.0.0.1:8001
# 查看集群命令帮助
redis-cli -a icoding --cluster help

问题:

set key value 所有节点都写的1,写一个节点的2

登录8001节点 set key value 是否一定写入8001,一定1,不一定2

(error) MOVED 12539 127.0.0.1:8003 
# 报这个错误的原因是我们以单机方式登录,而不是集群方式
# 单机登录节点
redis-cli -a icoding -p 8001
# 集群登录节点
redis-cli -c -a icoding -p 8001
set key value
get key
127.0.0.1:8001> cluster info
127.0.0.1:8001> cluster nodes
127.0.0.1:8001> keys * # 在集群状态下只能拿到当前节点的所有数据
#-> Redirected to slot [12539] located at 127.0.0.1:8003

Slot槽点

Slot就是支持分布式存储的核心

Redis集群创建后会创建16384个slot(slots不能改就是16384个),并且根据集群的master数据平均分配给master

  • 如果有3个master,16384/3=(大约)5460个
  • 当你往redis集群中插入数据时,数据只存一份,不一定在你登录节点上,redis集群会使用crc16(key)mod16384来计算这个key应该放在那个hash slot中
  • 获取数据的时候也会根据key来取模,就知道在哪个slot上了,也就能redirect了
  • 一个slot其实就是一个文件夹,就能存很多key

集群如何实现分布式

  • 每个master只保存mod后的slot数据

  • 如果要扩展,再加入一个,只需要给这个新节点再分一些slot就行了,但注意无论多少个node,slots总数不变都是16384

  • 8g(2460),8g(2460),8g(2460),这个时候加入一个16g(4000) 16g(5000):total-16384

  • slot移动,slot里的数据也跟着移动

  • 一个master节点是否内存装满,是slots数量多少还是slot里存放的文件多少导致的?

    是文件

集群的搭建建议

  • 建议是奇数个,至少3个master节点
  • 主从切换:节点间会相互通信,一半以上的节点ping不通某个节点,就认为这个master挂了,这个时候从节点顶上
  • 什么时候整个集群不可用
    • 如果集群中任意master挂掉,且没有slave顶上,集群就进入fail状态
    • 如果超半数以上的master挂掉,无论是否有slave,集群都进入fail状态
    • 如果单点单机fail,单机重启后直接利用redis启动命令,重启后会自动回到集群中
    • Redis cluster全部宕机后重启会自动恢复集群状态

新增节点Master/Slave

#add-node       new_host:new_port existing_host:existing_port
#                 --cluster-slave
#                 --cluster-master-id <arg>
# 新增主节点
redis-cli -a icoding --cluster add-node 127.0.0.1:8007 127.0.0.1:8001
# 加入后可以通过cluster nodes来查看
127.0.0.1:8001> cluster nodes
# 给8007分配slot
# --cluster-from 从哪个节点来分配slot,这里只能写node_id,就是cluster nodes获得id,from可以是一个节点也可以是多个节点
# --cluster-to 到8007节点,同样是node_id
# --cluster-slots 从from节点一共分多少slot,并且from中的node是平均分这个总数的 4096/3
# --cluster-yes 不用提示直接执行
redis-cli -a icoding --cluster reshard 127.0.0.1:8001 --cluster-from 4248563f9000101bff9ff1beb27a7d595c99fa8e,21ccab2ac6b6724b3469f9c0662119a4ce3a06fc,598304ac00aa2daa61773b1fc32d26f99e6f8463 --cluster-to 75b831369eedd8b5fe0aee4b2819f573ae0592a2 --cluster-slots 4096 --cluster-yes
# 给8007增加8008的slave节点
redis-cli -a icoding --cluster add-node 127.0.0.1:8008 127.0.0.1:8001 --cluster-slave --cluster-master-id 75b831369eedd8b5fe0aee4b2819f573ae0592a2

节点下线

场景:5组Redis,10个节点,要改成3组,6个节点

# 下线节点,现有考虑把slots分给其他节点,这就是在做数据迁移
# 我这一次分配,也可以分批移动给多个节点,我要下架8001/8006
redis-cli -a icoding --cluster reshard 127.0.0.1:8002 --cluster-from 4248563f9000101bff9ff1beb27a7d595c99fa8e --cluster-to 21ccab2ac6b6724b3469f9c0662119a4ce3a06fc --cluster-slots 4096 --cluster-yes
# 检查一下8001的slot是否全部转移走
127.0.0.1:8002> cluster nodes
# 删除8001节点,这里的节点建议写成删除节点
redis-cli -a icoding --cluster del-node 127.0.0.1:8001 4248563f9000101bff9ff1beb27a7d595c99fa8e
# 删除8006节点,这里的节点建议写成删除节点
redis-cli -a icoding --cluster del-node 127.0.0.1:8006 58d18e90e4ed86de44a6c14455e2f24825924e93

线上保险操作

1、先把集群中的每个节点的RDB,AOF文件备份

2、复制一套同设备和参数的集群,把数据恢复到里面,演练一下(如果可以把演练的结果转正更好)

3、演练没有问题,这个时候进行操作

1. Redis-Cluster常用命令使用

# redis-cli --cluster查看帮助
redis-cli --cluster help
# 给新加入的node分配slot,all代表所有master节点
redis-cli -a icoding --cluster reshard 127.0.0.1:8001 --cluster-from all --cluster-to 60709ef9ee8238811115c38970468af8b611643a --cluster-slots 4000 --cluster-yes
# cluster命令,是执行在redis-cli,一定要先登录到集群中
# 新增master节点
cluster meet 127.0.0.1 8007
# 使用rebalance命令来自动平均分配slot
# --cluster-threshold 1 只要不均衡的slot数量超过1,就触发rebanlance
# --cluster-use-empty-masters 没有slot槽点的节点也参数均分
redis-cli -a icoding --cluster rebalance 127.0.0.1:8001 --cluster-threshold 1 --cluster-use-empty-masters
# cluster命令,是执行在redis-cli,一定要先登录到集群中
# 新增slave节点
# REPLICATE <node-id> -- Configure current node as replica to <node-id>.
# 前提是这个副本节点要先在集群中
cluster meet 127.0.0.1 8008
# 加入后切换到新增的slave 8008
cluster replicate 60709ef9ee8238811115c38970468af8b611643a

2. Springboot整合集群访问

spring:
  redis:
    password: icoding
    cluster:
      nodes: 127.0.0.1:8001,127.0.0.1:8002,127.0.0.1:8003,127.0.0.1:8004,127.0.0.1:8005,127.0.0.1:8006,127.0.0.1:8007,127.0.0.1:8008

3.Redis性能监控

# redis-benchmark检查redis的并发性能的
# -c 100个连接
# -n 500个请求
# 主要是测试redis主机的一个本地性能
redis-benchmark -h 127.0.0.1 -p 8001 -a icoding -c 100 -n 500

slowlog慢查询日志

# redis.conf配置
# 设置慢查询的时间下限,超过多少微秒的进行记录
slowlog-log-slower-than 10000
# 慢产讯对应的日志长度,单位:命令数
slowlog-max-len 128

slowlog慢查询日志查看

# redis-cli客户端下
# 查看慢查询
127.0.0.1:6379> slowlog get
# 获取慢查询条目
127.0.0.1:6379> slowlog len
# 重置慢查询日志
127.0.0.1:6379> slowlog reset

4. Redis缓存穿透解决方案

缓存穿透的场景

get传参数,参数一般是id,如果这个id是一个无效id

String key = request.getParameter("key");
List<BuyCart> list = new ArrayList();
//习惯性会用json来保存结构数据
String cartJson = redisOperator.get(key);
if(StringUtls.isBlank(cartJson)){
  //redis里面没有保存这个key
  list = cartService.getCarts(key);
  //从数据库里查出来然后写入redis
  if(list!=null&&list.size()>0){
  	redisOperator.set("cartId:"+key,JsonUtils.objectToJson(list));
  }else{
    redisOperator.set("cartId:"+key,JsonUtils.objectToJson(list),10*60);
  }
}else{
  //redis里有值
  list = JsonUtils.jsonToList(list));
}

假如我系统被人攻击了,如何攻击?

get传参数,传N个无效的id

5.布隆过滤器bloomfilter

之前讲了一个hyperloglog,保存不重复的基数个数:比如记录访问的UV,我只需要个数

场景描述

比如我们一个新闻客户端,不断的给用户推荐的新闻,推荐去重,还要高效,比如抖音

这个时候你想到Redis,能实时推送并快速去重

用户A:1 2 3 4 5 6(2 7 9)每个用户都应该有一个浏览的历史记录:一旦时间长了,是不是数据量就非常大

如果用户量也很大怎么办?

这个时候我们的布隆过滤器就登场了

总结一下

  • 布隆过滤器可以判断数据是否存在
  • 并且可以节省90%以上的存储空间
  • 但匹配精度会有一点不准确(涉及空间和时间的转换:0.01%)

布隆过滤器的运行场景

它本身是一个二进制的向量,存放的就是0,1

比如我们新建一个长度为16的布隆过滤器

所以布隆过滤器的精度是取决于bloom的存储大小的的,如果长度越大,精度就越高

布隆过滤器的特征

  • 精度是取决于bloom的存储大小的的,如果长度越大,精度就越高
  • 只能判断数据是否一定不存在,而无法判断数据是否一定存在
  • bloom的存储节点不能删除,一旦删除就影响其他节点数据的特征了

布隆过滤器存储的节点数据一定是历史数据

布隆过滤器的使用

到入google的guava的POM

        <dependency>
            <groupId>com.google.guava</groupId>
            <artifactId>guava</artifactId>
            <version>28.2-jre</version>
        </dependency>

BloomFilter的代码测试

public class BloomFilterTest {
    public static void main(String[] args) {
    		//字符集,bf的存储长度一般是你要存放的数据量1.5-2倍,期望的误判率
        BloomFilter bf = BloomFilter.create(Funnels.stringFunnel(Charset.forName("utf-8")),100000,0.0001);
        for(int i=0;i<100000;i++){
            bf.put(String.valueOf(i));
        }
        int flag = 0;
        for(int i=100000;i<200000;i++){
            if(bf.mightContain(String.valueOf(i))){
                flag++;
            }
        }
        System.out.println("误判了:"+flag);

    }
}

Redis集成布隆过滤器

Redis官方提供的布隆过滤器支持的是到了Redis4.x以后提供的插件功能

# 下载bloomfilter的插件
wget https://github.com/RedisLabsModules/rebloom/archive/v1.1.1.tar.gz
# 解压
make
# 去到redis的配置文件对我们的过滤器进行添加
loadmodule /usr/local/software/RedisBloom-1.1.1/rebloom.so
# 创建bloomfilter并添加一个值
# 默认过滤器长度为100,精度0.01 : MBbloom
bf.add users value1 #可以不断添加到同一个key
bf.madd users value1 value2
# 判断一个值是否存在
bf.exists users value1
# 判断多个值是否存在
bf.mexists users value1 value2 value3
# 手工建立bloomfliter的配置
bf.reserve userBM 0.001 10000

Java集成Redis BloomFilter

先导入依赖

<dependency>
  <groupId>com.redislabs</groupId>
  <artifactId>jrebloom</artifactId>
  <version>1.2.0</version>
</dependency>

Java的bloomfilter调用

import io.rebloom.client.Client;

public class RedisBloomFilterTest {
    public static void main(String[] args) {
        Client bloomClient = new Client("127.0.0.1",6379);
        //先创建bloomfilter
        bloomClient.createFilter("userFilter",1000,0.001);
        bloomClient.add("userFilter","gavin");
        System.out.println("bloomfilter:"+bloomClient.exists("userFilter","gavin"));
    }
}

布隆过滤器的使用总结

  • 布隆过滤器如果初始值过大会占用较大空间,过小会误差率高,使用前估计好元素数量
  • error_rate越小,占用空间就越大
  • 只能判断数据是否一定不存在,而无法判断数据是否一定存在
  • 可以节省90%的存储空间
  • 但匹配精度会有一点不准确(涉及空间和时间的转换:0.01%)
  • 布隆过滤器只能add和exists不能delete
help @generic

6. Redis雪崩解决方案

什么是Redis雪崩

  • 雪崩是基于数据库,所有原理应该到Redis的查询全到DB,并且是同时到达

  • 缓存在同一时间大量的key过期(key)
  • 多个用户同时请求并到达数据,而且这个请求只有一个是有意义的,其他的都是重复无用功

Redis雪崩解决方案

  • 缓存永不过期:冰封了
  • 过期时间错开(可以在key创建时加入一个1-10分钟的随机数给到key)
  • 多缓存数据结合(不要直接打到DB上,可以在DB上再加一个搜索引擎)
  • 在代码里通过锁解决(synchronized,分布式锁zookeeper)

7. Redisson实现分布式锁机制

分布式锁的核心

  • 加锁
  • 锁删除:一定不能因为锁提前超时导致删除非自己的锁
  • 锁超时:如果业务没有执行完就应该给锁延时
<dependency>
  <groupId>org.redisson</groupId>
  <artifactId>redisson-spring-boot-starter</artifactId>
  <version>3.12.1</version>
</dependency>

Java实现代码

@RestController
public class TestRedisson {

	@Autowired
	RedissonClient redissonClient;

	@GetMapping("redission")
	public String testRedison(){
		RLock userLock = redissonClient.getLock("userid:1223");
		System.out.println("get Lock");
		try{
			// 如果有锁,等待5秒,如果拿到了锁持有30秒
			userLock.tryLock(5,30, TimeUnit.SECONDS);
			System.out.println("获取到锁");
			TimeUnit.SECONDS.sleep(20);
			System.out.println("88");
		}catch (InterruptedException e){
			e.printStackTrace();
		}finally {
			System.out.println("释放锁");
			userLock.unlock();
		}
		return "redission";
	}
}

启动项目,测试访问http://localhost:8080/redission

后台输出:

redisson默认就是加锁30秒,建议也是30秒以上,默认的lockWatchdogTimeout会每隔10秒观察一下,待到20秒的时候如果主进程还没有释放锁,就会主动续期30秒

8. Redis分区

分区是分割数据到多个Redis实例的处理过程,因此每个实例只保存key的一个子集

查询路由(Query routing) 的意思是客户端随机地请求任意一个redis实例,然后由Redis将请求转发给正确的Redis节点。Redis Cluster实现了一种混合形式的查询路由,但并不是直接将请求从一个redis节点转发到另一个redis节点,而是在客户端的帮助下直接redirected到正确的redis节点。

优点

  • 一个key的数据存储到多个redis节点,可以构建更大的数据库
  • 通过多核和多台计算机,允许我们扩展计算能力

缺点

  • 涉及多个key的操作通常不会被支持,举例来说,当两个set映射到不同的redis实例上时,你就不能对这两个set执行交集操作。
  • 同时操作多个Key,就不能使用Redis事务了。
  • 当使用分区时,数据处理较为复杂,比如你需要处理多个rdb/aof文件,并且从多个实例和主机备份持久化文件。

9. Redis涉及的面试题分析

  1. 什么是 Redis?

    看第一课,redis的介绍以及它的优势的劣势,他的单线程机制

  2. Redis 的数据类型?

    string(json)、hash(购物车)、list(队列、栈,lpush,rpop)、set(去重集合)、zset(有权重的排序集合)

  3. 使用 Redis 有哪些好处?

    • 速度快,内存数据库
    • 丰富的数据类型
    • 支持事务
    • 丰富的特性操作:比如缓存和过期时间
  4. Redis 相比 Memcached 有哪些优势?

    看第一课,对比中有

  5. Memcached 与 Redis 的区别都有哪些?

    看第一课,对比中有

  6. Redis 是单进程单线程的吗?为何它那么快那么高效?

    多路复用:多路是指多个网络连接,复用是指复用一个线程

  7. 一个字符串类型的值能存储最大容量是多少?

    512MB,但是不建议存储这么大,复用会阻塞线程

  8. Redis 的持久化机制是什么?各自的优缺点?

    RDB、AOF

    • RDB是定时全量备份,每次都会讲内存中的所有数据写入文件,所以备份比较慢
    • 会fork一个新进程进行快照存储
    • RDB数据无法保存备份到宕机间的数据:bgsave 1/save 2:bgsave
    • AOF的备份相当于一个操作日志备份,只记录写命令,并以追加的方式写入文件
    • 同数据量下AOF比RDB要大,这个时候会根据我们配置的重写规则触发fork来压缩AOF文件
    • 同时开启RDB和AOF时,优先使用AOF,如果线上没有开AOF,config set appendfile yes
  9. Redis 常见性能问题和解决方案有哪些?

    建议关闭master的RDB,开启AOF,slave开RDB

    master->slave->slave->slave

  10. Redis 过期键的删除策略?

    定时删除、惰性删除

  11. Redis 的回收策略(淘汰策略)?

    内存的淘汰机制

  12. 为什么Redis 需要把所有数据放到内存中?

    读写速度快

  13. Redis 的同步机制了解么?

    第一次连接是全量,后面是增量,RDB同步到slave

  14. Pipeline 有什么好处,为什么要用 Pipeline?

    将Redis的多次查询放到一起,节省带宽

  15. 是否使用过 Redis 集群,集群的原理是什么?

    Redis Sentinel:HA

    Redis Cluster:HA、分布式

  16. Redis 集群方案什么情况下会导致整个集群不可用?

    • master节点挂掉,并没有slave顶上,slot在线不足16384个
    • 半数以上master挂了,无论是否有slave都会fail
  17. Redis 支持的 Java 客户端都有哪些?官方推荐用哪个?

    jedis、redisson、lettuce,推荐redisson

  18. Jedis 与 Redisson 对比有什么优缺点?

    redisson更希望大家关注业务,jedis相当于一个java版的redis-cli

  19. Redis 如何设置密码及验证密码?

    配置文件

    auth -a

  20. 说说 Redis 哈希槽的概念?

    redis cluster的时候会通过crc16校验key放在16384个slot中其中一个,get时会根据crc16算出,如果key不在当前节点会redirect到存放节点

  21. Redis 集群的主从复制模型是怎样的?

    每个节点都至少是N+1

  22. Redis 集群会有写操作丢失吗?为什么?

    • 过期key被清理
    • 内存不足时,被内存规则清理
    • 主库写入数据时宕机
    • 哨兵切换时(脑裂)
  23. Redis 集群之间是如何复制的?

    master节点上数据是不进行复制的

    master-slave

    • 完整同步
    • 部分同步
    • 都是异步的
  24. Redis 集群最大Slot个数是多少?

    16384

  25. Redis 集群如何选择数据库?

    select 0-15

    单机默认:16个数据库,可以修改

    集群:只有1个数据库

  26. 怎么测试 Redis 的连通性?

    发一个ping 返回 pong

  27. 怎么理解 Redis 事务?

    开我们课件,原子性,watch乐观锁

  28. Redis 事务相关的命令有哪几个?

    multi、exec、discard、watch

  29. Redis key 的过期时间和永久有效分别怎么设置?

    expire、persist

  30. Redis 如何做内存优化?

    尽量使用hash来进行数据结构搭建,而不是string的json

  31. Redis 回收进程如何工作的?

    取决于maxmemory的设置,如果没有设置,到内存最大值触发maxmemory-policy

  32. 都有哪些办法可以降低 Redis 的内存使用情况呢?

    好好利用hash、list、set、zset

  33. Redis 的内存用完了会发生什么?

    maxmeory-policy

  34. 一个 Redis 实例最多能存放多少的 keys?List、Set、Sorted Set他们最多能存放多少元素?

    理论上是2的32次方个,其实一般受限于内存大小

  35. MySQL 里有 2000w 数据,Redis 中只存 20w 的数据,如何保证Redis 中的数据都是热点数据?

    • 业务场景
    • 限制内存大小,主动触发allkeys-lru
  36. Redis 最适合的场景是什么?

    • session会话保存
    • 页面数据缓存
    • 队列list,只能支持一个消费者
    • 计数器
    • 订阅机制
  37. 假如 Redis 里面有 1 亿个 key,其中有 10w 个 key 是以某个固定的已知的前缀开头的,如何将它们全部找出来?

    keys abc*

  38. 如果有大量的 key 需要设置同一时间过期,一般需要注意什么?

    可能会雪崩

    在加入key 的过期时间时,增加一个随机时间点,让key过期分散一些

  39. 使用过 Redis 做异步队列么,你是怎么用的?

    lpush/rpop:只能支持一个消费者

    sub/pub:可以支持多人订阅

  40. 使用过 Redis 分布式锁么,它是什么回事?

    加锁、释放锁、锁超时(redisson)

  41. 如何预防缓存穿透与雪崩?

    看今天上面的内容

Post Directory