String 是最基本的 key-value 结构,value是具体的值,不仅是字符串,也可以是数字(整数或浮点数),value 最多可以容纳的数据长度为512M。
应用场景
缓存对象:
SET user:1 '{"name":"koyal","age":"18"}'
MSET user:1:name koyal user:1:age 18 user:2:name xxx user:2:age 20
常规计数:计算访问次数、点赞、转发、库存数量等。
分布式锁:SET 命令有个 NX 参数可以实现 key不存在才插入,可以实现分布式锁。
共享 Session 信息:在分布式系统之下,各个服务器都会去同一个 Redis 获取相关的 Session 信息。
List 列表是简单的字符串列表,按照插入顺序排序,可以从头部或尾部向 List 列表添加元素。
应用场景
消息队列:消息队列在存取消息时,必须要满足三个需求,分别是消息保存、处理重复的消息和保证消息可靠性。
Hash 是一个键值对(key-value)集合,value的形式:value=[{field1,value1},...{fieldN,valueN}]
。Hash 特别适合存储对象。
应用场景
缓存对象:Hash类型的(key,field,value)的结构与对象的(对象id,属性,值)的结构相似,可以用来存储对象。
购物车:以用户 id 为 key ,商品 id 为 field,商品数量为 value,构成购物车的三要素。
Set 类型是一个无序并唯一的键值集合,它的存储顺序不会按照插入的先后顺序进行存储。
一个集合最多可以存储2^32-1个元素,可以交集、并集、差集等等。
应用场景
集合的无序、不可重复、支持并交差等特性,比较适合用来数据去重和保证数据唯一性,还可以用来统计多个集合的交集、错集和并集等(Set的差集、并集和交集的计算复杂度较高,在数据量大的情况下,如果直接执行这些计算,会导致 Redis 实例阻塞)
点赞:Set 类型可以保证一个用户只能点一个赞,key 为文章id,value 为用户id。
共同关注:Set 类型支持交集运算,可以用来计算共同关注的好友、公众号等。key 可以为用户id,value 为已关注的公众号id。
抽奖活动:Set 类型因为有去重功能,可以保证同一个用户不会中将两次。
Zset 类型(有序集合类型)相比 Set类型多个排序属性 score(分值),每个存储元素相当于有两个值组成的,一个是有序集合的元素值,一个是排序值。
应用场景
Zset 类型可以根据元素的权重来排序。
排行榜:学生成绩的排行榜,游戏积分排行榜等。
电话、姓名排序:使用有序集合中的ZRANGEBULEX
和ZREVRANGEBYLEX
可以帮助我们实现电话号码或姓名的排序。
BitMap,一串连续的二进制数组(0和1),可以通过偏移量(offset)定位元素,BitMap通过最小的单位bit来进行0|1的设置,表示某个元素的值或者状态,时间复杂度为O(1)。
应用场景
BitMap 类型非常适合二值状态统计的场景,其只有0和1两种,在记录海量数据时,可以有效节省内存空间。
签到统计:可以用1表示签到,0表示未签到
判断用户登录态:可以用1表示登录,0表示未登录
Redis 2.8.9 版本新增的数据类型,是一种用于统计基数的数据集合类型,基数统计是指统计一个集合中不重复的元素个数。但要注意,HyperLogLog的统计规则是基于概率完成的,不是非常准确,标准误算率是0.81%。
在Redis里面,每个HyperLogLog键只需要花费12KB内存,就可以计算接近2^63个不同元素的基数,和元素越多就越消费内存的 Set 和 Hash 类型相比,HyperLogLog 就非常节省空间。
应用场景
GEO 是 Redis 3.2 版本新增的数据类型,主要用于存储地理位置信息,并对存储的信息进行操作。
应用场景
GEOADD
和GEORADIUS
这两个命令。Stream 是 Redis 5.0 版本新增加的数据类型,Redis 专门为消息队列设计的数据类型。其支持消息的持久化、支持自动生成全局唯一ID、支持 ack 确认消息的模式、支持消费组模式等,让消息队列更加的稳定和可靠。
应用场景:
Redis 每执行一条写操作命令,就把该命令以追加的方式写入到一个文件中,然后重启 Redis 的时候,先去读取这个文件中的命令,并且执行它,那么就恢复了缓存数据。
这种保存写操作命令到日志的持久化方式,就是 Redis 中的 AOF(Append Only File)持久化功能,只会记录写操作命令,读操作命令是不会被记录的,因为没有意义。
Redis 实现执行写操作后,才将该命令记录到 AOF 日志里的,这样做有两个好处:
AOF 持久化功能也有潜在风险:
AOF 将命令写回到硬盘的策略(在 redis.conf 配置文件中配置):
Always
:每次写操作命令执行完成后,同步 AOF 日志数据写会硬盘。Everysec
:每次写操作命令执行完成后,先将命令写入到 AOF 文件的内核缓冲区,然后每个一秒将缓冲区里的内容写回到硬盘。No
:每次写操作命令执行完成后,先将命令写入到 AOF 文件的内核缓冲区,再由操作系统决定何时将缓冲区内容写回硬盘。Always 策略可以最大程度保证数据不丢失,由于它没执行一条写操作命令就同步 AOF 内容写回硬盘,所以是不可避免会影响主进程的性能。
No 策略相比于 Always 策略性能较好,但是操作系统写回硬盘的时机是不可预知的,如果 AOF 日志内容没有写回硬盘,一旦服务器宕机,就会丢失不定数量的数据。
Everysec 策略是一种折中的方式,避免了 Always 策略的性能开销,也比 No 策略更能避免数据丢失(如果上一秒的写操作命令日志没有写回到硬盘,发生了宕机,这一秒内的数据自然也会丢失。)
总结:
AOF 日志是一个文件,随着执行的写操作命令越来越多,文件的大小也会越来越大,会带来性能问题,比如重启 Redis 后,需要读 AOF 文件的内容以恢复数据,如果文件过大,整个回复的过程会很慢。
Redis 为了避免 AOF 文件越来越大,提供了 AOF 重写机制,当 AOF 文件的大小超过所设定的阈值后,Redis 会启用 AOF 重写机制,来压缩 AOF 文件。
AOF 重写机制就是在重写时,读取当前数据库中的所有键值对,然后将每个键值对用一条命令记录到新的 AOF 文件,等到全部记录完后,就会将新的 AOF 文件替换调现有的 AOF 文件。
为什么重写 AOF 的时候,不直接复用现有的 AOF 文件,而是先写到新的 AOF文件在覆盖过去?
因为如果 AOF 文件重写过程中失败了,现有的 AOF 文件就会造成污染,可能无法用于恢复使用。
Redis 快照就是记录某一个瞬间的内存数据,记录的是实际数据,而 AOF 文件记录的是命令操作的日志,而不是实际的数据。
Redis 提供了两个命令来生成 RDB 文件,分别是 save
和bgsave
,区别在于是否在主线程中执行。
RDB 文件的加载工作是在服务器启动时自动执行的,Redis 并没有提供专门用于加载 RDB 文件的命令。
缺点:
在执行 bgsave 过程中,Redis 依然可以继续处理操作,也就是数据是能被修改的。关键的技术在于写时复制技术。
尽管 RDB 比 AOF 的数据恢复速度快,但是快照的频率不好把握:
在 Redis 4.0 版本中,将 RDB 和 AOF 合体使用,该方法叫混合使用 AOF 日志和内存快照,也叫混合持久化,其工作在 AOF 日志重写过程。
使用了混合持久化,AOF 文件的前半部分是 RDB 格式的全量数据,后半部分是 AOF 格式的增量数据。这样的好处在于,重启 Redis 加载数据的时候,由于前半部分是 RDB 内容,这样加载的时候速度会很快。加载完 RDB 的内容后,才会加载后半部分的 AOF 内容,这里的内容是 Redis 后台子进程重写 AOF 期间,主线程处理的操作命令,可以使得数据更少的丢失。
但是这样的话文件可读性会变差,而且只有 Redis 4.0 之后的版本才支持混合持久化。
在使用 Always 策略的时候,主线程在执行命令后,会把数据写入到 AOF 日志文件,然后会调用fsync() 函数,将内核缓冲区的数据直接写入到硬盘,等到硬盘写操作完成后,该函数才会返回。
当 AOF 日志写入了很多的大 Key,AOF 日志文件的大小会很大,那么很快就会触发 AOF 重写机制。
AOF 重写机制和 RDB 快照(bgsave命令)的过程,都会分别通过 fork() 函数创建一个子进程来处理任务。父进程对共享内存中的大 Key 进行修改,那么内核就会发生写时复制,会把物理内存复制一份,由于大 Key 占用的物理内存是比较大的,那么在复制物理内存这一过程中,也是比较耗时的,于是父进程(主线程)就会发生阻塞。
大 Key 除了会影响持久化之外,还会有以下的影响:
如何避免大 Key 呢?
最好在设计阶段,就把大 Key 拆分成一个一个小 Key。或者,定时检查 Redis 是否存在大 Key,如果该大 Key 是可以删除的,不要使用 DEL 命令删除,因为该命令删除过程会阻塞主线程,而是用 unlink 命令(Redis 4.0+)删除大 Key,因为该命令的删除过程是异步的,不会阻塞主线程。
Redis 是可以对 Key 设置过期时间的,因此需要有相应的机制将已过期的键值对删除,而做这个工作的就是过期键值删除策略。
如何设置过期时间?
设置 key 过期时间的命令一共有 4 个
expire
:设置 key 在 n 秒后过期pexpire
:设置 key 在 n 毫秒后过期expireat
:设置 key 在某个时间戳(精确到秒)之后过期pexpireat
:设置 key 在某个时间戳(精确到毫秒)之后过期在设置字符串时,也可以同时对 key 设置过期时间,共有 3 中命令
set ex
:设置键值对的同时,同时指定过期时间(精确到秒)set px
:设置键值对的同时,同时指定过期时间(精确到毫秒)setex
:设置键值对的同时,同时指定过期时间(精确到秒)如何判定 key 已过期了?
每当我们对一个 key 设置了过期时间时,Redis 会把该 key 带上过期时间存储到一个过期字典中,过期字典中保存了数据库中所有 key 的过期时间。
字典实际上是哈希表,哈希表的最大好处就是让我们可以用O(1)的时间复杂度来快速查找,当查询一个 key 时,Redis 首先检查该 key 是否存在于过期时间中
过期删除策略有哪些?
常见的三种过期删除策略:
Redis 过期删除策略是什么?
Redis 选择 惰性删除和定期删除 这两种策略配合使用,以求在合理使用 CPU 时间和避免内存浪费之间取得平衡。
当 Redis 的运行内存已经超过 Redis 设置的最大内存之后,则会使用内存淘汰策略删除符合条件的 key,以此保障 Redis 高效的运行。
如何设置 Redis 最大运行内存?
在配置文件 redis.conf 中,可以通过参数maxmemory
来设定最大运行内存,只有在 Redis 的运行内存达到了我们设置的最大运行内存,才会触发内存淘汰策略。
不同的操作系统中,maxmemory 的默认值是不同的。
Redis 内存淘汰策略有哪些?
共八种,大体分为不进行数据淘汰和进行数据淘汰两类策略。
不进行数据淘汰的策略
进行数据淘汰的策略(细分为在设置了过期时间的数据中进行淘汰和在所有范围内进行淘汰)
在设置了过期时间的数据中进行淘汰
volatile-random
:随机淘汰设置了过期时间的任意键值volatile-ttl
:优先淘汰更早过期的键值volatile-lru
:(Redis 3.0 之前,默认的内存淘汰策略)淘汰所有设置了过期时间的键值中,最久未使用的键值volatile-lfu
:(Redis 4.0 之前新增的内存淘汰策略)淘汰所有设置了过期时间的键值中,最少使用的键值在所有范围内进行淘汰
allkeys-random
:随机淘汰任意键值allkeys-lru
:淘汰整个键值中最久未使用的键值allkeys-lfu
:(Redis 4.0 后新增的内存淘汰策略)淘汰整个键值中最少使用的键值LRU 算法和 LFU 算法有什么区别?
LRU 全称为 Least Recently Used 最近最少使用,会选择淘汰最近最少使用的数据。
Redis 实现的是一种近似 LRU 算法,目的是为了更好的节约内存,它的实现方式是在 Redis 的对象结构体中添加一个额外的字段,用于记录此数据的最后一次访问时间。
当 Redis 进行内存淘汰时,会使用随机采样的方式来淘汰数据,它是随机去5个值(可配置),然后淘汰最久没有使用的那个。
Redis 实现的 LRU 算法的优点:
LRU 的问题,无法解决缓存污染问题。
LFU 全称为 Least Frequently Used 最仅最不常用,根据数据访问次数来淘汰数据,核心思想是:“如果数据过去被访问多次,那么将来被访问的频率也更高”。
LFU 算法相比于 LRU 算法的实现,多记录了数据的访问频次的信息。
Redis 对象头中的 lru 字段,在 LRU 算法下和 LFU 算法下使用方式并不相同。
当将数据存储在一台服务器上
要避免这种单点故障,最好的方法就是将数据备份到其他服务器上,让这些服务器同样可以对外提供服务,这样即使有一台服务器出现了故障,其他服务器仍然可以继续提供服务。
Redis 提供了 主从复制模式 来保证这些服务器之间的数据一致性,且主从服务器之间采用的是读写分离的方式。
主服务器进行读写操作,当发生写操作时自动将写操作同步给从服务器,而从服务器一般是只读,并接受主服务器同步过来写操作命令,然后执行这条命令。
可以使用replicaof
(redis 5.0 之前使用 slaveof)命令形成主服务器和从服务器的关系
比如,现有服务器 A 和服务器 B ,在服务器 B 上执行下面这条命令
# 服务器 B 执行这条命令
replicaof <服务器 A 的 IP 地址> <服务器 A 的 Redis 端口号>
服务器 B 会变成服务器 A 的 从服务器,然后与主服务器进行第一次同步:
主从服务器在完成第一次同步后,双方之间就会维护一个 TCP 连接
主服务器通过这个连接继续将写操作命令传播给从服务器,然后从服务器执行该命令,使得与主服务器的数据库状态相同。
这个连接是长连接的,目的是避免频繁的 TCP 连接和断开带来的性能开销。
主从服务器在第一次数据同步的过程中,主服务器会做两件耗时的操作:生成 RDB 文件和传输 RDB 文件。
主服务器是可以有多个从服务器的,如果从服务器数量非常多,而且都与主服务器进行全量同步的话,带来的问题:
为了解决这些问题,我们可以在从服务器上执行下面这条命令,使其作为目标服务器的从服务器:
replicaof <目标服务器的IP> 6379
如果目标服务器本身也是从服务器,那么该目标服务器不仅可以接受主服务器同步的数据,也会把数据同步给自己旗下的从服务器,从而减轻主服务器的负担。
主从服务器在完成第一次同步后,就会基于长连接进行命令传播。
如果主从服务器间的网络连接断开了,那么就无法进行命令传播了,这是从服务器的数据就没办法和主服务器保存一致了,客户端就可能从从服务器读到旧的数据。
如果此时断开的网络,又恢复正常了,要怎么继续保证主从服务器的数据一致性呢?
在 Redis 2.8 之前,从服务器会和主服务器重新进行一次全量复制,这样的开销太大了。
在 Redis 2.8 之后,网络断开又恢复后,从主从服务器会采用增量复制的方式继续同步,只会把网络断开期间主服务器接收到的写操作命令,同步给从服务器。
主服务器怎么知道要将哪些增量数据发送给从服务器呢?
repl_backlog_buffer
,一个 环形 缓冲区,用于主从服务器断连后,从中找到差异的数据。
replication offset
,标记上面那个缓冲区的同步进度,主从服务器都有各自的偏移量,主服务器使用 master_repl_offset 来记录自己 写 到的位置,从服务器使用 slave_repl_offset 来记录自己 读 到的位置。
长连接
通过互相的 ping-pong 心态检测机制,如果有一半以上的节点去 ping 一个节点的时候没有 pong 回应,集群就会认为这个节点挂掉了,会断开与这个节点的连接。
主节点处理了一个 key 或者通过淘汰算法淘汰了一个 key ,这个时间主节点模拟一条 del 命令发送给从节点,从节点收到该命令后,就进行删除 key 的操作。
Redis 主节点每次收到写命令之后,先写到内部的缓冲区,然后异步发送给从节点。
Redis 哨兵机制,哨兵在发现主节点出现故障时,自动完成故障发现和故障转移,并通知给应用方,从而实现高可用性。
通常为了保证缓存中的数据与数据库中的数据一致性,会给 Redis 里的数据设置过期时间,当缓存数据过期后,用户访问的数据如果不在缓存里,业务系统需要重新生成缓存,因此就会访问数据库,并将数据更新到 Redis 里,这样后续请求都可以直接命中缓存。
当大量缓存数据在同一时间过期(失效)或者 Redis 故障宕机时,如果此时有大量的用户请求,都无法在 Redis 中处理,于是全部请求都直接访问数据库,从而导致数据库的压力骤增,严重的会造成数据库宕机,从而形成一些列连锁反应,造成整个系统崩溃,这就是缓存雪崩的问题。
发生缓存雪崩有两个原因:
针对不同的原因解决方法:
大量数据同时过期
1、均匀设置过期时间:
如果要给缓存数据设置过期时间,应该避免将大量的数据设置成同一个过期时间,可以在对缓存数据设置过期时间时,给这些数据的过期时间加上一个随机数,这样可以保证数据不会在同一个时间过期。
2、互斥锁:
当业务线程在处理用户请求时,如果发现访问的数据不在 Redis 里,就加个互斥锁,保证同一时间内只有一个请求来构建缓存(从数据库读取数据,要将数据更新到 Redis 里),缓存构建完后,再释放锁。未能获取互斥锁的请求,要么等待锁释放后重新读取缓存,要么就返回空值或者默认值。
实现互斥锁的时候,最好设置超时时间,不然第一个请求拿到了锁,然后这个请求发生了某种意外而一直阻塞,一直不释放锁,这时其他请求也一直拿不到锁,整个系统就会出现无响应的现象。
3、后台更新缓存
业务线程不再负责更新缓存,缓存也不设置有效期,而是让缓存“永久有效”,并将更新缓存的工作交由后台线程定时更新。
事实上,缓存数据不设置有效期,并不是意味着数据一直能在内存里,因为当系统内存紧张的时候,有些缓存数据会被“淘汰”,而在缓存被“淘汰”到下一次后台定时更新缓存的这段时间内,业务线程读取缓存失败就返回空值,业务的视角就以为是数据丢失了。
解决上面的问题的方式有两种。
第一种方式,后台线程不仅负责定时更新缓存,而且也负责频繁地检测缓存是否有效,检测到缓存失效了,原因可能是系统紧张而被淘汰的,于是就要马上从数据库读取数据,并更新到缓存。
这种方式的检测时间间隔不能太长,太长也导致用户获取的数据是一个空值而不是真正的数据,所以检测的间隔最好是毫秒级的,但是总归是有个间隔时间,用户体验一般。
第二种方式,在业务线程发现缓存数据失效后(缓存数据被淘汰),通过消息队列发送一条消息通知后台线程更新缓存,后台线程收到消息后,在更新缓存前可以判断缓存是否存在,存在就不执行更新缓存操作;不存在就读取数据库数据,并将数据加载到缓存。这种方式相比第一种方式缓存的更新会更及时,用户体验也比较好。
在业务刚上线的时候,我们最好提前把数据缓起来,而不是等待用户访问才来触发缓存构建,这就是所谓的缓存预热,后台更新缓存的机制刚好也适合干这个事情。
Redis 故障宕机
1、服务熔断或请求限流机制
可以启动服务熔断机制,暂停业务应用对缓存服务的访问,直接返回错误,不用再继续访问数据库。然后等到 Redis 恢复正常后,在允许业务应用访问缓存服务。
为了减少对业务的影响,可以启用请求限流机制,只将少部分请求发送到数据库进行处理,再多的请求就在入口直接拒绝服务,等到 Redis 恢复正常并把缓存预热完后,再解除请求限流的机制。
2、构建 Redis 缓存高可靠集群:
服务熔断或请求限流机制是缓存雪崩发生后的应对方案,我们最好通过主从节点的方式构建 Redis 缓存高可靠集群。
如果 Redis 缓存的主节点故障宕机,从节点可以切换成为主节点,继续提供缓存服务,避免了由于 Redis 故障宕机而导致的缓存雪崩问题
业务中会有几个数据被频繁地访问,比如秒杀活动,这类被频繁地访问的数据被称为热点数据。
如果缓存中的某个热点数据过期了,此时大量的请求访问了该热点数据,就无法从缓存中读取,直接访问数据库,数据库很容易就被高并发的请求冲垮,这就是缓存击穿的问题。
缓存击穿和缓存雪崩很相似,可以认为击穿是雪崩的一个子集。
应对缓存击穿可以采取前面说到两种方案:
当用户访问的数据,即不在缓存中,也不在数据库中,导致请求在访问缓存时,发现缓存缺失,再去访问数据库时,发现数据库中也没有要访问的数据,没办法构建缓存数据,来服务后续的请求。那么当有大量这样的请求到来时,数据库的压力骤增,这就是缓存穿透的问题。
缓存穿透的发生一般有这两种情况:
应对缓存穿透的三种常见方案:
第一种方案,非法请求的限制
当有大量恶意请求访问不存在的数据的时候,也会发生缓存穿透,因此在 API 入口处我们要判断求请求参数是否合理,请求参数是否含有非法值、请求字段是否存在,如果判断出是恶意请求就直接返回错误,避免进一步访问缓存和数据库。
第二种方案,缓存空值或者默认值
当我们线上业务发现缓存穿透的现象时,可以针对查询的数据,在缓存中设置一个空值或者默认值,这样后续请求就可以从缓存中读取到空值或者默认值,返回给应用,而不会继续查询数据库。
第三种方案,使用布隆过滤器快速判断数据是否存在,避免通过查询数据库来判断数据是否存在。
我们可以在写入数据库数据时,使用布隆过滤器做个标记,然后在用户请求到来时,业务线程确认缓存失效后,可以通过查询布隆过滤器快速判断数据是否存在,如果不存在,就不用通过查询数据库来判断数据是否存在。
即使发生了缓存穿透,大量请求只会查询 Redis 和布隆过滤器,而不会查询数据库,保证了数据库能正常运行,Redis 自身也是支持布隆过滤器的。