当前位置: 首页 > news >正文

Redis 之持久化

目录

介绍

RDB

RDB生成方式       

自动触发

手动触发 

AOF(append-only file)

Redis 4.0 混合持久化

Redis主从工作原理

总结


介绍

        Redis提供了两个持久化数据的能力,RDB Snapshot 和 AOF(Append Only FIle)日志,RDB快照能够在指定的时间间隔内生成数据快照,而AOF日志则记录了所有的写操作命令。RDB做镜像全量持久化,AOF做增量持久化。

RDB

        RDB全称Redis Database Backup file (Redis数据备份⽂件),也被叫做Redis数据快照。简单来说就是把内存中的所有数据都记录到磁盘中。

        当Redis实例故障重启后,从磁盘读取快照⽂件,恢复数据。这样一来即使故障宕机,快照文件也不会丢失,数据的可靠性也就得到了保证。它会在特定的时间点对数据库的全部数据进行快照,这个快照⽂件称为 RDB文件(dump.rdb),默认是保存在当前运⾏⽬录。其中,RDB就是Redis DataBase的缩写,是一个二进制文件。

RDB生成方式       

  • 自动触发

1. 配置文件中满足默认备份配置条件(实际上执行的是bgsave命令)   

save 900 1     #900 秒之内,对数据库进行了至少 1 次修改;save 300 10    #300 秒之内,对数据库进行了至少 10 次修改save 60 10000  #60 秒之内,对数据库进行了至少 10000 次修改
# The filename where to dump the DBdbfilename dump.rdb #默认的rdb文件名dir ./    #指定rdb目录,这里代表的是当前目录

 2. 执行flushall/flushdb命令也会产生dump.rdb文件,只不过生成的是空文件,无意义

 3. 执行shutdown且没有开启 AOF 持久化也会触发 RDB 持久化

 4. 主从复制时,主节点自动触发。

  • 手动触发 

        在客户端手动执行 save/bgsave,会触发 RDB 持久化。save会阻塞当前Redis服务,不推荐使用,bgsave会fork出子线程执行 RDB 持久化,不会阻塞,推荐使用;

        执行了 save 命令,就会在主线程生成 RDB 文件,由于和执行操作命令在同一个线程,所以如果写入 RDB 文件的时间太长,会阻塞主线程,导致Redis不能处理其他命令,因此线上禁止使用。

命令bgsave执行后,会立刻返回OK,Redis 会fork一个子进程,原来的redis主进程继续执行后续操作,新fork的子进程负责将数据保存到磁盘,然后退出,如下图:

        bgsave开始时会 fork主进程得到⼦进程,⼦进程共享主进程的内存数据。在Linux程序中,fork()会产生一个和父进程完全相同的子进程。 完成 fork 后读取内存数据并写⼊ RDB ⽂件。 fork 采⽤的是 copy-on-write 技术:当主 进程执⾏读操作时,访问共享内存;当主进程执⾏写操作时,则会拷⻉⼀份数据,执⾏写操作。
每次命令执行都会将所有redis内存快照到一个新的rdb文件里,并覆盖原有rdb快照文件。

Copy-on-write 写时复制,多更改条件下,内存被大量复制,重写完成后,数据如何释放?

本质来说,这是一个进程的内存资源管理问题:

  1. 内核提供的写时复制机制避免了大量内存拷贝以及占用过多内存
  2. 子进程fork操作只是拷贝了父进程的页表数据,当fork完成后,对于一个父进程引用的内存页,其引用值从1变成2.
  3.  当父进程进行写操作时,会申请一份新的内存页,并从原内存页copy所有数据,之后父进程就在新的内存页上进行操作。而原内存页就变成了子进程的专属内存页,引用值变成了1
  4. 子进程重写完成并退出后,内核会对资源进行回收,包括占用的内存资源
  5. 回收:对于页表来说,是进程专属,直接清理即可;而关联的内存页会将其引用值减1,如果引用值变成了0,该内存页就会被回收
  6. 也就是复制之前的页(原内存页),变成了子进程的专属页,当子进程结束后就会被回收掉

save与bgsave对比:

AOF(append-only file)

AOF全称为Append Only File(追加⽂件)。Redis处理的每⼀个写命令都会记录在AOF⽂件(读操作不记录) ,可以看做是命令⽇志⽂件。
默认情况下,redis是没有开启AOF的。开启AOF功能需要设置配置:
appendonly yes
开启 AOF 持久化后每执⾏⼀条会更改 Redis 中的数据的命令,Redis 就会将该命令写⼊到 AOF 缓冲区 server.aof_buf 中,然后再写⼊到 AOF ⽂件中 (此时在内核缓存区),最后再根据持久化⽅式( fsync策略)的配置来决定 何时将系统内核缓存区的数据同步到硬盘中的。
AOF 持久化功能的实现分为 5 步:
  1. 命令追加(append) :所有的写命令会追加到 AOF 缓冲区中。
  2. ⽂件写⼊(write) :将 AOF 缓冲区的数据写⼊到 AOF ⽂件中。这⼀步 需要调⽤write函数(系统调⽤),write将数据写⼊到了系统内核缓冲区之 后直接返回了(延迟写)。注意!此时并没有同步到磁盘。
  3. ⽂件同步(fsync) :AOF 缓冲区根据对应的持久化⽅式( fsync 策略) 向硬盘做同步操作。这⼀步需要调⽤ fsync 函数(系统调⽤), fsync 针 对单个⽂件操作,对其进⾏强制硬盘同步,fsync 将阻塞直到写⼊磁盘完 成后返回,保证了数据持久化。
  4. ⽂件重写(rewrite) :随着 AOF ⽂件越来越⼤,需要定期对 AOF ⽂件 进⾏重写,达到压缩的⽬的。
  5.  重启加载(load) :Redis 重启时,可以加载 AOF ⽂件进⾏数据恢复。
这⾥对上⾯提到的 Linux 系统调⽤再做⼀遍解释:
  • write :写⼊系统内核缓冲区之后直接返回(仅仅是写到缓冲区),不会⽴即同步到硬盘。虽然提⾼了效率,但也带来了数据丢失的⻛险。同步硬盘操作通 常依赖于系统调度机制,Linux 内核通常为 30s 同步⼀次,具体值取决于写出 的数据量和 I/O 缓冲区的状态。
  • fsync : fsync⽤于强制刷新系统内核缓冲区(同步到到磁盘),确保写磁盘操作结束才会返回。
在 Redis 的配置⽂件中存在三种不同的 AOF 持久化⽅式( fsync策略),它们分别是:
  • appendfsync always:主线程调⽤ write 执⾏写操作后,后台线程( aof_fsync 线程)⽴即会调⽤ fsync 函数同步 AOF ⽂件(刷盘),fsync 完成后线程返回,这样会严重降低 Redis 的性能

  • appendfsync everysec :主线程调⽤ write 执⾏写操作后⽴即返回,由后台线程( aof_fsync 线程)每秒钟调⽤ fsync 函数(系统调⽤)同步⼀次 AOF ⽂件

  • appendfsync no :主线程调⽤ write 执⾏写操作后⽴即返回,让操作系统决定何时进⾏同步,Linux 下⼀般为 30 秒⼀次

推荐(并且也是默认)的措施为每秒 fsync 一次, 这种 fsync 策略可以兼顾速度和安全性。

AOF重写

AOF文件里可能有太多没用指令,所以AOF会定期根据内存的最新数据生成aof文件

如下两个配置可以控制AOF自动重写频率

auto‐aof‐rewrite‐min‐size 64mb //aof文件至少要达到64M才会自动重写,文件太小恢复速度本来就很快,重写的意义不大
auto‐aof‐rewrite‐percentage 100 //aof文件自上一次重写后文件大小增长了100%则再次触发重写

当然AOF还可以手动重写,进入redis客户端执行命令bgrewriteaof重写AOF

        由于 AOF 重写会进⾏⼤量的写⼊操作,为了避免对 Redis 正常处理命令请求造成影响,Redis 将 AOF 重写程序放到⼦进程⾥执⾏。

        图 1 展示的是 AOFRW 的实现原理。当 AOFRW 被触发执行时,Redis 首先会 fork 一个子进程进行后台重写操作,该操作会将执行 fork 那一刻 Redis 的数据快照全部重写到一个名为 temp-rewriteaof-bg-pid.aof 的临时 AOF 文件中。
        由于重写操作为子进程后台执行,主进程在 AOF 重写期间依然可以正常响应用户命令。因此,为了让子进程最终也能获取重写期间主进程产生的增量变化,主进程除了会将执行的写命令写入 aof_buf,还会写一份到 aof_rewrite_buf 中进行缓存。在子进程重写的后期阶段,主进程会将 aof_rewrite_buf 中累积的数据使用 pipe 发送给子进程,子进程会将这些数据追加到临时 AOF 文件中(详细原理可参考[1])。
        当主进程承接了较大的写入流量时,aof_rewrite_buf 中可能会堆积非常多的数据,导致在重写期间子进程无法将 aof_rewrite_buf 中的数据全部消费完。此时,aof_rewrite_buf 剩余的数据将在重写结束时由主进程进行处理。

        当子进程完成重写操作并退出后,主进程会在 backgroundRewriteDoneHandler中处理后续的事情。首先,将重写期间 aof_rewrite_buf 中未消费完的数据追加到临时 AOF 文件中。其次,当一切准备就绪时,Redis 会使用 rename 操作将临时AOF 文件原子的重命名为 server.aof_filename,此时原来的 AOF 文件会被覆盖。至此,整个 AOFRW 流程结束。

图1:

AOF重写存在的问题

  • 内存开销

        由图 1 可以看到,在 AOFRW 期间,主进程会将 fork 之后的数据变化写进aof_rewrite_buf 中,aof_rewrite_buf 和 aof_buf 中的内容绝大部分都是重复的,因此这将带来额外的内存冗余开销。

  • CPU 开销

        CPU 的开销主要有三个地方,分别解释如下:
                1) 在 AOFRW 期间,主进程需要花费 CPU 时间向 aof_rewrite_buf 写数据,并使用                      eventloop 事件循环向子进程发送 aof_rewrite_buf 中的数据。

                2) 在子进程执行重写操作的后期,会循环读取 pipe 中主进程发送来的增量数据,
                    然后追加写入到临时 AOF 文件。

                3) 在子进程完成重写操作后,主进程会在 backgroundRewriteDoneHandler 中进
                    行收尾工作。其中一个任务就是将在重写期间 aof_rewrite_buf 中没有消费完
                    成的数据写入临时 AOF 文件。如果 aof_rewrite_buf 中遗留的数据很多,这里
                    也将消耗 CPU 时间。

  • 磁盘 IO 开销

        如前文所述,在 AOFRW 期间,主进程除了会将执行过的写命令写到 aof_buf 之外,
还会写一份到 aof_rewrite_buf 中。aof_buf 中的数据最终会被写入到当前使用的旧 AOF 文件中,产生磁盘 IO。同时,aof_rewrite_buf 中的数据也会被写入重写生成的新 AOF 文件中,产生磁盘 IO。因此,同一份数据会产生两次磁盘 IO。

阿⾥ Redis 在最初也遇到了这些AOF的重写问题,在内部经过多次迭代开发,实现了Multi-part AOF 机制来解决,同时也贡献给了社区并随此次 7.0 发布。具体⽅法是采⽤ base(全量数据)+incr(增量数据)独⽴⽂件存储的⽅式。

Multi-part AOF
顾名思义,MP-AOF 就是将原来的单个 AOF 文件拆分成多个 AOF 文件。在 MP-AOF中,我们将 AOF 分为三种类型,分别为:
  • BASE:表示基础 AOF,它一般由子进程通过重写产生,该文件最多只有一个;
  • INCR:表示增量 AOF,它一般会在 AOFRW 开始执行时被创建,该文件可能存在多个;
  • HISTORY:表示历史 AOF,它由 BASE 和 INCR AOF 变化而来,每次 AOFRW 成功完成时,本次 AOFRW 之前对应的 BASE 和 INCR AOF 都将变为 HISTORY,HISTORY 类型的 AOF 会被 Redis 自动删除。
为了管理这些 AOF 文件,我们引入了一个 manifest(清单)文件来跟踪、管理这些AOF。同时,为了便于 AOF 备份和拷贝,我们将所有的 AOF 文件和 manifest 文件放入一个单独的文件目录中,目录名由 appenddirname 配置(Redis7.0 新增配置项)决定。

         图 2 展示的是在 MP-AOF 中执行一次 AOFRW 的大致流程。在开始时我们依然会fork 一个子进程进行重写操作,在主进程中,我们会同时打开一个新的 INCR 类型的 AOF 文件,在子进程重写操作期间,所有的数据变化都会被写入到这个新打开的INCR AOF 中。子进程的重写操作完全是独立的,重写期间不会与主进程进行任何的数据和控制交互,最终重写操作会产生一个 BASE AOF。新生成的 BASE AOF 和新打开的 INCR AOF 就代表了当前时刻 Redis 的全部数据。AOFRW 结束时,主进程会负责更新 manifest 文件,将新生成的 BASE AOF 和 INCR AOF 信息加入进去,并将之前的 BASE AOF 和 INCR AOF 标记为 HISTORY(这些 HISTORY AOF 会被 Redis 异步删除)。一旦 manifest 文件更新完毕,就标志整个 AOFRW 流程结束。
        由图 2 可以看到,我们在 AOFRW 期间不再需要 aof_rewrite_buf,因此去掉了对应的内存消耗。同时,主进程和子进程之间也不再有数据传输和控制交互,因此对应的 CPU 开销也全部去掉。

Redis 4.0 混合持久化

重启 Redis 时,我们很少使用 RDB来恢复内存状态,因为会丢失大量数据。我们通常使用 AOF 日志重放,但是重放 AOF 日志性能相对 RDB来说要慢很多,这样在 Redis 实例很大的情况下,启动需要花费很长的时间。 Redis 4.0 为了解决这个问题,带来了一个新的持久化选项——混合持久化。
通过如下配置可以开启混合持久化(必须先开启aof):

# aof‐use‐rdb‐preamble yes

 如果开启了混合持久化,AOF在重写时,不再是单纯将内存数据转换为RESP命令写入AOF文件,而是将重写这一刻之前的内存做RDB快照处理,并且将RDB快照内容和增量的AOF修改内存数据的命令存在一起,都写入新的AOF文件,新的文件一开始不叫appendonly.aof,等到重写完新的AOF文件才会进行改名,覆盖原有的AOF文件,完成新旧两个AOF文件的替换。
于是在 Redis 重启的时候,可以先加载 RDB 的内容,然后再重放增量 AOF 日志就可以完全替代之前的AOF 全量文件重放,因此重启效率大幅得到提升。

混合持久化AOF文件结构如下

Redis主从工作原理

Redis主从架构

Redis主从工作原理

如果你为master配置了一个slave,不管这个slave是否是第一次连接上Master,它都会发送一个PSYNC命令给master请求复制数据。

master收到PSYNC命令后,会在后台进行数据持久化通过bgsave生成最新的rdb快照文件,持久化期间,master会继续接收客户端的请求,它会把这些可能修改数据集的请求缓存在内存中。当持久化进行完毕以后,master会把这份rdb文件数据集发送给slave,slave会把接收到的数据进行持久化生成rdb,然后再加载到内存中。然后,master再将之前缓存在内存中的命令发送给slave。

当master与slave之间的连接由于某些原因而断开时,slave能够自动重连Master,如果master收到了多个slave并发连接请求,它只会进行一次持久化,而不是一个连接一次,然后再把这一份持久化的数据发送给多个并发连接的slave。

主从复制(全量复制)流程图:

数据部分复制

当master和slave断开重连后,一般都会对整份数据进行复制。但从redis2.8版本开始,redis改用可以支持部分数据复制的命令PSYNC去master同步数据,slave与master能够在网络连接断开重连后只进行部分数据复制(断点续传)。

master会在其内存中创建一个复制数据用的缓存队列,缓存最近一段时间的数据,master和它所有的slave都维护了复制的数据下标offset和master的进程id,因此,当网络连接断开后,slave会请求master继续进行未完成的复制,从所记录的数据下标开始。如果master进程id变化了,或者从节点数据下标offset太旧,已经不在master的缓存队列里了,那么将会进行一次全量数据的复制。

主从复制(部分复制,断点续传)流程图:

如果有很多从节点,为了缓解主从复制风暴(多个从节点同时复制主节点导致主节点压力过大),可以做如下架构,让部分从节点与从节点(与主节点同步)同步数据

总结

RDB和AOF对比

持久化可以保证数据安全,但会带来额外的开销,请遵循下列建议:
• ⽤来做缓存的Redis实例尽量不要开启持久化功能
• 建议关闭RDB持久化功能,使⽤AOF持久化
• 利⽤脚本定期在slave节点做RDB,实现数据备份
• 设置合理的rewrite阈值,避免频繁的bgrewrite
• 配置no-appendfsync-on-rewrite =yes,禁⽌在rewrite期间做aof,避免因AOF引起的阻塞
部署建议:
• Redis实例的物理机要预留⾜够内存,应对fork和rewrite
• 单个Redis实例内存上限不要太⼤,例如8G。可以加快fork的速度、减少主从同步、数据迁移压⼒
• 不要与CPU密集型应⽤部署在⼀起
• 不要与⾼硬盘负载应⽤⼀起部署。例如:数据库、消息队列

http://www.mrgr.cn/news/78996.html

相关文章:

  • python脚本:Word文档批量转PDF格式
  • MySQL篇—通过官网下载linux系统下多种安装方式的MySQL社区版软件
  • 《Python基础》之Pandas库
  • python数据分析之爬虫基础:爬虫介绍以及urllib详解
  • uniapp使用ucharts修改Y、X轴标题超出换行
  • java垃圾回收机制介绍
  • 将空白背景透明化
  • 【C++笔记】map和set的使用
  • 【ETCD】ETCD用户密码认证
  • Mac安装MINIO服务器实现本地上传和下载服务
  • 使用Tomcat搭建简易文件服务器
  • Ansible 运维工具
  • 零基础快速掌握——【c语言基础】数组的操作,冒泡排序,选择排序
  • 我们来学mysql -- 事务并发之脏写(原理篇)
  • HDFS 操作命令
  • Spring Boot Actuator未授权访问漏洞处理
  • 【机器学习】机器学习的基本分类-监督学习-决策树-ID3 算法
  • Unity 模拟百度地图,使用鼠标控制图片在固定区域内放大、缩小、鼠标左键拖拽移动图片
  • Seatunnel解决ftp读取json文件无法读取数组以及格式化之后的json无法解析的问题
  • AllegroHand 四指灵巧手:机器人领域的创新力量
  • 十,[极客大挑战 2019]Secret File1
  • SciPy Optimize和 CVXPY对比
  • Selenium常见问题
  • 生态环境影像评价、遥感解译与GIS技术生态环境影像评价制作
  • k8s的数据库etcd报 etcdserver: mvcc: database space exceeded的处理办法
  • 三维地形图计算软件(四)-用PYQT5+vtk画任意多面示例