MySQL整体来看,其实就有两块:一块是Server层,它主要做的是MySQL功能层面的事情;还有一块是引擎层,负责存储相关的具体事宜。
redo log是InnoDB引擎特有的日志,而Server层也有自己的日志,称为binlog(归档日志)
binlog的写入机制
事务执行过程中,先把日志写到
binlog cache
,事务提交的时候,再把binlog cache
写到binlog文件中。一个事务的binlog是不能被拆开的,因此不论这个事务多大,也要确保一次性写入。
binlog cache
这就涉及到了
binlog cache
的保存问题。系统给
binlog cache
分配了一片内存,每个线程一个,参数 binlog_cache_size
用于控制单个线程内binlog cache
所占内存的大小。如果超过了这个参数规定的大小,就要暂存到磁盘。事务提交的时候,执行器把
binlog cache
里的完整事务写入到binlog中,并清空binlog cache
。状态如图所示。可以看到,每个线程有自己
binlog cache
,但是共用同一份binlog文件。- 图中的
write
,指的就是指把日志写入到文件系统的page cache
,并没有把数据持久化到磁盘,所以速度比较快。
- 图中的
fsync
,才是将数据持久化到磁盘的操作。一般情况下,我们认为fsync
才占磁盘的IOPS
。
binlog写入参数
write 和fsync的时机,是由参数
sync_binlog
控制的:sync_binlog=0
的时候,表示每次提交事务都只write,不fsync;
sync_binlog=1
的时候,表示每次提交事务都会执行fsync;
sync_binlog=N(N>1)
的时候,表示每次提交事务都write,但累积N个事务后才fsync。
因此,在出现IO瓶颈的场景里,将
sync_binlog
设置成一个比较大的值,可以提升性能。在实际的业务场景中,考虑到丢失日志量的可控性,一般不建议将这个参数设成0,比较常见的是将其设置为100~1000中的某个数值。
但是,将
sync_binlog
设置为N,对应的风险是:如果主机发生异常重启,会丢失最近N个事务的binlog日志。binlog的三种格式
binlog有三种格式,一种是
statement
,一种是row
,最后一种是mixed
(是1和2的混合)。为了便于描述binlog的这三种格式间的区别,我创建了一个表,并初始化几行数据。
CREATE TABLE `t` ( `id` int(11) NOT NULL, `a` int(11) DEFAULT NULL, `t_modified` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP, PRIMARY KEY (`id`), KEY `a` (`a`), KEY `t_modified`(`t_modified`) ) ENGINE=InnoDB; insert into t values(1,1,'2018-11-13'); insert into t values(2,2,'2018-11-12'); insert into t values(3,3,'2018-11-11'); insert into t values(4,4,'2018-11-10'); insert into t values(5,5,'2018-11-09');
statement格式
当
binlog_format=statement
时,binlog里面记录的就是SQL语句的原文。如果要在表中删除一行数据的话,我们来看看这个delete语句的binlog是怎么记录的。
注意,下面这个语句包含注释,如果你用MySQL客户端来做这个实验的话,要记得加-c参数,否则客户端会自动去掉注释。
delete from t /*comment*/ where a>=4 and t_modified<='2018-11-10' limit 1;
用
show binlog events in 'master.000001'
命令看binlog中的内容。- 第一行
SET @@SESSION.GTID_NEXT='ANONYMOUS’
你可以先忽略,后面文章我们会在介绍主备切换的时候再提到;
- 第二行是一个
BEGIN
,跟第四行的commit
对应,表示中间是一个事务;
- 第三行就是真实执行的语句了。可以看到,在真实执行的
delete
命令之前,还有一个use ‘test’
命令。这条命令不是我们主动执行的,而是MySQL根据当前要操作的表所在的数据库,自行添加的。这样做可以保证日志传到备库去执行的时候,不论当前的工作线程在哪个库里,都能够正确地更新到test库的表t。use 'test’
命令之后的delete
语句,就是我们输入的SQL原文了。可以看到,binlog“忠实”地记录了SQL命令,甚至连注释也一并记录了。
- 最后一行是一个
COMMIT
。你可以看到里面写着xid=61
。
row格式
row格式的binlog里没有了SQL语句的原文,而是替换成了两个event
把binlog的格式改为
binlog_format=‘row’
, 看看这时候binog中的内容。可以看到,与statement格式的binlog相比,前后的BEGIN和COMMIT是一样的。但是,row格式的binlog里没有了SQL语句的原文,而是替换成了两个event:Table_map和Delete_rows。
Table_map event
,用于说明接下来要操作的表是test
库的表t;
Delete_rows event
,用于定义删除的行为。
其实,通过上图是看不到详细信息的,还需要借助
mysqlbinlog
工具,用下面这个命令解析和查看binlog
中的内容。因为图中的信息显示,这个事务的binlog是从8900这个位置开始的,所以可以用start-position
参数来指定从这个位置的日志开始解析。mysqlbinlog -vv data/master.000001 --start-position=8900;
从这个图中,我们可以看到以下几个信息
server id 1
,表示这个事务是在server_id=1
的这个库上执行的。
- 每个event都有
CRC32
的值,这是因为我把参数binlog_checksum
设置成了CRC32
。
Table_map event
跟在图中看到的相同,显示了接下来要打开的表,map到数字226。现在我们这条SQL语句只操作了一张表,如果要操作多张表呢?每个表都有一个对应的Table_map event
、都会map到一个单独的数字,用于区分对不同表的操作。
- 我们在
mysqlbinlog
的命令中,使用了-vv
参数是为了把内容都解析出来,所以从结果里面可以看到各个字段的值(比如,@1=4
、@2=4
这些值)。
binlog_row_image
的默认配置是FULL
,因此Delete_event
里面,包含了删掉的行的所有字段的值。如果把binlog_row_image
设置为MINIMAL
,则只会记录id值。
- 最后的
Xid event
,用于表示事务被正确地提交了。
statement 和 row的区别
为了说明statement 和 row格式的区别,我们来看一下这条delete命令的执行效果图:
执行
show warnings
可以看到,运行这条delete命令产生了一个
warning
,原因是当前binlog设置的是statement
格式,并且语句中有limit
,所以这个命令可能是unsafe
的。为什么这么说呢?这是因为delete 带limit,很可能会出现主备数据不一致的情况。比如上面这个例子:
- 如果delete语句使用的是索引a,那么会根据索引a找到第一个满足条件的行,也就是说删除的是a=4这一行;
- 但如果使用的是索引
t_modified
,那么删除的就是t_modified='2018-11-09’
也就是a=5这一行。
由于statement格式下,记录到binlog里的是语句原文,因此可能会出现这样一种情况:在主库执行这条SQL语句的时候,用的是索引a;而在备库执行这条SQL语句的时候,却使用了索引
t_modified
。因此,MySQL认为这样写是有风险的。当
binlog_format
使用row格式的时候,binlog里面记录了真实删除行的主键id,这样binlog传到备库去的时候,就肯定会删除id=4的行,不会有主备删除不同行的问题。mixed格式
mixed
格式可以利用statment
格式的优点,同时又避免了数据不一致的风险。- 有些
statement
格式的binlog
可能会导致主备不一致,所以要使用row格式。
- 但row格式的缺点是,很占空间。比如你用一个delete语句删掉10万行数据,用
statement
的话就是一个SQL语句被记录到binlog中,占用几十个字节的空间。但如果用row格式的binlog,就要把这10万条记录都写到binlog中。这样做,不仅会占用更大的空间,同时写binlog也要耗费IO资源,影响执行速度。
- 所以,MySQL就取了个折中方案,也就是有了
mixed
格式的binlog。mixed
格式的意思是,MySQL自己会判断这条SQL语句是否可能引起主备不一致,如果有可能,就用row
格式,否则就用statement
格式。
因此,如果你的线上MySQL设置的binlog格式是
statement
的话,那基本上就可以认为这是一个不合理的设置。你至少应该把binlog
的格式设置为mixed
。比如我们这个例子,设置为
mixed
后,就会记录为row格式;而如果执行的语句去掉limit 1
,就会记录为statement
格式。binlog使用场景
全量备份
前面我说到定期全量备份的周期“取决于系统重要性,有的是一天一备,有的是一周一备”。那么在什么场景下,一天一备会比一周一备更有优势呢?或者说,它影响了这个数据库系统的哪个指标?
好处是“最长恢复时间”更短,在一天一备的模式里,最坏情况下需要应用一天的 binlog。比如,你每天 0 点做一次全量备份,而要恢复出一个到昨天晚上 23 点的备份。
一周一备最坏情况就要应用一周的 binlog 了。系统的对应指标就是 RTO(恢复目标时间)。当然这个是有成本的,因为更频繁全量备份需要消耗更多存储空间,所以这个 RTO 是成本换来的,就需要你根据业务重要新来评估了
数据恢复
让数据库恢复到半个月内任意一秒的状态
binlog
会记录所有的逻辑操作,并且是采用“追加写”的形式。如果你的DBA承诺说半个月内可以恢复,那么备份系统中一定会保存最近半个月的所有
binlog
,同时系统会定期做整库备份。这里的“定期”取决于系统的重要性,可以是一天一备,也可以是一周一备。当需要恢复到指定的某一秒时,比如某天下午两点发现中午十二点有一次误删表,需要找回数据,那你可以这么做:
- 首先,找到最近的一次全量备份,如果你运气好,可能就是昨天晚上的一个备份,从这个备份恢复到临时库;
- 然后,从备份的时间点开始,将备份的
binlog
依次取出来,重放到中午误删表之前的那个时刻。
这样你的临时库就跟误删之前的线上库一样了,然后你可以把表数据从临时库取出来,按需要恢复到线上库去。
恢复临时库
当你需要扩容的时候,也就是需要再多搭建一些备库来增加系统的读能力的时候,现在常见的做法也是用全量备份加上应用binlog来实现的
主从同步
一条更新语句的执行流程
如下所示T表有一个主键ID和一个整型字段c:
create table T(ID int primary key, c int);
如果要将ID=2这一行的值加1,SQL语句就会这么写:
update T set c=c+1 where ID=2;
查询语句的那一套流程,更新语句也是同样会走一遍。
你执行语句前要先连接数据库,这是连接器的工作。
在一个表上有更新的时候,跟这个表有关的查询缓存会失效,所以这条语句就会把表T上所有缓存结果都清空。这也就是我们一般不建议使用查询缓存的原因。
接下来,分析器会通过词法和语法解析知道这是一条更新语句。优化器决定要使用ID这个索引。然后,执行器负责具体执行。
执行器和InnoDB引擎在执行这个简单的update语句时的内部流程。
- 执行器先找引擎取ID=2这一行。ID是主键,引擎直接用树搜索找到这一行。如果ID=2这一行所在的数据页本来就在内存中,就直接返回给执行器;否则,需要先从磁盘读入内存,然后再返回。
- 执行器拿到引擎给的行数据,把这个值加上1,比如原来是N,现在就是N+1,得到新的一行数据,再调用引擎接口写入这行新数据。
- 引擎将这行新数据更新到内存中,同时将这个更新操作记录到
redo log
里面,此时redo log
处于prepare
状态。然后告知执行器执行完成了,随时可以提交事务。
- 执行器生成这个操作的
binlog
,并把binlog
写入磁盘。
- 执行器调用引擎的提交事务接口,引擎把刚刚写入的
redo log
改成提交(commit)
状态,更新完成。
这里我给出这个update语句的执行流程图,图中浅色框表示是在InnoDB内部执行的,深色框表示是在执行器中执行的。
最后三步看上去有点“绕”,将
redo log
的写入拆成了两个步骤:prepare
和commit
,这就是"两阶段提交"。两阶段提交
保证binlog和redo log 数据一致性
为什么必须有“两阶段提交”呢?这是为了让两份日志之间的逻辑一致。
由于
redo log
和binlog
是两个独立的逻辑,如果不用两阶段提交,要么就是先写完redo log
再写binlog
,或者采用反过来的顺序。我们看看这两种方式会有什么问题。仍然用前面的update语句来做例子。假设当前ID=2的行,字段c的值是0,再假设执行update语句过程中在写完第一个日志后,第二个日志还没有写完期间发生了crash,会出现什么情况呢?
- 先写
redo log
后写binlog。
假设在
redo log
写完,binlog还没有写完的时候,MySQL进程异常重启。由于我们前面说过的,redo log
写完之后,系统即使崩溃,仍然能够把数据恢复回来,所以恢复后这一行c的值是1。但是由于binlog没写完就crash了,这时候binlog里面就没有记录这个语句。因此,之后备份日志的时候,存起来的binlog里面就没有这条语句。然后你会发现,如果需要用这个binlog来恢复临时库的话,由于这个语句的binlog丢失,这个临时库就会少了这一次更新,恢复出来的这一行c的值就是0,与原库的值不同。
- 先写binlog后写
redo log
。如果在binlog写完之后crash,由于redo log
还没写,崩溃恢复以后这个事务无效,所以这一行c的值是0。但是binlog里面已经记录了“把c从0改成1”这个日志。所以,在之后用binlog来恢复的时候就多了一个事务出来,恢复出来的这一行c的值就是1,与原库的值不同。
可以看到,如果不使用“两阶段提交”,那么数据库的状态就有可能和用它的日志恢复出来的库的状态不一致。
你可能会说,这个概率是不是很低,平时也没有什么动不动就需要恢复临时库的场景呀?
其实不是的,不只是误操作后需要用这个过程来恢复数据。
当你需要扩容的时候,也就是需要再多搭建一些备库来增加系统的读能力的时候,现在常见的做法也是用全量备份加上应用binlog来实现的,这个“不一致”就会导致你的线上出现主从数据库不一致的情况。
简单说,
redo log
和binlog
都可以用于表示事务的提交状态,而两阶段提交就是让这两个状态保持逻辑上的一致。redo log
用于保证crash-safe
能力。innodb_flush_log_at_trx_commit
这个参数设置成1的时候,表示每次事务的redo log
都直接持久化到磁盘。这个参数我建议你设置成1,这样可以保证MySQL异常重启之后数据不丢失。sync_binlog
这个参数设置成1的时候,表示每次事务的binlog都持久化到磁盘。这个参数我也建议你设置成1,这样可以保证MySQL异常重启之后binlog不丢失。在两阶段提交的不同时刻,MySQL异常重启
如果在图中时刻A的地方,也就是写入
redo log
处于prepare阶段之后、写binlog之前,发生了崩溃(crash),由于此时binlog还没写,redo log也还没提交,所以崩溃恢复的时候,这个事务会回滚。这时候,binlog还没写,所以也不会传到备库。到这里,大家都可以理解。大家出现问题的地方,主要集中在时刻B,也就是binlog写完,
redo log
还没commit前发生crash,那崩溃恢复的时候MySQL会怎么处理?我们先来看一下崩溃恢复时的判断规则。
- 如果
redo log
里面的事务是完整的,也就是已经有了commit标识,则直接提交;
- 如果
redo log
里面的事务只有完整的prepare,则判断对应的事务binlog是否存在并完整:a. 如果是,则提交事务;b. 否则,回滚事务。
这里,时刻B发生crash对应的就是2(a)的情况,崩溃恢复过程中事务会被提交。
组提交优化
从MySQL看到的TPS是每秒两万的话,每秒就会写四万次磁盘。但是,我用工具测试出来,磁盘能力也就两万左右,怎么能实现两万的TPS?
解释这个问题,就要用到组提交
(group commit)
机制了。这里,我需要先和你介绍日志逻辑序列号
(log sequence number,LSN)
的概念。LSN是单调递增的,用来对应redo log
的一个个写入点。每次写入长度为length的redo log
, LSN的值就会加上length。LSN也会写到InnoDB的数据页中,来确保数据页不会被多次执行重复的
redo log
。如图所示,是三个并发事务
(trx1, trx2, trx3)
在prepare 阶段,都写完redo log buffer
,持久化到磁盘的过程,对应的LSN分别是50、120 和160。从图中可以看到,
- trx1是第一个到达的,会被选为这组的 leader;
- 等trx1要开始写盘的时候,这个组里面已经有了三个事务,这时候LSN也变成了160;
- trx1去写盘的时候,带的就是LSN=160,因此等trx1返回时,所有LSN小于等于160的redo log,都已经被持久化到磁盘;
- 这时候trx2和trx3就可以直接返回了。
所以,一次组提交里面,组员越多,节约磁盘IOPS的效果越好。但如果只有单线程压测,那就只能老老实实地一个事务对应一次持久化操作了。
在并发更新场景下,第一个事务写完
redo log buffer
以后,接下来这个fsync越晚调用,组员可能越多,节约IOPS的效果就越好。为了让一次fsync带的组员更多,MySQL有一个很有趣的优化:拖时间。
两阶段提交把“写binlog”当成一个动作。但实际上,写binlog是分成两步的:
- 先把binlog从
binlog cache
中写到磁盘上的binlog
文件;
- 调用fsync持久化。
MySQL为了让组提交的效果更好,把
redo log
做fsync的时间拖到了步骤1之后。也就是说,上面的图变成了这样:这么一来,binlog也可以组提交了。在执行上图中第4步把
binlog fsync
到磁盘时,如果有多个事务的binlog已经写完了,也是一起持久化的,这样也可以减少IOPS的消耗。不过通常情况下第3步执行得会很快,所以binlog的write和fsync间的间隔时间短,导致能集合到一起持久化的binlog比较少,因此binlog的组提交的效果通常不如redo log的效果那么好。
如果你想提升binlog组提交的效果,可以通过设置
binlog_group_commit_sync_delay
和 binlog_group_commit_sync_no_delay_count
来实现。binlog_group_commit_sync_delay
参数,表示延迟多少微秒后才调用fsync;
binlog_group_commit_sync_no_delay_count
参数,表示累积多少次以后才调用fsync。
这两个条件是或的关系,也就是说只要有一个满足条件就会调用fsync。
所以,当
binlog_group_commit_sync_delay
设置为0的时候,binlog_group_commit_sync_no_delay_count
也无效了。WAL机制是减少磁盘写,可是每次提交事务都要写redo log和binlog,这磁盘读写次数也没变少呀?
现在就能理解了,WAL机制主要得益于两个方面:
- redo log 和 binlog都是顺序写,磁盘的顺序写比随机写速度要快;
- 组提交机制,可以大幅度降低磁盘的IOPS消耗。
分析到这里,我们再来回答这个问题:如果你的MySQL现在出现了性能瓶颈,而且瓶颈在IO上,可以通过哪些方法来提升性能呢?
针对这个问题,可以考虑以下三种方法:
- 设置
binlog_group_commit_sync_delay
和binlog_group_commit_sync_no_delay_count
参数,减少binlog的写盘次数。这个方法是基于“额外的故意等待”来实现的,因此可能会增加语句的响应时间,但没有丢失数据的风险。
- 将
sync_binlog
设置为大于1的值(比较常见是100~1000)。这样做的风险是,主机掉电时会丢binlog日志。
- 将
innodb_flush_log_at_trx_commit
设置为2。这样做的风险是,主机掉电的时候会丢数据。
我不建议你把
innodb_flush_log_at_trx_commit
设置成0。因为把这个参数设置成0,表示redo log只保存在内存中,这样的话MySQL本身异常重启也会丢数据,风险太大。而redo log写到文件系统的page cache的速度也是很快的,所以将这个参数设置成2跟设置成0其实性能差不多,但这样做MySQL异常重启时就不会丢数据了,相比之下风险会更小。QA
MySQL怎么知道binlog是完整的?
一个事务的binlog是有完整格式的:
- statement格式的binlog,最后会有COMMIT;
- row格式的binlog,最后会有一个XID event。
另外,在MySQL 5.6.2版本以后,还引入了
binlog-checksum
参数,用来验证binlog内容的正确性。对于binlog日志由于磁盘原因,可能会在日志中间出错的情况,MySQL可以通过校验checksum的结果来发现。所以,MySQL还是有办法验证事务binlog的完整性的。处于prepare阶段的
redo log
加上完整binlog,重启就能恢复,MySQL为什么要这么设计?回答:其实,这个问题还是跟我们在反证法中说到的数据与备份的一致性有关。在时刻B,也就是binlog写完以后MySQL发生崩溃,这时候binlog已经写入了,之后就会被从库(或者用这个binlog恢复出来的库)使用。
所以,在主库上也要提交这个事务。采用这个策略,主库和备库的数据就保证了一致性。
如果这样的话,为什么还要两阶段提交呢?干脆先
redo log
写完,再写binlog。崩溃恢复的时候,必须得两个日志都完整才可以。是不是一样的逻辑?回答:其实,两阶段提交是经典的分布式系统问题,并不是MySQL独有的。
如果必须要举一个场景,来说明这么做的必要性的话,那就是事务的持久性问题。
对于InnoDB引擎来说,如果redo log提交完成了,事务就不能回滚(如果这还允许回滚,就可能覆盖掉别的事务的更新)。而如果redo log直接提交,然后binlog写入的时候失败,InnoDB又回滚不了,数据和binlog日志又不一致了。
两阶段提交就是为了给所有人一个机会,当每个人都说“我ok”的时候,再一起提交
那能不能反过来,只用redo log,不要binlog?
回答:如果只从崩溃恢复的角度来讲是可以的。你可以把binlog关掉,这样就没有两阶段提交了,但系统依然是crash-safe的。
但是,如果你了解一下业界各个公司的使用场景的话,就会发现在正式的生产库上,binlog都是开着的。因为binlog有着redo log无法替代的功能。
一个是归档。redo log是循环写,写到末尾是要回到开头继续写的。这样历史日志没法保留,redo log也就起不到归档的作用。
一个就是MySQL系统依赖于binlog。binlog作为MySQL一开始就有的功能,被用在了很多地方。其中,MySQL系统高可用的基础,就是binlog复制。
还有很多公司有异构系统(比如一些数据分析系统),这些系统就靠消费MySQL的binlog来更新自己的数据。关掉binlog的话,这些下游系统就没法输入了。
总之,由于现在包括MySQL高可用在内的很多系统机制都依赖于binlog,
正常运行中的实例,数据写入后的最终落盘,是从redo log更新过来的还是从buffer pool更新过来的呢?
回答:这个问题其实问得非常好。这里涉及到了,“redo log里面到底是什么”的问题。
实际上,redo log并没有记录数据页的完整数据,所以它并没有能力自己去更新磁盘数据页,也就不存在“数据最终落盘,是由redo log更新过去”的情况。
- 如果是正常运行的实例的话,数据页被修改以后,跟磁盘的数据页不一致,称为脏页。最终数据落盘,就是把内存中的数据页写盘。这个过程,甚至与redo log毫无关系。
- 在崩溃恢复场景中,InnoDB如果判断到一个数据页可能在崩溃恢复的时候丢失了更新,就会将它读到内存,然后让redo log更新内存内容。更新完成后,内存页变成脏页,就回到了第一种情况的状态。
redo log buffer是什么?是先修改内存,还是先写redo log文件?
在一个事务的更新过程中,日志是要写多次的。比如下面这个事务:
begin; insert into t1 ... insert into t2 ... commit;
这个事务要往两个表中插入记录,插入数据的过程中,生成的日志都得先保存起来,但又不能在还没commit的时候就直接写到redo log文件里。
所以,
redo log buffer
就是一块内存,用来先存redo日志的。也就是说,在执行第一个insert的时候,数据的内存被修改了,redo log buffer
也写入了日志。但是,真正把日志写到
redo log
文件(文件名是 ib_logfile+数字
),是在执行commit语句的时候做的。(这里说的是事务执行过程中不会“主动去刷盘”,以减少不必要的IO消耗。但是可能会出现“被动写入磁盘”,比如内存不够、其他事务提交等情况)。
单独执行一个更新语句的时候,InnoDB会自己启动一个事务,在语句执行完成的时候提交。过程跟上面是一样的,只不过是“压缩”到了一个语句里面完成。