停用原因
使用了代理,频繁的切换IP地区
申诉方法
登陆账号,按照提示申诉
申诉模板
1 | 您好我的账户是xxxxx@gmail.com。我是中国区用户,必需使用vpn代理才能使用谷歌产品,可能由于vpn的不稳定和频繁切换造成账号异常被停用,这个账号对我很重要,希望您可以帮我解决一下,非常感谢。 |
使用了代理,频繁的切换IP地区
登陆账号,按照提示申诉
申诉模板
1 | 您好我的账户是xxxxx@gmail.com。我是中国区用户,必需使用vpn代理才能使用谷歌产品,可能由于vpn的不稳定和频繁切换造成账号异常被停用,这个账号对我很重要,希望您可以帮我解决一下,非常感谢。 |
“排序并查集” 不是一个常见的术语,我认为您可能在表述上存在一些误解。通常,”排序” 和 “并查集” 是两种不同的数据结构和算法。
排序:排序是一种将数据元素按照一定规则重新排列的操作。常见的排序算法包括冒泡排序、选择排序、插入排序、归并排序、快速排序等。这些算法根据元素的比较和交换操作来实现排序。
并查集:并查集(Disjoint Set Union,简称 DSU)是一种用于处理元素分组问题的数据结构。它主要支持两种操作:合并(Union)和查找(Find)。合并操作将两个不相交的集合合并为一个集合,而查找操作用于确定一个元素属于哪个集合。并查集常用于解决集合的合并、连通性问题等。
以下是一个简单的 Java 实现示例,展示如何实现并查集:
1 | class UnionFind { |
在上面的示例中,我们首先创建了一个 UnionFind
类来实现并查集。parent
数组存储每个元素的父节点,rank
数组存储每个集合的秩(树的深度)。在 find
方法中使用路径压缩优化,通过递归将节点的父节点直接指向根节点,以减小树的深度。
union
方法用于合并两个集合,根据秩的大小选择将一个集合的根节点连接到另一个集合的根节点,并更新秩。
这只是一个简单的并查集实现示例。在实际应用中,可能需要更多的优化和扩展,例如按秩合并、路径压缩等。
自增id用完怎么办?MySQL里有很多自增的id,每个自增id都是定义了初始值,然后不停地往上加步长。
虽然自然数是没有上限的,但是在计算机里,只要定义了表示这个数的字节长度,那它就有上限。
比如,无符号整型(unsigned int)是4个字节,上限就是2 -1。
既然自增id有上限,就有可能被用完。
但是,自增id用完了会怎么样呢?今天这篇文章,我们就来看看MySQL里面的几种自增id,一起分析一下它们的值达到上限以后,会出现什么情况。
表定义自增值id说到自增id,你第一个想到的应该就是表结构定义里的自增字段,也就是我在第39篇文章《自增主键为什么不是连续的?》中和你介绍过的自增主键id。
表定义的自增值达到上限后的逻辑是:再申请下一个id时,得到的值保持不变。
我们可以通过下面这个语句序列验证一下:
32可以看到,第一个insert语句插入数据成功后,这个表的AUTO_INCREMENT没有改变(还是4294967295),就导致了第二个insert语句又拿到相同的自增id值,再试图执行插入语句,报主键冲突错误。
2 -1(4294967295)不是一个特别大的数,对于一个频繁插入删除数据的表来说,是可能会被用完的。
因此在建表的时候你需要考察你的表是否有可能达到这个上限,如果有可能,就应该创建成8个字节的bigint unsigned。
InnoDB系统自增row_id如果你创建的InnoDB表没有指定主键,那么InnoDB会给你创建一个不可见的,长度为6个字节的row_id。
InnoDB维护了一个全局的dict_sys.row_id值,所有无主键的InnoDB表,每插入一行数据,都将当前的dict_sys.row_id值作为要插入数据的row_id,然后把dict_sys.row_id的值加1。
实际上,在代码实现时row_id是一个长度为8字节的无符号长整型(bigint unsigned)。
但是,InnoDB在设计时,给row_id留的只是6个字节的长度,这样写到数据表中时只放了最后6个字节,所以row_id能写到数据表中的值,就有两个特征:
row_id写入表中的值范围,是从0到2 -1;
当dict_sys.row_id=2 时,如果再有插入数据的行为要来申请row_id,拿到以后再取最后6个字节的话就是0。
也就是说,写入表的row_id是从0开始到2 -1。
达到上限后,下一个值就是0,然后继续循环。
当然,2 -1这个值本身已经很大了,但是如果一个MySQL实例跑得足够久的话,还是可能达到这个上限的。
在InnoDB逻辑里,申请到row_id=N后,就将这行数据写入表中;如果表中已经存create table t(id int unsigned auto_increment primary key) auto_increment=4294967295;insert into t values(null);//成功插入一行 4294967295show create table t;/* CREATE TABLE t̀ ̀( ìd ̀int(10) unsigned NOT NULL AUTO_INCREMENT, PRIMARY KEY (̀ id )̀) ENGINE=InnoDB AUTO_INCREMENT=4294967295;*/insert into t values(null);//Duplicate entry ‘4294967295’ for key ‘PRIMARY’3248484848在row_id=N的行,新写入的行就会覆盖原有的行。
要验证这个结论的话,你可以通过gdb修改系统的自增row_id来实现。
注意,用gdb改变量这个操作是为了便于我们复现问题,只能在测试环境使用。
图1 row_id用完的验证序列图2 row_id用完的效果验证可以看到,在我用gdb将dict_sys.row_id设置为2 之后,再插入的a=2的行会出现在表t的第一行,因为这个值的row_id=0。
之后再插入的a=3的行,由于row_id=1,就覆盖了之前a=1的行,因为a=1这一行的row_id也是1。
从这个角度看,我们还是应该在InnoDB表中主动创建自增主键。
因为,表自增id到达上限后,再插入数据时报主键冲突错误,是更能被接受的。
毕竟覆盖数据,就意味着数据丢失,影响的是数据可靠性;报主键冲突,是插入失败,影响的是可用性。
而一般情况下,可靠性优先于可用性。
Xid48在第15篇文章《答疑文章(一):日志和索引相关问题》中,我和你介绍redo log和binlog相配合的时候,提到了它们有一个共同的字段叫作Xid。
它在MySQL中是用来对应事务的。
那么,Xid在MySQL内部是怎么生成的呢?MySQL内部维护了一个全局变量global_query_id,每次执行语句的时候将它赋值给Query_id,然后给这个变量加1。
如果当前语句是这个事务执行的第一条语句,那么MySQL还会同时把Query_id赋值给这个事务的Xid。
而global_query_id是一个纯内存变量,重启之后就清零了。
所以你就知道了,在同一个数据库实例中,不同事务的Xid也是有可能相同的。
但是MySQL重启之后会重新生成新的binlog文件,这就保证了,同一个binlog文件里,Xid一定是惟一的。
虽然MySQL重启不会导致同一个binlog里面出现两个相同的Xid,但是如果global_query_id达到上限后,就会继续从0开始计数。
从理论上讲,还是就会出现同一个binlog里面出现相同Xid的场景。
因为global_query_id定义的长度是8个字节,这个自增值的上限是2 -1。
要出现这种情况,必须是下面这样的过程:
执行一个事务,假设Xid是A;
接下来执行2 次查询语句,让global_query_id回到A;
再启动一个事务,这个事务的Xid也是A。
不过,2 这个值太大了,大到你可以认为这个可能性只会存在于理论上。
Innodb trx_idXid和InnoDB的trx_id是两个容易混淆的概念。
Xid是由server层维护的。
InnoDB内部使用Xid,就是为了能够在InnoDB事务和server之间做关联。
但是,InnoDB自己的trx_id,是另外维护的。
其实,你应该非常熟悉这个trx_id。
它就是在我们在第8篇文章《事务到底是隔离的还是不隔离的?》中讲事务可见性时,用到的事务id(transaction id)。
InnoDB内部维护了一个max_trx_id全局变量,每次需要申请一个新的trx_id时,就获得max_trx_id的当前值,然后并将max_trx_id加1。
InnoDB数据可见性的核心思想是:每一行数据都记录了更新它的trx_id,当一个事务读到一行数646464据的时候,判断这个数据是否可见的方法,就是通过事务的一致性视图与这行数据的trx_id做对比。
对于正在执行的事务,你可以从information_schema.innodb_trx表中看到事务的trx_id。
我在上一篇文章的末尾留给你的思考题,就是关于从innodb_trx表里面查到的trx_id的。
现在,我们一起来看一个事务现场:
图3 事务的trx_idsession B里,我从innodb_trx表里查出的这两个字段,第二个字段trx_mysql_thread_id就是线程id。
显示线程id,是为了说明这两次查询看到的事务对应的线程id都是5,也就是session A所在的线程。
可以看到,T2时刻显示的trx_id是一个很大的数;T4时刻显示的trx_id是1289,看上去是一个比较正常的数字。
这是什么原因呢?实际上,在T1时刻,session A还没有涉及到更新,是一个只读事务。
而对于只读事务,InnoDB并不会分配trx_id。
也就是说:
而这个很大的数,只是显示用的。
一会儿我会再和你说说这个数据的生成逻辑。
所以,T4时刻,session B查到的这个trx_id的值就是1289。
需要注意的是,除了显而易见的修改类语句外,如果在select 语句后面加上for update,这个事务也不是只读事务。
在上一篇文章的评论区,有同学提出,实验的时候发现不止加1。
这是因为:
update 和 delete语句除了事务本身,还涉及到标记删除旧数据,也就是要把数据放到purge队列里等待后续物理删除,这个操作也会把max_trx_id+1, 因此在一个事务中至少加2;
InnoDB的后台操作,比如表的索引信息统计这类操作,也是会启动内部事务的,因此你可能看到,trx_id值并不是按照加1递增的。
那么,T2时刻查到的这个很大的数字是怎么来的呢?其实,这个数字是每次查询的时候由系统临时计算出来的。
它的算法是:把当前事务的trx变量的指针地址转成整数,再加上2 。
使用这个算法,就可以保证以下两点:
因为同一个只读事务在执行期间,它的指针地址是不会变的,所以不论是在 innodb_trx还是在innodb_locks表里,同一个只读事务查出来的trx_id就会是一样的。
如果有并行的多个只读事务,每个事务的trx变量的指针地址肯定不同。
这样,不同的并发只读事务,查出来的trx_id就是不同的。
那么,为什么还要再加上2 呢?在显示值里面加上2 ,目的是要保证只读事务显示的trx_id值比较大,正常情况下就会区别于读写事务的id。
但是,trx_id跟row_id的逻辑类似,定义长度也是8个字节。
因此,在理论上还是可能出现一个读写事务与一个只读事务显示的trx_id相同的情况。
不过这个概率很低,并且也没有什么实质危害,可以不管它。
另一个问题是,只读事务不分配trx_id,有什么好处呢?一个好处是,这样做可以减小事务视图里面活跃事务数组的大小。
因为当前正在运行的只读事务,是不影响数据的可见性判断的。
所以,在创建事务的一致性视图时,InnoDB就只需要拷贝读写事务的trx_id。
另一个好处是,可以减少trx_id的申请次数。
在InnoDB里,即使你只是执行一个普通的select语句,在执行过程中,也是要对应一个只读事务的。
所以只读事务优化后,普通的查询语句不需要申请trx_id,就大大减少了并发事务申请trx_id的锁冲突。
484848由于只读事务不分配trx_id,一个自然而然的结果就是trx_id的增加速度变慢了。
但是,max_trx_id会持久化存储,重启也不会重置为0,那么从理论上讲,只要一个MySQL服务跑得足够久,就可能出现max_trx_id达到2 -1的上限,然后从0开始的情况。
当达到这个状态后,MySQL就会持续出现一个脏读的bug,我们来复现一下这个bug。
首先我们需要把当前的max_trx_id先修改成2 -1。
注意:这个case里使用的是可重复读隔离级别。
具体的操作流程如下:
图 4 复现脏读由于我们已经把系统的max_trx_id设置成了2 -1,所以在session A启动的事务TA的低水位就是484848482 -1。
在T2时刻,session B执行第一条update语句的事务id就是2 -1,而第二条update语句的事务id就是0了,这条update语句执行后生成的数据版本上的trx_id就是0。
在T3时刻,session A执行select语句的时候,判断可见性发现,c=3这个数据版本的trx_id,小于事务TA的低水位,因此认为这个数据可见。
但,这个是脏读。
由于低水位值会持续增加,而事务id从0开始计数,就导致了系统在这个时刻之后,所有的查询都会出现脏读的。
并且,MySQL重启时max_trx_id也不会清0,也就是说重启MySQL,这个bug仍然存在。
那么,这个bug也是只存在于理论上吗?假设一个MySQL实例的TPS是每秒50万,持续这个压力的话,在17.8年后,就会出现这个情况。
如果TPS更高,这个年限自然也就更短了。
但是,从MySQL的真正开始流行到现在,恐怕都还没有实例跑到过这个上限。
不过,这个bug是只要MySQL实例服务时间够长,就会必然出现的。
当然,这个例子更现实的意义是,可以加深我们对低水位和数据可见性的理解。
你也可以借此机会再回顾下第8篇文章《事务到底是隔离的还是不隔离的?》中的相关内容。
thread_id接下来,我们再看看线程id(thread_id)。
其实,线程id才是MySQL中最常见的一种自增id。
平时我们在查各种现场的时候,show processlist里面的第一列,就是thread_id。
thread_id的逻辑很好理解:系统保存了一个全局变量thread_id_counter,每新建一个连接,就将thread_id_counter赋值给这个新连接的线程变量。
thread_id_counter定义的大小是4个字节,因此达到2 -1后,它就会重置为0,然后继续增加。
但是,你不会在show processlist里看到两个相同的thread_id。
这,是因为MySQL设计了一个唯一数组的逻辑,给新线程分配thread_id的时候,逻辑代码是这样的:
484832do { new_id= thread_id_counter++;} while (!thread_ids.insert_unique(new_id).second);这个代码逻辑简单而且实现优雅,相信你一看就能明白。
小结今天这篇文章,我给你介绍了MySQL不同的自增id达到上限以后的行为。
数据库系统作为一个可能需要7*24小时全年无休的服务,考虑这些边界是非常有必要的。
每种自增id有各自的应用场景,在达到上限后的表现也不同:
表的自增id达到上限后,再申请时它的值就不会改变,进而导致继续插入数据时报主键冲突的错误。
row_id达到上限后,则会归0再重新递增,如果出现相同的row_id,后写的数据会覆盖之前的数据。
Xid只需要不在同一个binlog文件中出现重复值即可。
虽然理论上会出现重复值,但是概率极小,可以忽略不计。
InnoDB的max_trx_id 递增值每次MySQL重启都会被保存起来,所以我们文章中提到的脏读的例子就是一个必现的bug,好在留给我们的时间还很充裕。
thread_id是我们使用中最常见的,而且也是处理得最好的一个自增id逻辑了。
当然,在MySQL里还有别的自增id,比如table_id、binlog文件序号等,就留给你去验证和探索了。
不同的自增id有不同的上限值,上限值的大小取决于声明的类型长度。
而我们专栏声明的上限id就是45,所以今天这篇文章也是我们的最后一篇技术文章了。
既然没有下一个id了,课后也就没有思考题了。
今天,我们换一个轻松的话题,请你来说说,读完专栏以后有什么感想吧。
这个“感想”,既可以是你读完专栏前后对某一些知识点的理解发生的变化,也可以是你积累的学习专栏文章的好方法,当然也可以是吐槽或者对未来的期望。
欢迎你给我留言,我们在评论区见,也欢迎你把这篇文章分享给更多的朋友一起阅读。
Continue 12跟着学了三个多月,受益匪浅,学到了很多新的知识和其中的原理!2019-02-25 作者回复早 2019-02-25克劳德 7本人服务端工程师,在学习这门课之前数据库一直是我的短板,曾听朋友说MySQL或数据库中涉及了很多方面的知识点,每一个拿出来展开讲几乎都能出一本书了,对数据库是越来越忌惮,同时也因为工作上并没有过多接触,水平便一直停留在编写简单SQL层面。
在面试中被问到数据库问题,只能无奈的说这块不太清楚,也曾在网上自学过,但网上的文章知识点比较零散,很多都是给出一些结论性的观点,由于不了解其内部原理,记忆很难深刻。
老实说,当初报这门课的时候就像买技术书籍一样,我相信大家都有这样的体会,以为买到了就等于学到了,所以有一段时间没有点开看过,以至于后面开始学的时候都是在追赶老师和大家的进度,唯一遗憾的地方就是没能跟老师及时留言互动。
这门课虽然是文字授课,但字里行间给我的感觉就是很亲切很舒服,为什么呢,因为老师可以把晦涩的知识变得通俗易懂,有时我在思考,如果让我来讲一个自己擅长的领域是否也能做到这一点,如果要做到的话需要什么样的知识储备呢。
最后真要感谢老师的这门课,让我从心里不再惧怕数据库问题,不管是工作还是面试中信心倍增,现在时不时都敢和我们DBA“切磋切磋“了,哈哈。
精选留言祝好~2019-02-25 作者回复 “切磋切磋“留言不会“过时”哈,在对应的章节下面提出相关的问题,我会持续关注评论区2019-02-25三胖 3老师,我才学了四分之一的课程,但是这门课已经更新完了,我是直接跑到最后一节技术篇来留言的!很想知道,后来者比如我在学到后面的课程时遇到问题留言,老师还会看会回复吗?(老师的课程超值!!)2019-02-25 作者回复会看的后台系统是按照留言时间显示的而且我在这事情上有强迫症,一定会让“未处理问题”变成0的 只是说如果是其他同学评论区问过的问题,我可能就不会重复回复了2019-02-25某、人 2很遗憾没能坚持到最后,但是也很庆幸能遇到这么好的专栏。
以前了解mysql都是一些零散的知识点,通过学习完专栏,不论是mysql整体架构还是基础的知识点,都有了更深的认识。
以后就把老师的文档当官方文档查,出现问题先来看看专栏。
感触特别深的是,老师对于提到的每一个问题,都会严谨又认真的去回答,尽量帮助每一位同学都能有所收获。
要做到这一点,是特别耗费精力的。
感谢老师的传道授业解惑,希望以后有机会能当面向老师请教问题。
期待老师下一部杰作2019-02-26 作者回复刚过完年都是很忙的, 找时间补上哈,等你的评论区留言^_^2019-02-26夜空中最亮的星(华仔) 2不知道是最后一篇,否则的话就慢些读完了;
我是一名运维,公司也没有DBA,所以MySQL库也归我收拾;
读了老师的专栏,操作起数据库来,心情更好了;
老师的课,让我有了想看完《高性能MySQL》的兴趣;
听了老师的课,开发都来问我数据库的问题了,高兴;
老师你会有返场吗?我猜会 可否透漏下接下来的安排,会有续集吗?进阶吗?不想这一别就是一生。
您的从未谋面的学生。
2019-02-25 作者回复谢谢你“开发都来问我数据库的问题了”,当年我也是这么开始“入坑”,加油2019-02-25极客时间 2通過這個專欄的系統學習,梳理很多知識點、擴展了我對MySQL的認識及以後使用。
感謝老師的諄諄教導!2019-02-25NoDBA 1低版本thread_id超过2^32-1后,在general log显示是负数,高版本貌似没有这个问题,是否高版本的thread_id是8字节呢?2019-02-27 作者回复主要不是定义的问题,而是打印的时候代码问题,按照这个代码输出的:
“%5ld “, (long) thread_id是个bug, 超过2^31就变成负数了,新版本改了好问题 2019-02-28kun 1感觉戛然而止哈 没学够,后面还会再回顾,老师辛苦!2019-02-26亮 1老师,sql 的where里 < 10001 和 <= 10000有什么区别吗?2019-02-25 作者回复这要看你关注的是什么你这么问,应该这个字段是整型吧?从查询结果可能是一样的,不过锁的范围不同,你可以看下21篇2019-02-25IceGeek17 1IceGeek17 1感谢老师,课程受益匪浅,课程结束后,如果有问题,是继续在这里的评论区提问,还是会有另外一条答疑通道?另外,在第35篇我提了几个问题,老师还没有回答,我这里再贴一下,老师看一下问题一:
对于BKA算法的流程理解,用文中的例子,先把t1表(小表)中查询需要的字段放入join_buffer,然后把join_buffer里的字段值批量传给t2表,先根据索引a查到id,然后得到一批主键id,再根据主键id排序,然后再根据排完序的id去主键索引查数据(这里用到MRR)理解是否正确?这里对于主键id排序是在哪里做的,是在join_buffer里,还是另外再开辟一块临时内存?如果在join_buffer里,那join_buffer里的每行内容是不是:t2.id + t1查询必须的字段,并且join_buffer里是根据id排序的?问题二:
虽然MySQL官方没有支持hash join,但是之前看到文章说,MariaDB已经支持hash join,能不能后续在答疑文章中简单总结下mariaDB支持的join算法问题三:
在实际项目中,一个比较困惑的问题,看到过这样的类似写法:
select xxx from t1 join t2 on t1.id = t2.id for update (目的是获取几个表上最新的数据,并且加上锁,防止数据被更新)这里有几个问题:
看过阿里输出的开发手册里,强调 “最多不超过三表join”,实际项目中,给我感觉很难做到所有业务都不超过三表join,那这里的问题就是,有什么相关的经验方法,可以尽量降低参与join的数据表?比如,在数据表里添加冗余字段,可以降低参与join的数据表数量,还有什么其他好的方法?2019-02-25 作者回复就在我们评论区,提跟文章相关的内容,会继续关注。
问题一、前面的过程理解正确,MRR过程用的是read_rnd_buffer 问题二、其实我们文中最后那个过程,你把他设想成在MySQL内部执行。
。
问题三、这种复杂的语句,你要把我们两部分知识点连起来看。
一个原则:for update的话,执行语句过程中扫到的间隙和记录都要加锁。
当然最好是不这么做,拆成两个语句会好些。
问题四、还是我文中的建议,如果都用NLJ或BKA算法的join其实还好,所以看看explain。
降低join表数量的方法,基本上行就是冗余字段和拆成多个语句这两个方向了2019-02-25Leon 1跟着老师终于学到了最后,每天的地铁时间无比充实,我对mysql的基本原理和工作流程大致有了初步的了解,而不是以前的增删查改,打算以后抽时间再二刷三刷,等全部搞懂后,再去看看高性能mysql这本书,如果时间允许,打算再去自己参照教程实现一个简易的DB,课程虽然结束了,仍然感觉意犹未尽,希望老师拉一个倍洽群,大家一起在里面讨论和学习2019-02-25 作者回复 评论区一直会开放大家到对应的文章去提相关问题 二刷三刷我也一直在哦 2019-02-25Dkey 1当前系统并无其他事务存在时,启动一个只读事务时(意味没有事务id),它的低高水位是怎么样的老师。
2019-02-25 作者回复假设当前没有其他事务存在,假设当前的max_trx_id=N,这时候启动一个只读事务,它的高低水位就都是N。
2019-02-25shawn 1受益匪浅,最后几讲还想了解下null值如何建立索引,由于null直接不能比较和排序,MySQL能区分出每一个null值吗2019-02-25 作者回复可以,因为普通索引上都有主键值对吧,所以其实是 (null, id1), (null, id2) ….2019-02-25亢星东 0id是有上限的,这个的id上限是45,这个结局可以,讲的不错,学到很多2019-03-13Bamboo 0今天终于读完了,从对MySQL只停留在CRUD操作的水平,慢慢开始对MySQL底层的机制有了一些认识,在遇到问题时,会首先从底层原理去分析,并结合explain来验证自己的分析,一次很nice的学习之旅。
感谢大神老师这么认真负责,节假日都不休息,哈哈!2019-03-12 作者回复 2019-03-13ArtistLu 0相遇恨晚 ,安慰下自己,种树的最好时机是十年前,其次是现在!!!谢谢老师2019-03-08 作者回复 2019-03-09fighting 0已经二刷了,准备三刷四刷2019-03-07 作者回复 2019-03-09沙漠里的骆驼 0讲的非常好,是我遇到课程讲授最好的了。
今天刚和池老师说,希望可以有线下的课程,比如完成一个数据库的完整设计,从最上层的sql语法解析器到底层的文件调度系统。
在集中的时间里面比如1个月或者2个月,线下组织大家一起,每个人都完成一个tiny_db的工程。
我想这是最好的成长了。
不知道老师是否也有这方面的想法?不管如何,真的很感谢老师。
如此娓娓道来,所谓的如沐春风便是如此吧。
2019-03-06 作者回复谢谢你。
后面只要还是在评论区继续和大家交流 2019-03-07芬 0学习到了很多平时没有关注到的小细节,很赞!当然 师傅领进门 修行靠个人。
剩下的就是自己好好消化应用了,谢谢老师2019-02-28封建的风 0之前很多知识点有点粗浅,尤其在行版本可见性,redo log&bin log关系,加锁的原理章节,深入浅出,受益匪浅。
感谢老师精品专栏,后期再二刷2019-02-27```
答疑文章(三):说一说这些好问题
这是我们专栏的最后一篇答疑文章,今天我们来说说一些好问题。
在我看来,能够帮我们扩展一个逻辑的边界的问题,就是好问题。
因为通过解决这样的问题,能够加深我们对这个逻辑的理解,或者帮我们关联到另外一个知识点,进而可以帮助我们建立起自己的知识网络。
在工作中会问好问题,是一个很重要的能力。
经过这段时间的学习,从评论区的问题我可以感觉出来,紧跟课程学习的同学,对SQL语句执行性能的感觉越来越好了,提出的问题也越来越细致和精准了。
接下来,我们就一起看看同学们在评论区提到的这些好问题。
在和你一起分析这些问题的时候,我会指出它们具体是在哪篇文章出现的。
同时,在回答这些问题的过程中,我会假设你已经掌握了这篇文章涉及的知识。
当然,如果你印象模糊了,也可以跳回文章再复习一次。
join的写法在第35篇文章《join语句怎么优化?》中,我在介绍join执行顺序的时候,用的都是straight_join。
@郭健 同学在文后提出了两个问题:
表a和b都有两个字段f1和f2,不同的是表a的字段f1上有索引。
然后,我往两个表中都插入了6条记录,其中在表a和b中同时存在的数据有4行。
@郭健 同学提到的第二个问题,其实就是下面这两种写法的区别:
我把这两条语句分别记为Q1和Q2。
首先,需要说明的是,这两个left join语句的语义逻辑并不相同。
我们先来看一下它们的执行结果。
create table a(f1 int, f2 int, index(f1))engine=innodb;create table b(f1 int, f2 int)engine=innodb;insert into a values(1,1),(2,2),(3,3),(4,4),(5,5),(6,6);insert into b values(3,3),(4,4),(5,5),(6,6),(7,7),(8,8);select * from a left join b on(a.f1=b.f1) and (a.f2=b.f2); /Q1/select * from a left join b on(a.f1=b.f1) where (a.f2=b.f2);/Q2/图1 两个join的查询结果可以看到:
语句Q1返回的数据集是6行,表a中即使没有满足匹配条件的记录,查询结果中也会返回一行,并将表b的各个字段值填成NULL。
语句Q2返回的是4行。
从逻辑上可以这么理解,最后的两行,由于表b中没有匹配的字段,结果集里面b.f2的值是空,不满足where 部分的条件判断,因此不能作为结果集的一部分。
接下来,我们看看实际执行这两条语句时,MySQL是怎么做的。
我们先一起看看语句Q1的explain结果:
图2 Q1的explain结果可以看到,这个结果符合我们的预期:
驱动表是表a,被驱动表是表b;
由于表b的f1字段上没有索引,所以使用的是Block Nexted Loop Join(简称BNL) 算法。
看到BNL算法,你就应该知道这条语句的执行流程其实是这样的:
因为是select * ,所以字段f1和f2都被放入join_buffer了。
如果语句中有where子句,需要先判断where部分满足条件后,再返回。
对应的流程图如下:
图3 left join -BNL算法可以看到,这条语句确实是以表a为驱动表,而且从执行效果看,也和使用straight_join是一样的。
你可能会想,语句Q2的查询结果里面少了最后两行数据,是不是就是把上面流程中的步骤3去掉呢?我们还是先看一下语句Q2的expain结果吧。
图4 Q2的explain结果这里先和你说一句题外话,专栏马上就结束了,我也和你一起根据explain结果“脑补”了很多次一条语句的执行流程了,所以我希望你已经具备了这个能力。
今天,我们再一起分析一次SQL语句的explain结果。
可以看到,这条语句是以表b为驱动表的。
而如果一条join语句的Extra字段什么都没写的话,就表示使用的是Index Nested-Loop Join(简称NLJ)算法。
因此,语句Q2的执行流程是这样的:顺序扫描表b,每一行用b.f1到表a中去查,匹配到记录后判断a.f2=b.f2是否满足,满足条件的话就作为结果集的一部分返回。
那么,为什么语句Q1和Q2这两个查询的执行流程会差距这么大呢?其实,这是因为优化器基于Q2这个查询的语义做了优化。
为了理解这个问题,我需要再和你交代一个背景知识点:在MySQL里,NULL跟任何值执行等值判断和不等值判断的结果,都是NULL。
这里包括, select NULL = NULL 的结果,也是返回NULL。
因此,语句Q2里面where a.f2=b.f2就表示,查询结果里面不会包含b.f2是NULL的行,这样这个left join的语义就是“找到这两个表里面,f1、f2对应相同的行。
对于表a中存在,而表b中匹配不到的行,就放弃”。
这样,这条语句虽然用的是left join,但是语义跟join是一致的。
因此,优化器就把这条语句的left join改写成了join,然后因为表a的f1上有索引,就把表b作为驱动表,这样就可以用上NLJ 算法。
在执行explain之后,你再执行show warnings,就能看到这个改写的结果,如图5所示。
图5 Q2的改写结果这个例子说明,即使我们在SQL语句中写成left join,执行过程还是有可能不是从左到右连接的。
也就是说,使用left join时,左边的表不一定是驱动表。
这样看来,如果需要left join的语义,就不能把被驱动表的字段放在where条件里面做等值判断或不等值判断,必须都写在on里面。
那如果是join语句呢?这时候,我们再看看这两条语句:
我们再使用一次看explain 和 show warnings的方法,看看优化器是怎么做的。
select * from a join b on(a.f1=b.f1) and (a.f2=b.f2); /Q3/select * from a join b on(a.f1=b.f1) where (a.f2=b.f2);/Q4/图6 join语句改写可以看到,这两条语句都被改写成:
执行计划自然也是一模一样的。
也就是说,在这种情况下,join将判断条件是否全部放在on部分就没有区别了。
Simple Nested Loop Join 的性能问题我们知道,join语句使用不同的算法,对语句的性能影响会很大。
在第34篇文章《到底可不可以使用join?》的评论区中,@书策稠浊 和 @朝夕心 两位同学提了一个很不错的问题。
我们在文中说到,虽然BNL算法和Simple Nested Loop Join 算法都是要判断M*N次(M和N分别是join的两个表的行数),但是Simple Nested Loop Join 算法的每轮判断都要走全表扫描,因此性能上BNL算法执行起来会快很多。
为了便于说明,我还是先为你简单描述一下这两个算法。
BNL算法的执行逻辑是:
首先,将驱动表的数据全部读入内存join_buffer中,这里join_buffer是无序数组;
然后,顺序遍历被驱动表的所有行,每一行数据都跟join_buffer中的数据进行匹配,匹配成功则作为结果集的一部分返回。
select * from a join b where (a.f1=b.f1) and (a.f2=b.f2);Simple Nested Loop Join算法的执行逻辑是:顺序取出驱动表中的每一行数据,到被驱动表去做全表扫描匹配,匹配成功则作为结果集的一部分返回。
这两位同学的疑问是,Simple Nested Loop Join算法,其实也是把数据读到内存里,然后按照匹配条件进行判断,为什么性能差距会这么大呢?解释这个问题,需要用到MySQL中索引结构和Buffer Pool的相关知识点:
从磁盘读入数据到内存中,会影响正常业务的Buffer Pool命中率,而且这个算法天然会对被驱动表的数据做多次访问,更容易将这些数据页放到Buffer Pool的头部(请参考第35篇文章中的相关内容);
而join_buffer中是数组,遍历的成本更低。
所以说,BNL算法的性能会更好。
distinct 和 group by的性能在第37篇文章《什么时候会使用内部临时表?》中,@老杨同志 提了一个好问题:如果只需要去重,不需要执行聚合函数,distinct 和group by哪种效率高一些呢?我来展开一下他的问题:如果表t的字段a上没有索引,那么下面这两条语句:
的性能是不是相同的?首先需要说明的是,这种group by的写法,并不是SQL标准的写法。
标准的group by语句,是需要在select部分加一个聚合函数,比如:
这条语句的逻辑是:按照字段a分组,计算每组的a出现的次数。
在这个结果里,由于做的是聚合计算,相同的a只出现一次。
select a from t group by a order by null;select distinct a from t;select a,count(*) from t group by a order by null;备注:这里你可以顺便复习一下第37篇文章中关于group by的相关内容。
没有了count(*)以后,也就是不再需要执行“计算总数”的逻辑时,第一条语句的逻辑就变成是:
按照字段a做分组,相同的a的值只返回一行。
而这就是distinct的语义,所以不需要执行聚合函数时,distinct 和group by这两条语句的语义和执行流程是相同的,因此执行性能也相同。
这两条语句的执行流程是下面这样的。
创建一个临时表,临时表有一个字段a,并且在这个字段a上创建一个唯一索引;
遍历表t,依次取数据插入临时表中:
如果发现唯一键冲突,就跳过;
否则插入成功;
备库自增主键问题除了性能问题,大家对细节的追问也很到位。
在第39篇文章《自增主键为什么不是连续的?》评论区,@帽子掉了 同学问到:在binlog_format=statement时,语句A先获取id=1,然后语句B获取id=2;接着语句B提交,写binlog,然后语句A再写binlog。
这时候,如果binlog重放,是不是会发生语句B的id为1,而语句A的id为2的不一致情况呢?首先,这个问题默认了“自增id的生成顺序,和binlog的写入顺序可能是不同的”,这个理解是正确的。
其次,这个问题限定在statement格式下,也是对的。
因为row格式的binlog就没有这个问题了,Write row event里面直接写了每一行的所有字段的值。
而至于为什么不会发生不一致的情况,我们来看一下下面的这个例子。
图7 insert 语句的binlog可以看到,在insert语句之前,还有一句SET INSERT_ID=1。
这条命令的意思是,这个线程里下一次需要用到自增值的时候,不论当前表的自增值是多少,固定用1这个值。
create table t(id int auto_increment primary key);insert into t values(null);这个SET INSERT_ID语句是固定跟在insert语句之前的,比如@帽子掉了同学提到的场景,主库上语句A的id是1,语句B的id是2,但是写入binlog的顺序先B后A,那么binlog就变成:
你看,在备库上语句B用到的INSERT_ID依然是2,跟主库相同。
因此,即使两个INSERT语句在主备库的执行顺序不同,自增主键字段的值也不会不一致。
小结今天这篇答疑文章,我选了4个好问题和你分享,并做了分析。
在我看来,能够提出好问题,首先表示这些同学理解了我们文章的内容,进而又做了深入思考。
有你们在认真的阅读和思考,对我来说是鼓励,也是动力。
说实话,短短的三篇答疑文章无法全部展开同学们在评论区留下的高质量问题,之后有的同学还会二刷,也会有新的同学加入,大家想到新的问题就请给我留言吧,我会继续关注评论区,和你在评论区交流。
老规矩,答疑文章也是要有课后思考题的。
在第8篇文章的评论区, @XD同学提到一个问题:他查看了一下innodb_trx,发现这个事务的trx_id是一个很大的数(281479535353408),而且似乎在同一个session中启动的会话得到的trx_id是保持不变的。
当执行任何加写锁的语句后,trx_id都会变成一个很小的数字(118378)。
你可以通过实验验证一下,然后分析看看,事务id的分配规则是什么,以及MySQL为什么要这么设计呢?你可以把你的结论和分析写在留言区,我会在下一篇文章和你讨论这个问题。
感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一起阅读。
上期问题时间上期的问题是,怎么给分区表t创建自增主键。
由于MySQL要求主键包含所有的分区字段,所以肯定是要创建联合主键的。
这时候就有两种可选:一种是(ftime, id),另一种是(id, ftime)。
如果从利用率上来看,应该使用(ftime, id)这种模式。
因为用ftime做分区key,说明大多数语句都SET INSERT_ID=2;语句B;
SET INSERT_ID=1;语句A;
是包含ftime的,使用这种模式,可以利用前缀索引的规则,减少一个索引。
这时的建表语句是:
当然,我的建议是你要尽量使用InnoDB引擎。
InnoDB表要求至少有一个索引,以自增字段作为第一个字段,所以需要加一个id的单独索引。
当然把字段反过来,创建成:
CREATE TABLE t̀ ̀( ìd ̀int(11) NOT NULL AUTO_INCREMENT, f̀time ̀datetime NOT NULL, c ̀int(11) DEFAULT NULL, PRIMARY KEY (̀ ftime ,̀ ìd )̀) ENGINE=MyISAM DEFAULT CHARSET=latin1PARTITION BY RANGE (YEAR(ftime))(PARTITION p_2017 VALUES LESS THAN (2017) ENGINE = MyISAM, PARTITION p_2018 VALUES LESS THAN (2018) ENGINE = MyISAM, PARTITION p_2019 VALUES LESS THAN (2019) ENGINE = MyISAM, PARTITION p_others VALUES LESS THAN MAXVALUE ENGINE = MyISAM);CREATE TABLE t̀ ̀( ìd ̀int(11) NOT NULL AUTO_INCREMENT, f̀time ̀datetime NOT NULL,
c ̀int(11) DEFAULT NULL, PRIMARY KEY (̀ ftime ,̀ ìd )̀, KEY ìd ̀(̀ id )̀) ENGINE=InnoDB DEFAULT CHARSET=latin1PARTITION BY RANGE (YEAR(ftime))(PARTITION p_2017 VALUES LESS THAN (2017) ENGINE = InnoDB, PARTITION p_2018 VALUES LESS THAN (2018) ENGINE = InnoDB, PARTITION p_2019 VALUES LESS THAN (2019) ENGINE = InnoDB, PARTITION p_others VALUES LESS THAN MAXVALUE ENGINE = InnoDB); PRIMARY KEY (̀ id ,̀ f̀time )̀, KEY ìd ̀(̀ ftime )̀也是可以的。
要不要使用分区表?我经常被问到这样一个问题:分区表有什么问题,为什么公司规范不让使用分区表呢?今天,我们就来聊聊分区表的使用行为,然后再一起回答这个问题。
分区表是什么?为了说明分区表的组织形式,我先创建一个表t:
CREATE TABLE t̀ ̀( f̀time ̀datetime NOT NULL, `c ̀int(11) DEFAULT NULL, KEY (̀ ftime )̀) ENGINE=InnoDB DEFAULT CHARSET=latin1PARTITION BY RANGE (YEAR(ftime))(PARTITION p_2017 VALUES LESS THAN (2017) ENGINE = InnoDB, PARTITION p_2018 VALUES LESS THAN (2018) ENGINE = InnoDB, PARTITION p_2019 VALUES LESS THAN (2019) ENGINE = InnoDB,PARTITION p_others VALUES LESS THAN MAXVALUE ENGINE = InnoDB);insert into t values(‘2017-4-1’,1),(‘2018-4-1’,1);图1 表t的磁盘文件我在表t中初始化插入了两行记录,按照定义的分区规则,这两行记录分别落在p_2018和p_2019这两个分区上。
可以看到,这个表包含了一个.frm文件和4个.ibd文件,每个分区对应一个.ibd文件。
也就是说:
对于引擎层来说,这是4个表;
对于Server层来说,这是1个表。
你可能会觉得这两句都是废话。
其实不然,这两句话非常重要,可以帮我们理解分区表的执行逻辑。
分区表的引擎层行为我先给你举个在分区表加间隙锁的例子,目的是说明对于InnoDB来说,这是4个表。
图2 分区表间隙锁示例这里顺便复习一下,我在第21篇文章和你介绍的间隙锁加锁规则。
我们初始化表t的时候,只插入了两行数据, ftime的值分别是,‘2017-4-1’ 和’2018-4-1’ 。
session A的select语句对索引ftime上这两个记录之间的间隙加了锁。
如果是一个普通表的话,那么T1时刻,在表t的ftime索引上,间隙和加锁状态应该是图3这样的。
图3 普通表的加锁范围也就是说,‘2017-4-1’ 和’2018-4-1’ 这两个记录之间的间隙是会被锁住的。
那么,sesion B的两条插入语句应该都要进入锁等待状态。
但是,从上面的实验效果可以看出,session B的第一个insert语句是可以执行成功的。
这是因为,对于引擎来说,p_2018和p_2019是两个不同的表,也就是说2017-4-1的下一个记录并不是2018-4-1,而是p_2018分区的supremum。
所以T1时刻,在表t的ftime索引上,间隙和加锁的状态其实是图4这样的:
图4 分区表t的加锁范围由于分区表的规则,session A的select语句其实只操作了分区p_2018,因此加锁范围就是图4中深绿色的部分。
所以,session B要写入一行ftime是2018-2-1的时候是可以成功的,而要写入2017-12-1这个记录,就要等session A的间隙锁。
图5就是这时候的show engine innodb status的部分结果。
图5 session B被锁住信息看完InnoDB引擎的例子,我们再来一个MyISAM分区表的例子。
我首先用alter table t engine=myisam,把表t改成MyISAM表;然后,我再用下面这个例子说明,对于MyISAM引擎来说,这是4个表。
图6 用MyISAM表锁验证在session A里面,我用sleep(100)将这条语句的执行时间设置为100秒。
由于MyISAM引擎只支持表锁,所以这条update语句会锁住整个表t上的读。
但我们看到的结果是,session B的第一条查询语句是可以正常执行的,第二条语句才进入锁等待状态。
这正是因为MyISAM的表锁是在引擎层实现的,session A加的表锁,其实是锁在分区p_2018上。
因此,只会堵住在这个分区上执行的查询,落到其他分区的查询是不受影响的。
看到这里,你可能会说,分区表看来还不错嘛,为什么不让用呢?我们使用分区表的一个重要原因就是单表过大。
那么,如果不使用分区表的话,我们就是要使用手动分表的方式。
接下来,我们一起看看手动分表和分区表有什么区别。
比如,按照年份来划分,我们就分别创建普通表t_2017、t_2018、t_2019等等。
手工分表的逻辑,也是找到需要更新的所有分表,然后依次执行更新。
在性能上,这和分区表并没有实质的差别。
分区表和手工分表,一个是由server层来决定使用哪个分区,一个是由应用层代码来决定使用哪个分表。
因此,从引擎层看,这两种方式也是没有差别的。
其实这两个方案的区别,主要是在server层上。
从server层看,我们就不得不提到分区表一个被广为诟病的问题:打开表的行为。
分区策略每当第一次访问一个分区表的时候,MySQL需要把所有的分区都访问一遍。
一个典型的报错情况是这样的:如果一个分区表的分区很多,比如超过了1000个,而MySQL启动的时候,open_files_limit参数使用的是默认值1024,那么就会在访问这个表的时候,由于需要打开所有的文件,导致打开表文件的个数超过了上限而报错。
下图就是我创建的一个包含了很多分区的表t_myisam,执行一条插入语句后报错的情况。
图 7 insert 语句报错可以看到,这条insert语句,明显只需要访问一个分区,但语句却无法执行。
这时,你一定从表名猜到了,这个表我用的是MyISAM引擎。
是的,因为使用InnoDB引擎的话,并不会出现这个问题。
MyISAM分区表使用的分区策略,我们称为通用分区策略(generic partitioning),每次访问分区都由server层控制。
通用分区策略,是MySQL一开始支持分区表的时候就存在的代码,在文件管理、表管理的实现上很粗糙,因此有比较严重的性能问题。
从MySQL 5.7.9开始,InnoDB引擎引入了本地分区策略(native partitioning)。
这个策略是在InnoDB内部自己管理打开分区的行为。
MySQL从5.7.17开始,将MyISAM分区表标记为即将弃用(deprecated),意思是“从这个版本开始不建议这么使用,请使用替代方案。
在将来的版本中会废弃这个功能”。
从MySQL 8.0版本开始,就不允许创建MyISAM分区表了,只允许创建已经实现了本地分区策略的引擎。
目前来看,只有InnoDB和NDB这两个引擎支持了本地分区策略。
接下来,我们再看一下分区表在server层的行为。
分区表的server层行为如果从server层看的话,一个分区表就只是一个表。
这句话是什么意思呢?接下来,我就用下面这个例子来和你说明。
如图8和图9所示,分别是这个例子的操作序列和执行结果图。
图8 分区表的MDL锁图9 show processlist结果可以看到,虽然session B只需要操作p_2107这个分区,但是由于session A持有整个表t的MDL锁,就导致了session B的alter语句被堵住。
这也是DBA同学经常说的,分区表,在做DDL的时候,影响会更大。
如果你使用的是普通分表,那么当你在truncate一个分表的时候,肯定不会跟另外一个分表上的查询语句,出现MDL锁冲突。
到这里我们小结一下:
MySQL在第一次打开分区表的时候,需要访问所有的分区;
在server层,认为这是同一张表,因此所有分区共用同一个MDL锁;
在引擎层,认为这是不同的表,因此MDL锁之后的执行过程,会根据分区表规则,只访问必要的分区。
而关于“必要的分区”的判断,就是根据SQL语句中的where条件,结合分区规则来实现的。
比如我们上面的例子中,where ftime=‘2018-4-1’,根据分区规则year函数算出来的值是2018,那么就会落在p_2019这个分区。
但是,如果这个where 条件改成 where ftime>=‘2018-4-1’,虽然查询结果相同,但是这时候根据where条件,就要访问p_2019和p_others这两个分区。
如果查询语句的where条件中没有分区key,那就只能访问所有分区了。
当然,这并不是分区表的问题。
即使是使用业务分表的方式,where条件中没有使用分表的key,也必须访问所有的分表。
我们已经理解了分区表的概念,那么什么场景下适合使用分区表呢?分区表的应用场景分区表的一个显而易见的优势是对业务透明,相对于用户分表来说,使用分区表的业务代码更简洁。
还有,分区表可以很方便的清理历史数据。
如果一项业务跑的时间足够长,往往就会有根据时间删除历史数据的需求。
这时候,按照时间分区的分区表,就可以直接通过alter table t drop partition …这个语法删掉分区,从而删掉过期的历史数据。
这个alter table t drop partition …操作是直接删除分区文件,效果跟drop普通表类似。
与使用delete语句删除数据相比,优势是速度快、对系统影响小。
小结这篇文章,我主要和你介绍的是server层和引擎层对分区表的处理方式。
我希望通过这些介绍,你能够对是否选择使用分区表,有更清晰的想法。
需要注意的是,我是以范围分区(range)为例和你介绍的。
实际上,MySQL还支持hash分区、list分区等分区方法。
你可以在需要用到的时候,再翻翻手册。
实际使用时,分区表跟用户分表比起来,有两个绕不开的问题:一个是第一次访问的时候需要访问所有分区,另一个是共用MDL锁。
因此,如果要使用分区表,就不要创建太多的分区。
我见过一个用户做了按天分区策略,然后预先创建了10年的分区。
这种情况下,访问分区表的性能自然是不好的。
这里有两个问题需要注意:
实际上,单表或者单分区的数据一千万行,只要没有特别大的索引,对于现在的硬件能力来说都已经是小表了。
比如,如果是按月分区,每年年底时再把下一年度的12个新分区创建上即可。
对于没有数据的历史分区,要及时的drop掉。
至于分区表的其他问题,比如查询需要跨多个分区取数据,查询性能就会比较慢,基本上就不是分区表本身的问题,而是数据量的问题或者说是使用方式的问题了。
当然,如果你的团队已经维护了成熟的分库分表中间件,用业务分表,对业务开发同学没有额外的复杂性,对DBA也更直观,自然是更好的。
最后,我给你留下一个思考题吧。
我们举例的表中没有用到自增主键,假设现在要创建一个自增字段id。
MySQL要求分区表中的主键必须包含分区字段。
如果要在表t的基础上做修改,你会怎么定义这个表的主键呢?为什么这么定义呢?你可以把你的结论和分析写在留言区,我会在下一篇文章的末尾和你讨论这个问题。
感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一起阅读。
上期问题时间上篇文章后面还不够多,可能很多同学还没来记得看吧,我们就等后续有更多留言的时候,再补充本期的“上期问题时间”吧。
@夹心面包 提到了在grant的时候是支持通配符的:”_”表示一个任意字符,“%”表示任意字符串。
这个技巧在一个分库分表方案里面,同一个分库上有多个db的时候,是挺方便的。
不过我个人认为,权限赋值的时候,控制的精确性还是要优先考虑的。
夹心面包 5我说下我的感想1 经典的利用分区表的场景1 zabbix历史数据表的改造,利用存储过程创建和改造2 后台数据的分析汇总,比如日志数据,便于清理这两种场景我们都在执行,我们对于分区表在业务采用的是hash 用户ID方式,不过大规模应用分区表的公司我还没遇到过2 分区表需要注意的几点总结下1 由于分区表都很大,DDL耗时是非常严重的,必须考虑这个问题2 分区表不能建立太多的分区,我曾被分享一个因为分区表分区过多导致的主从延迟问题3 分区表的规则和分区需要预先设置好,否则后来进行修改也很麻烦2019-02-20 作者回复 非常好2019-02-20aliang 2老师,mysql还有一个参数是innodb_open_files,资料上说作用是限制Innodb能打开的表的数量。
它和open_files_limit之间有什么关系吗?2019-02-21精选留言 作者回复好问题。
在InnoDB引擎打开文件超过 innodb_open_files这个值的时候,就会关掉一些之前打开的文件。
其实我们文章中 ,InnoDB分区表使用了本地分区策略以后,即使分区个数大于open_files_limit ,打开InnoDB分区表也不会报“打开文件过多”这个错误,就是innodb_open_files这个参数发挥的作用。
2019-02-21怀刚 1请教下采用”先做备库、切换、再做备库”DDL方式不支持AFTER COLUMN是因为BINLOG原因吗?以上DDL方式会存在影响“有损”的吧?“无损”有哪些方案呢?如果备库承载读请求但又不能接受“长时间”延时2019-03-09 作者回复1. 对,binlog对原因2. 如果延迟算损失,确实是有损的。
备库上的读流量要先切换到主库(也就是为什么需要在低峰期做做个操作)2019-03-09权恒星 1这个只适合单机吧?集群没法即使用innodb引擎,又支持分区表吧,只能使用中间件了。
之前调研了一下,官方只有ndb cluster才支持分区表?2019-02-20 作者回复对这篇文章讲的是单机上的单表多分区2019-02-20One day 1这次竟然只需要再读两次就能读懂,之前接触过mycat和sharding-jdbc实现分区,老师能否谈谈这方面的呢2019-02-20 作者回复赞两次 这个就是我们文章说的“分库分表中间件”不过看到不少公司都会要在这基础上做点定制化2019-02-20于欣磊 0阿里云的DRDS就是分库分表的中间件典型代表。
自己实现了一个层Server访问层在这一层进行分库分表(对透明),然后MySQL只是相当于存储层。
一些Join、负载Order by/Group by都在DRDS中间件这层完成,简单的逻辑插叙计算完对应的分库分表后下推给MySQL https://www.aliyun.com/product/drds2019-02-25 0老师确认下,5.7.9之后的innodb分区表,是访问第一个表时不会去打开所有的分区表了吗?2019-02-25 作者回复第一次访问的时候,要打开所有分区的2019-02-25启程 0老师,你好,请教你个分区表多条件查询建索引的问题;
表A,列a,b,c,d,e,f,g,h (其中b是datetime,a是uuid,其余是varchar)主键索引,(b,a),按月分区查询情况1:
where b>=? and b<=? order by b desc limit 500;查询情况2:where b>=? and b<=? and c in(?) order by b desc limit 500;查询情况3:
where b>=? and b<=? and d in(?) and e in(?) order by b desc limit 500;查询情况4:
where b>=? and b<=? and c in(?) and d in(?) and e in(?) order by b desc limit 500;自己尝试建过不少索引,效果不是很好,请问老师,我要怎么建索引???2019-02-25 作者回复这个还是得看不同的语句的执行次数哈如果从语句类型上看,可以考虑加上(b,c)、(b,d)这两个联合索引2019-02-26NICK 0老师,如果用户分区,业务要做分页过滤查询怎么做才好?2019-02-25 作者回复分区表的用法跟普通表,在sql语句上是相同的。
2019-02-25锋芒 0老师,请问什么情况会出现间隙锁?能否专题讲一下锁呢?2019-02-23 作者回复20、21两篇看下2019-02-23daka 0本期提到了ndb,了解了下,这个存储引擎高可用及读写可扩展性功能都是自带,感觉是不错,为什么很少见人使用呢?生产不可靠?2019-02-21helloworld.xs 0请教个问题,一般mysql会有查询缓存,但是update操作也有缓存机制吗?使用mysql console第一次执行一个update SQL耗时明显比后面执行相同update SQL要慢,这是为什么?2019-02-21 作者回复update的话,主要应该第一次执行的时候,数据都读入到了2019-02-21万勇 0老师,请问add column after column_name跟add column不指定位置,这两种性能上有区别吗?我们在add column 指定after column_name的情况很多。
2019-02-21 作者回复仅仅看性能,是没什么差别的但是建议尽量不要加after column_name,也就是说尽量加到最后一列。
因为其实没差别,但是加在最后有以下两个好处:
实际上列的数据是不应该有影响的,还是要形成好习惯 2019-02-21Q 0老师 请问下 网站开发数据库表是myisam和innodb混合引擎 考虑管理比较麻烦 想统一成innodb请问是否影响数据库或带来什么隐患吗? 网站是网上商城购物类型的2019-02-20 作者回复应该统一成innodb网上商城购物类型更要用InnoDB,因为MyISAM并不是crash-safe的。
测试环境改完回归下2019-02-21夹心面包 0我觉得老师的问题可以提炼为 Mysql复合主键中自增长字段设置问题复合索引可以包含一个auto_increment,但是auto_increment列必须是第一列。
这样插入的话,只需要指定非自增长的列语法 alter table test1 change column id id int auto_increment;2019-02-20 作者回复“但是auto_increment列必须是第一列” 可以不是哦2019-02-20undifined 0老师,有两个问题1. 图三的间隙锁,根据“索引上的等值查询,向右遍历时且最后一个值不满足等值条件的时候,next-key lock 退化为间隙锁”,不应该是 (-∞,2017-4-1],(2017-4-1,2018-4-1)吗,图4左边的也应该是 (-∞,2017-4-1],(2017-4-1, supernum),是不是图画错了2. 现有的一个表,一千万行的数据, InnoDB 引擎,如果以月份分区,即使有 MDL 锁和初次访问时会查询所有分区,但是综合来看,分区表的查询性能还是要比不分区好,这样理解对吗思考题的答案 ALTER TABLE tADD COLUMN (id INT AUTO_INCREMENT ),ADD PRIMARY KEY (id, ftime);麻烦老师解答一下,谢谢老师2019-02-20 作者回复1. 我们语句里面是 where ftime=’2017-5-1’ 哈,不是“4-1”2. “分区表的查询性能还是要比不分区好,这样理解对吗”,其实还是要看表的索引情况。
当然一定存在一个数量级N,把这N行分到10个分区表,比把这N行放到一个大表里面,效率高2019-02-20千木 0老师您好,你在文章里面有说通用分区规则会打开所有引擎文件导致不可用,而本地分区规则应该是只打开单个引擎文件,那你不建议创建太多分区的原因是什么呢?如果是本地分区规则,照例说是不会影响的吧,叨扰了2019-02-20 作者回复“本地分区规则应该是只打开单个引擎文件”,并不是哈,我在文章末尾说了,也会打开所有文件的,只是说本地分区规则有优化,比如如果文件数过多,就会淘汰之前打开的文件句柄(暂时关掉)。
所以分区太多,还是会有影响的2019-02-20郭江伟 0此时主键包含自增列+分区键,原因为对innodb来说分区等于单独的表,自增字段每个分区可以插入相同的值,如果主键只有自增列无法完全保证唯一性。
测试表如下:
mysql> show create table t\GTable: tCreate Table: CREATE TABLE t
(id
int(11) NOT NULL AUTO_INCREMENT,ftime
datetime NOT NULL,c
int(11) DEFAULT NULL,PRIMARY KEY (id
,ftime
),KEY ftime
(ftime
)) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4/*!50100 PARTITION BY RANGE (YEAR(ftime))(PARTITION p_2017 VALUES LESS THAN (2017) ENGINE = InnoDB,PARTITION p_2018 VALUES LESS THAN (2018) ENGINE = InnoDB,PARTITION p_2019 VALUES LESS THAN (2019) ENGINE = InnoDB,PARTITION p_others VALUES LESS THAN MAXVALUE ENGINE = InnoDB) */1 row in set (0.00 sec)mysql> insert into t values(1,’2017-4-1’,1),(1,’2018-4-1’,1);Query OK, 2 rows affected (0.02 sec)mysql> select * from t;+—-+———————+——+| id | ftime | c |+—-+———————+——+| 1 | 2017-04-01 00:00:00 | 1 || 1 | 2018-04-01 00:00:00 | 1 |+—-+———————+——+2 rows in set (0.00 sec)mysql> insert into t values(null,’2017-5-1’,1),(null,’2018-5-1’,1);Query OK, 2 rows affected (0.02 sec)mysql> select * from t;+—-+———————+——+| id | ftime | c |+—-+———————+——+| 1 | 2017-04-01 00:00:00 | 1 || 2 | 2017-05-01 00:00:00 | 1 || 1 | 2018-04-01 00:00:00 | 1 || 3 | 2018-05-01 00:00:00 | 1 |+—-+———————+——+4 rows in set (0.00 sec)2019-02-20 作者回复 2019-02-24wljs 0老师我想问个问题 我们公司一个订单表有110个字段 想拆分成两个表 第一个表放经常查的字段第二个表放不常查的 现在程序端不想改sql,数据库端来实现 当查询字段中 第一个表不存在 就去关联第二个表查出数据 db能实现不2019-02-20 作者回复用view可能可以实现部分你的需求,但是强烈不建议这么做。
业务不想修改,就好好跟他们说,毕竟这样分(常查和不常查的垂直拆分)是合理的,对读写性能都有明显的提升的。
2019-02-20```
在MySQL里面,grant语句是用来给用户赋权的。
不知道你有没有见过一些操作文档里面提到,grant之后要马上跟着执行一个flush privileges命令,才能使赋权语句生效。
如果没有执行这个flush命令的话,赋权语句真的不能生效吗?接下来,我就先和你介绍一下grant语句和flush privileges语句分别做了什么事情,然后再一起来 分析这个问题。
为了便于说明,我先创建一个用户:
这条语句的逻辑是创建一个用户’ua’@’%’,密码是pa。
注意,在MySQL里面,用户名(user)+地址(host)才表示一个用户,因此 ua@ip1 和 ua@ip2代表的是两个不同的用户。
这条命令做了两个动作:
create user ‘ua‘@’%’ identified by ‘pa’;2. 内存里,往数组acl_users里插入一个acl_user对象,这个对象的access字段值为0。
在MySQL中,用户权限是有不同的范围的。
接下来,我就按照用户权限范围从大到小的顺序依次和你说明。
全局权限全局权限,作用于整个MySQL实例,这些权限信息保存在mysql库的user表里。
如果我要给用户 ua赋一个最高权限的话grant命令做了两个动作:
磁盘上,将mysql.user表里,用户’ua’@’%’这一行的所有表示权限的字段的值都修改为‘Y’;
内存里,从数组acl_users中找到这个用户对应的对象,将access值(权限位)修改为二进制的“全1”。
在这个grant命令执行完成后,如果有新的客户端使用用户名ua登录成功,MySQL会为新连接维 护一个线程对象,然后从acl_users数组里查到这个用户的权限,并将权限值拷贝到这个线程对象中。
之后在这个连接中执行的语句,所有关于全局权限的判断,都直接使用线程对象内部保存的权限位。
基于上面的分析我们可以知道:
grant 命令对于全局权限,同时更新了磁盘和内存。
命令完成后即时生效,接下来新创建的连接会使用新的权限。
对于一个已经存在的连接,它的全局权限不受grant命令的影响。
需要说明的是,一般在生产环境上要合理控制用户权限的范围。
如果一个用户有所有权限,一般就不应该设置为所有IP地址都可以访问。
如果要回收上面的grant语句赋予的权限,你可以使用revoke命令,用法与grant类似,做了如下两个动作:
磁盘上,将mysql.user表里,用户’ua’@’%’这一行的所有表示权限的字段的值都修改为“N”;
内存里,从数组acl_users中找到这个用户对应的对象,将access的值修改为0。
db权限除了全局权限,MySQL也支持库级别的权限定义。
如果要让用户ua拥有库db1的所有权限,可以执行下面这条命令:
grant all privileges on . to ‘ua‘@’%’ with grant option;revoke all privileges on . from ‘ua‘@’%’;基于库的权限记录保存在mysql.db表中,在内存里则保存在数组acl_dbs中。
这条grant命令做了 如下两个动作:
磁盘上,往mysql.db表中插入了一行记录,所有权限位字段设置为“Y”;
内存里,增加一个对象到数组acl_dbs中,这个对象的权限位为“全1”。
图2就是这个时刻用户ua在db表中的状态。
图2 mysql.db 数据行每次需要判断一个用户对一个数据库读写权限的时候,都需要遍历一次acl_dbs数组,根据user、host和db找到匹配的对象,然后根据对象的权限位来判断。
也就是说,grant修改db权限的时候,是同时对磁盘和内存生效的。
grant all privileges on db1.* to ‘ua‘@’%’ with grant option;grant操作对于已经存在的连接的影响,在全局权限和基于db的权限效果是不同的set global sync_binlog这个操作是需要super权限的。
可以看到,虽然用户ua的super权限在T3时刻已经通过revoke语句回收了,但是在T4时刻执行set global的时候,权限验证还是通过了。
这是因为super是全局权限,这个权限信息在线程对象中,而revoke操作影响不到这个线程对象。
而在T5时刻去掉ua对db1库的所有权限后,在T6时刻session B再操作db1库的表,就会报错“权限不足”。
这是因为acl_dbs是一个全局数组,所有线程判断db权限都用这个数组,这样revoke操作马上就会影响到session B。
这里在代码实现上有一个特别的逻辑,如果当前会话已经处于某一个db里面,之前use这个库的时候拿到的库权限会保存在会话变量中。
你可以看到在T6时刻,session C和session B对表t的操作逻辑是一样的。
但是session B报错,而session C可以执行成功。
这是因为session C在T2 时刻执行的use db1,拿到了这个库的权限,在切换出db1库之前,session C对这个库就一直有权限。
表权限和列权限除了db级别的权限外,MySQL支持更细粒度的表权限和列权限。
其中,表权限定义存放在表mysql.tables_priv中,列权限定义存放在表mysql.columns_priv中。
这两类权限,组合起来存放在内存的hash结构column_priv_hash中。
这两类权限的赋权命令如下:
跟db权限类似,这两个权限每次grant的时候都会修改数据表,也会同步修改内存中的hash结构。
因此,对这两类权限的操作,也会马上影响到已经存在的连接。
看到这里,你一定会问,看来grant语句都是即时生效的,那这么看应该就不需要执行flush privileges语句了呀。
答案也确实是这样的。
flush privileges命令会清空acl_users数组,然后从mysql.user表中读取数据重新加载,重新构造一个acl_users数组。
也就是说,以数据表中的数据为准,会将全局权限内存数组重新加载一遍。
同样地,对于db权限、表权限和列权限,MySQL也做了这样的处理。
也就是说,如果内存的权限数据和磁盘数据表相同的话,不需要执行flush privileges。
而如果我们都是用grant/revoke语句来执行的话,内存和数据表本来就是保持同步更新的。
因此,正常情况下,grant命令之后,没有必要跟着执行flush privileges命令。
flush privileges使用场景create table db1.t1(id int, a int);grant all privileges on db1.t1 to ‘ua‘@’%’ with grant option;GRANT SELECT(id), INSERT (id,a) ON mydb.mytbl TO ‘ua‘@’%’ with grant option;那么,flush privileges是在什么时候使用呢?显然,当数据表中的权限数据跟内存中的权限数据不一致的时候,flush privileges语句可以用来重建内存数据,达到一致状态。
这种不一致往往是由不规范的操作导致的,比如直接用DML语句操作系统权限表。
由于在T3时刻直接删除了数据表的记录,而内存的数据还存在。
这就导致了:
T4时刻给用户ua赋权限失败,因为mysql.user表中找不到这行记录;
而T5时刻要重新创建这个用户也不行,因为在做内存判断的时候,会认为这个用户还存在。
小结
MySQL用户权限在数据表和内存中的存在形式,以及grant和revoke命令的执行逻辑。
grant语句会同时修改数据表和内存,判断权限的时候使用的是内存数据。
因此,规范地使用 grant和revoke语句,是不需要随后加上flush privileges语句的。
flush privileges语句本身会用数据表的数据重建一份内存权限数据,所以在权限数据可能存在不一致的情况下再使用。
而这种不一致往往是由于直接用DML语句操作系统权限表导致的,所以我们尽量不要使用这类语句。
另外,在使用grant语句赋权时,你可能还会看到这样的写法:
这条命令加了identified by ‘密码’, 语句的逻辑里面除了赋权外,还包含了:
如果用户’ua’@’%’不存在,就创建这个用户,密码是pa;
如果用户ua已经存在,就将密码修改成pa。
grant super on . to ‘ua‘@’%’ identified by ‘pa’;这也是一种不建议的写法,因为这种写法很容易就会不慎把密码给改了。
怎么最快地复制一张表我在上一篇文章最后,给你留下的问题是怎么在两张表中拷贝数据。
如果可以控制对源表的扫描行数和加锁范围很小的话,我们简单地使用insert … select 语句即可实现。
当然,为了避免对源表加读锁,更稳妥的方案是先将数据写到外部文本文件,然后再写回目标表。
这时,有两种常用的方法。
接下来的内容,我会和你详细展开一下这两种方法。
为了便于说明,我还是先创建一个表db1.t,并插入1000行数据,同时创建一个相同结构的表db2.t。
假设,我们要把db1.t里面a>900的数据行导出来,插入到db2.t中。
mysqldump方法一种方法是,使用mysqldump命令将数据导出成一组INSERT语句。
你可以使用下面的命令:
把结果输出到临时文件。
这条命令中,主要参数含义如下:
–single-transaction的作用是,在导出数据的时候不需要对表db1.t加表锁,而是使用STARTTRANSACTION WITH CONSISTENT SNAPSHOT的方法;
–add-locks设置为0,表示在输出的文件结果里,不增加” LOCK TABLES t WRITE;” ;
–no-create-info的意思是,不需要导出表结构;
create database db1;use db1;create table t(id int primary key, a int, b int, index(a))engine=innodb;delimiter ;; create procedure idata() begin declare i int; set i=1; while(i<=1000)do insert into t values(i,i,i); set i=i+1; end while; end;;delimiter ;call idata();create database db2;create table db2.t like db1.tmysqldump -h$host -P$port -u$user –add-locks=0 –no-create-info –single-transaction –set-gtid-purged=OFF db1 t –where=”a>900” –result-file=/client_tmp/t.sql4. –set-gtid-purged=off表示的是,不输出跟GTID相关的信息;
通过这条mysqldump命令生成的t.sql文件中就包含了如图1所示的INSERT语句。
图1 mysqldump输出文件的部分结果可以看到,一条INSERT语句里面会包含多个value对,这是为了后续用这个文件来写入数据的时候,执行速度可以更快。
如果你希望生成的文件中一条INSERT语句只插入一行数据的话,可以在执行mysqldump命令时,加上参数–skip-extended-insert。
然后,你可以通过下面这条命令,将这些INSERT语句放到db2库里去执行。
需要说明的是,source并不是一条SQL语句,而是一个客户端命令。
mysql客户端执行这个命令的流程是这样的:
打开文件,默认以分号为结尾读取一条条的SQL语句;
将SQL语句发送到服务端执行。
也就是说,服务端执行的并不是这个“source t.sql”语句,而是INSERT语句。
所以,不论是在慢查询日志(slow log),还是在binlog,记录的都是这些要被真正执行的INSERT语句。
导出CSV文件另一种方法是直接将结果导出成.csv文件。
MySQL提供了下面的语法,用来将查询结果导出到服务端本地目录:
我们在使用这条语句时,需要注意如下几点。
如果你执行命令的客户端和MySQL服务端不在同一个机器上,客户端机器的临时目录下是不会生成t.csv文件的。
mysql -h127.0.0.1 -P13000 -uroot db2 -e “source /client_tmp/t.sql”select * from db1.t where a>900 into outfile ‘/server_tmp/t.csv’;2. into outfile指定了文件的生成位置(/server_tmp/),这个位置必须受参数secure_file_priv的限制。
参数secure_file_priv的可选值和作用分别是:
如果设置为empty,表示不限制文件生成的位置,这是不安全的设置;
如果设置为一个表示路径的字符串,就要求生成的文件只能放在这个指定的目录,或者它的子目录;
如果设置为NULL,就表示禁止在这个MySQL实例上执行select … into outfile 操作。
这条命令不会帮你覆盖文件,因此你需要确保/server_tmp/t.csv这个文件不存在,否则执行语句时就会因为有同名文件的存在而报错。
这条命令生成的文本文件中,原则上一个数据行对应文本文件的一行。
但是,如果字段中包含换行符,在生成的文本中也会有换行符。
不过类似换行符、制表符这类符号,前面都会跟上“\”这个转义符,这样就可以跟字段之间、数据行之间的分隔符区分开。
得到.csv导出文件后,你就可以用下面的load data命令将数据导入到目标表db2.t中。
这条语句的执行流程如下所示。
打开文件/server_tmp/t.csv,以制表符(\t)作为字段间的分隔符,以换行符(\n)作为记录之间的分隔符,进行数据读取;
启动事务。
判断每一行的字段数与表db2.t是否相同:
若不相同,则直接报错,事务回滚;
若相同,则构造成一行,调用InnoDB引擎接口,写入到表中。
你可能有一个疑问,如果binlog_format=statement,这个load语句记录到binlog里以后,怎么在备库重放呢?由于/server_tmp/t.csv文件只保存在主库所在的主机上,如果只是把这条语句原文写到binlog中,在备库执行的时候,备库的本地机器上没有这个文件,就会导致主备同步停止。
所以,这条语句执行的完整流程,其实是下面这样的。
load data infile ‘/server_tmp/t.csv’ into table db2.t;2. 往binlog文件中写入语句load data local infile ‘/tmp/SQL_LOAD_MB-1-0’ INTO TABLEdb2 .̀̀ t
。
把这个binlog日志传到备库。
备库的apply线程在执行这个事务日志时:
a. 先将binlog中t.csv文件的内容读出来,写入到本地临时目录/tmp/SQL_LOAD_MB-1-0中;
b. 再执行load data语句,往备库的db2.t表中插入跟主库相同的数据。
执行流程如图2所示:
图2 load data的同步流程注意,这里备库执行的load data语句里面,多了一个“local”。
它的意思是“将执行这条命令的客户端所在机器的本地文件/tmp/SQL_LOAD_MB-1-0的内容,加载到目标表db2.t中”。
也就是说,load data命令有两种用法:
不加“local”,是读取服务端的文件,这个文件必须在secure_file_priv指定的目录或子目录下;
加上“local”,读取的是客户端的文件,只要mysql客户端有访问这个文件的权限即可。
这时候,MySQL客户端会先把本地文件传给服务端,然后执行上述的load data流程。
另外需要注意的是,select …into outfile方法不会生成表结构文件, 所以我们导数据时还需要单独的命令得到表结构定义。
mysqldump提供了一个–tab参数,可以同时导出表结构定义文件和csv数据文件。
这条命令的使用方法如下:
这条命令会在$secure_file_priv定义的目录下,创建一个t.sql文件保存建表语句,同时创建一个t.txt文件保存CSV数据。
物理拷贝方法前面我们提到的mysqldump方法和导出CSV文件的方法,都是逻辑导数据的方法,也就是将数据从表db1.t中读出来,生成文本,然后再写入目标表db2.t中。
你可能会问,有物理导数据的方法吗?比如,直接把db1.t表的.frm文件和.ibd文件拷贝到db2目录下,是否可行呢?答案是不行的。
因为,一个InnoDB表,除了包含这两个物理文件外,还需要在数据字典中注册。
直接拷贝这两个文件的话,因为数据字典中没有db2.t这个表,系统是不会识别和接受它们的。
不过,在MySQL 5.6版本引入了可传输表空间(transportable tablespace)的方法,可以通过导出+导入表空间的方式,实现物理拷贝表的功能。
假设我们现在的目标是在db1库下,复制一个跟表t相同的表r,具体的执行步骤如下:
执行 create table r like t,创建一个相同表结构的空表;
执行alter table r discard tablespace,这时候r.ibd文件会被删除;
执行flush table t for export,这时候db1目录下会生成一个t.cfg文件;
在db1目录下执行cp t.cfg r.cfg; cp t.ibd r.ibd;这两个命令(这里需要注意的是,拷贝得到的两个文件,MySQL进程要有读写权限);
执行unlock tables,这时候t.cfg文件会被删除;
执行alter table r import tablespace,将这个r.ibd文件作为表r的新的表空间,由于这个文件mysqldump -h$host -P$port -u$user —single-transaction –set-gtid-purged=OFF db1 t –where=”a>900” –tab=$secure_file_priv的数据内容和t.ibd是相同的,所以表r中就有了和表t相同的数据。
至此,拷贝表数据的操作就完成了。
这个流程的执行过程图如下:
图3 物理拷贝表关于拷贝表的这个流程,有以下几个注意点:
在第3步执行完flsuh table命令之后,db1.t整个表处于只读状态,直到执行unlock tables命令后才释放读锁;
在执行import tablespace的时候,为了让文件里的表空间id和数据字典中的一致,会修改r.ibd的表空间id。
而这个表空间id存在于每一个数据页中。
因此,如果是一个很大的文件(比如TB级别),每个数据页都需要修改,所以你会看到这个import语句的执行是需要一些时间的。
当然,如果是相比于逻辑导入的方法,import语句的耗时是非常短的。
小结今天这篇文章,我和你介绍了三种将一个表的数据导入到另外一个表中的方法。
我们来对比一下这三种方法的优缺点。
如果出现误删表的情况,用备份恢复出误删之前的临时库,然后再把临时库中的表拷贝到生产库上,是恢复数据最快的方法。
但是,这种方法的使用也有一定的局限性:
必须是全表拷贝,不能只拷贝部分数据;
需要到服务器上拷贝数据,在用户无法登录数据库主机的场景下无法使用;
由于是通过拷贝物理文件实现的,源表和目标表都是使用InnoDB引擎时才能使用。
这个方式的不足之一是,不能使用join这种比较复杂的where条件写法。
但,这个方法的缺点之一就是,每次只能导出一张表的数据,而且表结构也需要另外的语句单独备份。
后两种方式都是逻辑备份方式,是可以跨引擎使用的。
最后,我给你留下一个思考题吧。
我们前面介绍binlog_format=statement的时候,binlog记录的load data命令是带local的。
既然这条命令是发送到备库去执行的,那么备库执行的时候也是本地执行,为什么需要这个local呢?如果写到binlog中的命令不带local,又会出现什么问题呢?你可以把你的分析写在评论区,我会在下一篇文章的末尾和你讨论这个问题。
感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一起阅读。
上期问题时间我在上篇文章最后给你留下的思考题,已经在今天这篇文章的正文部分做了回答。
上篇文章的评论区有几个非常好的留言,我在这里和你分享一下。
@huolang 同学提了一个问题:如果sessionA拿到c=5的记录锁是写锁,那为什么sessionB和sessionC还能加c=5的读锁呢?这是因为next-key lock是先加间隙锁,再加记录锁的。
加间隙锁成功了,加记录锁就会被堵住。
如果你对这个过程有疑问的话,可以再复习一下第30篇文章中的相关内容。
@一大只 同学做了一个实验,验证了主键冲突以后,insert语句加间隙锁的效果。
比我在上篇文章正文中提的那个回滚导致死锁的例子更直观,体现了他对这个知识点非常好的理解和思考,很赞。
@roaming 同学验证了在MySQL 8.0版本中,已经能够用临时表处理insert … select写入原表的语句了。
@老杨同志 的回答提到了我们本文中说到的几个方法。
poppy 4关于思考题,我理解是备库的同步线程其实相当于备库的一个客户端,由于备库的会把binlog中t.csv的内容写到/tmp/SQL_LOAD_MB-1-0中,如果load data命令不加’local’表示读取服务端的文件,文件必须在secure_file_priv指定的目录或子目录,此时可能找不到该文件,主备同步执行会失败。
而加上local的话,表示读取客户端的文件,既然备份线程都能在该目录下创建临时文件/tmp/SQL_LOAD_MB-1-0,必然也有权限访问,把该文件传给服务端执行。
2019-02-15 作者回复 这是其中一个原因2019-02-16☆appleう 3通知对方更新数据的意思是: 针对事务内的3个操作:插入和更新两个都是本地操作,第三个操作是远程调用,这里远程调用其实是想把本地操作的那两条通知对方(对方:远程调用),让对方把数据更新,这样双方(我和远程调用方)的数据达到一致,如果对方操作失败,事务的前两个操作也会回滚,主要是想保证双方数据的一致性,因为远程调用可能会出现网络延迟超时等因素,极端情况会导致事务10s左右才能处理完毕,想问的是这样耗时的事务会带来哪些影响呢?设计的初衷是想这三个操作能原子执行,只要有不成功就可以回滚,保证两方数据的一致性精选留言耗时长的远程调用不放在事务中执行,会出现我这面数据完成了,而对方那面由于网络等问题,并没有更新,这样两方的数据就出现不一致了2019-02-15 作者回复嗯 了解了这种设计我觉得就是会对并发性有比较大的影响。
一般如果网络状态不好的,会建议把这个更新操作放到消息队列。
就是说1. 先本地提交事务。
把通知这个动作放到消息队列,失败了可以重试;
远端接收事件要设置成可重入的,就是即使同一个消息收到两次,也跟收到一次是相同的效果。
2 和3 配合起来保证最终一致性。
这种设计我见到得比较多,你评估下是否符合你们业务的需求哈2019-02-15undifined 3老师,用物理导入的方式执行 alter table r import tablespace 时 提示ERROR 1812 (HY000): Tablespace is missing for table db1
.r
. 此时 db1/ 下面的文件有 db.opt r.cfg r.frm r.ibd t.frm t.ibd;这个该怎么处理执行步骤:
mysql> create table r like t;Query OK, 0 rows affected (0.01 sec)mysql> alter table r discard tablespace;Query OK, 0 rows affected (0.01 sec)mysql> flush table t for export;Query OK, 0 rows affected (0.00 sec)cp t.cfg r.cfgcp t.ibd r.ibdmysql> unlock tables;Query OK, 0 rows affected (0.01 sec)mysql> alter table r import tablespace;ERROR 1812 (HY000): Tablespace is missing for table db1
.r
.2019-02-15 作者回复应该就是评论区其他同学帮忙回复的权限问题了吧?2019-02-15lionetes 2mysql> select * from t;+—-+——+| id | name |+—-+——+| 1 | Bob || 2 | Mary || 3 | Jane || 4 | Lisa || 5 | Mary || 6 | Jane || 7 | Lisa |+—-+——+7 rows in set (0.00 sec)mysql> create table tt like t;Query OK, 0 rows affected (0.03 sec)mysql> alter table tt discard tablespace;Query OK, 0 rows affected (0.01 sec)mysql> flush table t for export;Query OK, 0 rows affected (0.01 sec)mysql> unlock tables;Query OK, 0 rows affected (0.00 sec)mysql> alter table tt import tablespace;Query OK, 0 rows affected (0.03 sec)mysql> show tables;+—————-+| Tables_in_test |+—————-+| t || t2 || tt |+—————-+3 rows in set (0.00 sec)mysql> select * from t;+—-+——+| id | name |+—-+——+| 1 | Bob || 2 | Mary || 3 | Jane || 4 | Lisa || 5 | Mary || 6 | Jane || 7 | Lisa |+—-+——+7 rows in set (0.00 sec)mysql> select * from tt;+—-+——+| id | name |+—-+——+| 1 | Bob || 2 | Mary || 3 | Jane || 4 | Lisa || 5 | Mary || 6 | Jane || 7 | Lisa |+—-+——+7 rows in set (0.00 sec)ll 后 查看 tt.cfg 文件没有自动删除 5.7mysql-rw-r—–. 1 mysql mysql 380 2月 15 09:51 tt.cfg-rw-r—–. 1 mysql mysql 8586 2月 15 09:49 tt.frm-rw-r—–. 1 mysql mysql 98304 2月 15 09:51 tt.ibd2019-02-15 作者回复你说得对, 细致import动作 不会自动删除cfg文件,我图改一下2019-02-15☆appleう 2老师,我想问一个关于事务的问题,一个事务中有3个操作,插入一条数据(本地操作),更新一条数据(本地操作),然后远程调用,通知对方更新上面数据(如果远程调用失败会重试,最多3次,如果遇到网络等问题,远程调用时间会达到5s,极端情况3次会达到15s),那么极端情况事务将长达5-15s,这样会带来什么影响吗?2019-02-15 作者回复“通知对方更新上面数据” 是啥概念,如果你这个事务没提交,其他线程也看不到前两个操作的结果的。
设计上不建议留这么长的事务哈,最好是可以先把事务提交了,再去做耗时的操作。
2019-02-15AstonPutting 1老师,mysqlpump能否在平时代替mysqldump的使用?2019-02-22 作者回复我觉得是2019-02-23PengfeiWang 1老师,您好:
文中“–add-locks 设置为 0,表示在输出的文件结果里,不增加” LOCK TABLES t WRITE;” 是否是笔误,–add-locks应该是在insert语句前后添加锁,我的理解此处应该是–skip-add-locks,不知道是否是这样?2019-02-18 作者回复嗯嗯,命令中写错了,是–add-locks=0,效果上跟–skip-add-locks是一样的哈 细致2019-02-19长杰 1课后题答案不加“local”,是读取服务端的文件,这个文件必须在 secure_file_priv 指定的目录或子目录下;
而备库的apply线程执行时先讲csv内容读出生成tmp目录下的临时文件,这个目录容易受secure_file_priv的影响,如果备库改参数设置为Null或指定的目录,可能导致load操作失败,加local则不受这个影响。
2019-02-17 作者回复 2019-02-18尘封 1老师mysqldump导出的文件里,单条sql里的value值有什么限制吗默认情况下,假如一个表有几百万,那mysql会分为多少个sql导出?问题:因为从库可能没有load的权限,所以local2019-02-15 作者回复好问题,会控制单行不会超过参数net_buffer_length,这个参数是可以通过–net_buffer_length 传给mysqldump 工具的2019-02-28佳 0老师好,这个/tmp/SQL_LOAD_MB-1-0 是应该在主库上面,还是备库上面?为啥我执行完是在主库上面出现了这个文件呢?2019-03-14 作者回复就是在MySQL的运行进程所在的主机上2019-03-16xxj123go 0传输表空间方式对主从同步会有影响么2019-03-12 作者回复你可以看下执行以后,进不进binlog 2019-03-13王显伟 0第一位留言的朋友报错我也复现了,原因是用root复制的文件,没有修改属组导致的2019-02-16 作者回复 2019-02-17夜空中最亮的星(华仔) 0学习完老师的课都想做dba了2019-02-15undifined 0老师 错误信息的截屏 https://www.dropbox.com/s/8wyet4bt9yfjsau/mysqlerror.png?dl=0MySQL 5.7,Mac 上的 Docker 容器里面跑的,版本是 5.7.172019-02-15 作者回复额,打不开。
。
可否发个微博贴图 2019-02-16晨思暮语 0不好意思,第一条留言中,实验三的最后一天语句还是少了,在这里贴一下,mysql> select * from t where id=1;+—-+——+| id | a |+—-+——+| 1 | 3 |+—-+——+1 row in set (0.00 sec)2019-02-15晨思暮语 0老师好,由于字数限制,分两条:
我用的是percona数据库,问题是第15章中的思考题。
根据我做的实验,结论应该是:
MySQL 调用了 InnoDB 引擎提供的“修改为 (1,2)”这个接口,但是引擎发现值与原来相同,不更新,直接返回一直没有想明白,老师再帮忙看看,谢谢!2019-02-15 作者回复我两个留言连在一起看没看明白你对哪个步骤的哪个结果有疑虑,可以写在现象里面(用注释即可)哈2019-02-16晨思暮语 0mysql> select version();+————+| version() |+————+| 5.7.22-log |+————+实验1:SESSION A:mysql> begin;Query OK, 0 rows affected (0.00 sec)mysql> select * from t where id=1;+—-+——+| id | a |+—-+——+| 1 | 2 |+—-+——+1 row in set (0.00 sec)SESSION B:mysql> update t set a=3 where id=1;Query OK, 1 row affected (0.01 sec)Rows matched: 1 Changed: 1 Warnings: 0SESSION A:mysql> update t set a=3 where id=1;Query OK, 0 rows affected (0.00 sec)Rows matched: 1 Changed: 0 Warnings: 0mysql> select * from t where id=1;+—-+——+| id | a |+—-+——+| 1 | 2 |+—-+——+1 row in set (0.00 sec)实验2:SESSION A:mysql> begin;Query OK, 0 rows affected (0.00 sec)mysql> select * from t where id=1;+—-+——+| id | a |+—-+——+| 1 | 2 |+—-+——+1 row in set (0.00 sec)SESSION B:mysql> update t set a=3 where id=1;Query OK, 1 row affected (0.00 sec)Rows matched: 1 Changed: 1 Warnings: 0SESSION A:mysql> update t set a=3 where id=1;BLOCKEDSESSION B:mysql> commit;Query OK, 0 rows affected (0.00 sec)SESSION A:UPDATEmysql> update t set a=3 where id=1;Query OK, 0 rows affected (5.43 sec)Rows matched: 1 Changed: 0 Warnings: 0mysql> mysql> select * from t where id=1;+—-+——+| id | a |+—-+——+| 1 | 2 |+—-+——+1 row in set (0.00 sec)实验3:SESSION A:mysql> begin;Query OK, 0 rows affected (0.00 sec)mysql> select * from t where id=1;+—-+——+| id | a |+—-+——+| 1 | 2 |+—-+——+1 row in set (0.00 sec)SESSION B:mysql> begin;Query OK, 0 rows affected (0.00 sec)mysql> update t set a=3 where id=1;Query OK, 1 row affected (0.00 sec)Rows matched: 1 Changed: 1 Warnings: 0SESSION A:mysql> update t set a=3 where id=1;blockedSESSION B:mysql> rollback;Query OK, 0 rows affected (0.00 sec)SESSION A:UPDATEmysql> update t set a=3 where id=1;Query OK, 1 row affected (5.21 sec)Rows matched: 1 C2019-02-15库淘淘 0如果不加local 如secure_file_priv 设置为null 或者路径 可能就不能成功,这样加了之后可以保证执行成功率不受参数secure_file_priv影响。
还有发现物理拷贝文件后,权限所属用户还得改下,不然import tablespace 会报错找不到文件,老师是不是应该补充上去,不然容易踩坑。
2019-02-15 作者回复嗯嗯,有同学已经踩了,我加个说明进去,多谢提醒2019-02-15lionetes 0@undifined 看下是否是 权限问题引起的 cp 完后 是不是mysql 权限2019-02-15 作者回复 经验丰富如果进程用mysql用户启动,命令行是在root账号下,确实会出现这种情况2019-02-15Ryoma 0问老师一个主题无关的问题:现有数据库中有个表字段为text类型,但是目前发现text中的数据有点不太对。
请问在MySQL中有没有办法确认在插入时是否发生截断数据的情况么?(因为该字段被修改过,我现在不方便恢复当时的现场)2019-02-15 作者回复看那个语句的binlog (是row吧?) 2019-02-15```
insert语句的锁为什么这么多?
MySQL对自增主键锁做了优化,尽量在申请到自增id以后,就释放自增锁。
因此,大部分insert语句是一个很轻量的操作。
不过,也有些insert语句在执行过程中需要给其他资源加锁,或者无法在申请到自增id以后就立马释放自增锁。
如,insert … select 语句在可重复读隔离级别下,binlog_format=statement时执行SQL语句时,需要对表所有行和间隙加锁。
保证并发insert时日志和数据的一致性。
如果session B先执行,由于这个语句对表t主键索引加了(-∞,1]这个next-key lock,会在语句执行完成后,才允许session A的insert语句执行。
但如果没有锁的话,就可能出现session B的insert语句先执行,但是后写入binlog的情况。
1 | CREATE TABLE t̀ ̀( ìd ̀int(11) NOT NULL AUTO_INCREMENT, `c ̀int(11) DEFAULT NULL, `d ̀int(11) DEFAULT NULL, PRIMARY KEY (̀ id )̀, UNIQUE KEY `c ̀(̀ c )̀) ENGINE=InnoDB;insert into t values(null, 1,1);insert into t values(null, 2,2);insert into t values(null, 3,3);insert into t values(null, 4,4);create table t2 like tinsert into t2(c,d) select c,d from t;insert into t values(-1,-1,-1);insert into t2(c,d) select c,d from t; |
create temporary table temp_t(c int,d int) engine=memory;insert into temp_t (select c+1, d from t force index(c) order by c desc limit 1);insert into t select * from temp_t;drop table temp_t;
唯一键冲突加锁这个例子也是在可重复读(repeatable read)隔离级别下执行的。
可以看到,session B要执行的insert语句进入了锁等待状态。
也就是说,session A执行的insert语句,发生唯一键冲突的时候,并不只是简单地报错返回,还在冲突的索引上加了锁。
我们前面说过,一个next-key lock就是由它右边界的值定义的。
这时候,session A持有索引c上的(5,10]共享next-key lock(读锁)。
至于为什么要加这个读锁,其实我也没有找到合理的解释。
从作用上来看,这样做可以避免这一行被别的事务删掉。
这里官方文档有一个描述错误,认为如果冲突的是主键索引,就加记录锁,唯一索引才加next-key lock。
但实际上,这两类索引冲突加的都是next-key lock。
唯一键冲突--死锁在session A执行rollback语句回滚的时候,session C几乎同时发现死锁并返回。
这个死锁产生的逻辑是这样的:
1. 在T1时刻,启动session A,并执行insert语句,此时在索引c的c=5上加了记录锁。
注意,这个索引是唯一索引,因此退化为记录锁。
2. 在T2时刻,session B要执行相同的insert语句,发现了唯一键冲突,加上读锁;同样 ,session C也在索引c上,c=5这一个记录上,加了读锁。
3. T3时刻,session A回滚。
这时候,session B和session C都试图继续执行插入操作,都要加上写锁。
两个session都要等待对方的行锁,所以就出现了死锁。
这个流程的状态变化图如下所示。
图8 状态变化图--死锁insert into … on duplicate key update语义的逻辑是,插入一行数据,如果碰到唯一键约束,就执行后面的更新语句。
insert into t values(11,10,10) on duplicate key update d=100; 如果有多个列违反了唯一性约束,就会按照索引的顺序,修改跟第一个索引冲突的行。
可以看到,主键id是先判断的,MySQL认为这个语句跟id=2这一行冲突,所以修改的是id=2的行。
需要注意的是,执行这条语句的affected rows返回的是2,很容易造成误解。
实际上,真正更新的只有一行,只是在代码实现上,insert和update都认为自己成功了,update计数加了1, insert 计数也加了1。
今天这篇文章,我和你介绍了几种特殊情况下的insert语句。
insert … select 是很常见的在两个表之间拷贝数据的方法。
在可重复读隔离级别下,这个语句会给select的表里扫描到的记录和间隙加读锁。
而如果insert和select的对象是同一个表,则有可能会造成循环写入。
这种情况下,我们需要引入用户临时表来做优化。
insert 语句如果出现唯一键冲突,会在冲突的唯一值上加共享的next-key lock(S锁)。
因此,碰到由于唯一键约束导致报错后,要尽快提交或回滚事务,避免加锁时间过长。
自增主键为什么不是连续的?在第4篇文章中,我们提到过自增主键,由于自增主键可以让主键索引尽量地保持递增顺序插入,避免了页分裂,因此索引更紧凑。
之前我见过有的业务设计依赖于自增主键的连续性,也就是说,这个设计假设自增主键是连续的。
但实际上,这样的假设是错的,因为自增主键不能保证连续递增。
今天这篇文章,我们就来说说这个问题,看看什么情况下自增主键会出现 “空洞”?为了便于说明,我们创建一个表t,其中id是自增主键字段、c是唯一索引。
自增值保存在哪儿?在这个空表t里面执行insert into t values(null, 1, 1);插入一行数据,再执行show create table命CREATE TABLE t̀ ̀( ìd ̀int(11) NOT NULL AUTO_INCREMENT, c ̀int(11) DEFAULT NULL,
d ̀int(11) DEFAULT NULL, PRIMARY KEY (̀ id )̀, UNIQUE KEY `c ̀(̀ c )̀) ENGINE=InnoDB;令,就可以看到如下图所示的结果:
图1 自动生成的AUTO_INCREMENT值可以看到,表定义里面出现了一个AUTO_INCREMENT=2,表示下一次插入数据时,如果需要自动生成自增值,会生成id=2。
其实,这个输出结果容易引起这样的误解:自增值是保存在表结构定义里的。
实际上,表的结构定义存放在后缀名为.frm的文件中,但是并不会保存自增值。
不同的引擎对于自增值的保存策略不同。
MyISAM引擎的自增值保存在数据文件中。
InnoDB引擎的自增值,其实是保存在了内存里,并且到了MySQL 8.0版本后,才有了“自增值持久化”的能力,也就是才实现了“如果发生重启,表的自增值可以恢复为MySQL重启前的值”,具体情况是:
在MySQL 5.7及之前的版本,自增值保存在内存里,并没有持久化。
每次重启后,第一次打开表的时候,都会去找自增值的最大值max(id),然后将max(id)+1作为这个表当前的自增值。
举例来说,如果一个表当前数据行里最大的id是10,AUTO_INCREMENT=11。
这时候,我们删除id=10的行,AUTO_INCREMENT还是11。
但如果马上重启实例,重启后这个表的AUTO_INCREMENT就会变成10。
也就是说,MySQL重启可能会修改一个表的AUTO_INCREMENT的值。
在MySQL 8.0版本,将自增值的变更记录在了redo log中,重启的时候依靠redo log恢复重启之前的值。
理解了MySQL对自增值的保存策略以后,我们再看看自增值修改机制。
自增值修改机制在MySQL里面,如果字段id被定义为AUTO_INCREMENT,在插入一行数据的时候,自增值的行为如下:
如果插入数据时id字段指定为0、null 或未指定值,那么就把这个表当前的AUTO_INCREMENT值填到自增字段;
如果插入数据时id字段指定了具体的值,就直接使用语句里指定的值。
根据要插入的值和当前自增值的大小关系,自增值的变更结果也会有所不同。
假设,某次要插入的值是X,当前的自增值是Y。
如果X<Y,那么这个表的自增值不变;
如果X≥Y,就需要把当前自增值修改为新的自增值。
新的自增值生成算法是:从auto_increment_offset开始,以auto_increment_increment为步长,持续叠加,直到找到第一个大于X的值,作为新的自增值。
其中,auto_increment_offset 和 auto_increment_increment是两个系统参数,分别用来表示自增的初始值和步长,默认值都是1。
当auto_increment_offset和auto_increment_increment都是1的时候,新的自增值生成逻辑很简单,就是:
如果准备插入的值>=当前自增值,新的自增值就是“准备插入的值+1”;
否则,自增值不变。
这就引入了我们文章开头提到的问题,在这两个参数都设置为1的时候,自增主键id却不能保证是连续的,这是什么原因呢?自增值的修改时机要回答这个问题,我们就要看一下自增值的修改时机。
假设,表t里面已经有了(1,1,1)这条记录,这时我再执行一条插入数据命令:
这个语句的执行流程就是:
备注:在一些场景下,使用的就不全是默认值。
比如,双M的主备结构里要求双写的时候,我们就可能会设置成auto_increment_increment=2,让一个库的自增id都是奇数,另一个库的自增id都是偶数,避免两个库生成的主键发生冲突。
insert into t values(null, 1, 1); 1. 执行器调用InnoDB引擎接口写入一行,传入的这一行的值是(0,1,1);2. InnoDB发现用户没有指定自增id的值,获取表t当前的自增值2;
将传入的行的值改成(2,1,1);4. 将表的自增值改成3;
继续执行插入数据操作,由于已经存在c=1的记录,所以报Duplicate key error,语句返回。
对应的执行流程图如下:
图2 insert(null, 1,1)唯一键冲突可以看到,这个表的自增值改成3,是在真正执行插入数据的操作之前。
这个语句真正执行的时候,因为碰到唯一键c冲突,所以id=2这一行并没有插入成功,但也没有将自增值再改回去。
所以,在这之后,再插入新的数据行时,拿到的自增id就是3。
也就是说,出现了自增主键不连续的情况。
如图3所示就是完整的演示结果。
图3 一个自增主键id不连续的复现步骤可以看到,这个操作序列复现了一个自增主键id不连续的现场(没有id=2的行)。
可见,唯一键冲突是导致自增主键id不连续的第一种原因。
同样地,事务回滚也会产生类似的现象,这就是第二种原因。
下面这个语句序列就可以构造不连续的自增id,你可以自己验证一下。
你可能会问,为什么在出现唯一键冲突或者回滚的时候,MySQL没有把表t的自增值改回去呢?如果把表t的当前自增值从3改回2,再插入新数据的时候,不就可以生成id=2的一行数据了吗?其实,MySQL这么设计是为了提升性能。
接下来,我就跟你分析一下这个设计思路,看看自增值为什么不能回退。
假设有两个并行执行的事务,在申请自增值的时候,为了避免两个事务申请到相同的自增id,肯定要加锁,然后顺序申请。
假设事务A申请到了id=2, 事务B申请到id=3,那么这时候表t的自增值是4,之后继续执行。
事务B正确提交了,但事务A出现了唯一键冲突。
如果允许事务A把自增id回退,也就是把表t的当前自增值改回2,那么就会出现这样的情况:表里面已经有id=3的行,而当前的自增id值是2。
接下来,继续执行的其他事务就会申请到id=2,然后再申请到id=3。
这时,就会出现插入语句报错“主键冲突”。
而为了解决这个主键冲突,有两种方法:
如果存在,就跳过这个id。
但是,这个方法的成本很高。
因为,本来申请id是一个很快的操作,现在还要再去主键索引树上判断id是否存在。
这个方法的问题,就是锁的粒度太大,系统并发能力大大下降。
可见,这两个方法都会导致性能问题。
造成这些麻烦的罪魁祸首,就是我们假设的这个“允许自增id回退”的前提导致的。
因此,InnoDB放弃了这个设计,语句执行失败也不回退自增id。
也正是因为这样,所以才只保证了自增id是递增的,但不保证是连续的。
insert into t values(null,1,1);begin;insert into t values(null,2,2);rollback;insert into t values(null,2,2);//插入的行是(3,2,2)自增锁的优化可以看到,自增id锁并不是一个事务锁,而是每次申请完就马上释放,以便允许别的事务再申请。
其实,在MySQL 5.1版本之前,并不是这样的。
接下来,我会先给你介绍下自增锁设计的历史,这样有助于你分析接下来的一个问题。
在MySQL 5.0版本的时候,自增锁的范围是语句级别。
也就是说,如果一个语句申请了一个表自增锁,这个锁会等语句执行结束以后才释放。
显然,这样设计会影响并发度。
MySQL 5.1.22版本引入了一个新策略,新增参数innodb_autoinc_lock_mode,默认值是1。
这个参数的值被设置为0时,表示采用之前MySQL 5.0版本的策略,即语句执行结束后才释放锁;
这个参数的值被设置为1时:
普通insert语句,自增锁在申请之后就马上释放;
类似insert … select这样的批量插入数据的语句,自增锁还是要等语句结束后才被释放;
你一定有两个疑问:为什么默认设置下,insert … select 要使用语句级的锁?为什么这个参数的默认值不是2?答案是,这么设计还是为了数据的一致性。
我们一起来看一下这个场景:
图4 批量插入数据的自增锁在这个例子里,我往表t1中插入了4行数据,然后创建了一个相同结构的表t2,然后两个session同时执行向表t2中插入数据的操作。
你可以设想一下,如果session B是申请了自增值以后马上就释放自增锁,那么就可能出现这样的情况:
session B先插入了两个记录,(1,1,1)、(2,2,2);
然后,session A来申请自增id得到id=3,插入了(3,5,5);
之后,session B继续执行,插入两条记录(4,3,3)、 (5,4,4)。
你可能会说,这也没关系吧,毕竟session B的语义本身就没有要求表t2的所有行的数据都跟session A相同。
是的,从数据逻辑上看是对的。
但是,如果我们现在的binlog_format=statement,你可以设想下,binlog会怎么记录呢?由于两个session是同时执行插入数据命令的,所以binlog里面对表t2的更新日志只有两种情况:
要么先记session A的,要么先记session B的。
但不论是哪一种,这个binlog拿去从库执行,或者用来恢复临时实例,备库和临时实例里面,session B这个语句执行出来,生成的结果里面,id都是连续的。
这时,这个库就发生了数据不一致。
你可以分析一下,出现这个问题的原因是什么?其实,这是因为原库session B的insert语句,生成的id不连续。
这个不连续的id,用statement格式的binlog来串行执行,是执行不出来的。
而要解决这个问题,有两种思路:
所以,自增锁直到语句执行结束才释放,就是为了达到这个目的。
这种情况,其实就是innodb_autoinc_lock_mode设置为2,同时binlog_format设置为row。
因此,在生产上,尤其是有insert … select这种批量插入数据的场景时,从并发插入数据性能的角度考虑,我建议你这样设置:innodb_autoinc_lock_mode=2 ,并且binlog_format=row.这样做,既能提升并发性,又不会出现数据一致性问题。
需要注意的是,我这里说的批量插入数据,包含的语句类型是insert … select、replace …select和load data语句。
但是,在普通的insert语句里面包含多个value值的情况下,即使innodb_autoinc_lock_mode设置为1,也不会等语句执行完成才释放锁。
因为这类语句在申请自增id的时候,是可以精确计算出需要多少个id的,然后一次性申请,申请完成后锁就可以释放了。
也就是说,批量插入数据的语句,之所以需要这么设置,是因为“不知道要预先申请多少个id”。
既然预先不知道要申请多少个自增id,那么一种直接的想法就是需要一个时申请一个。
但如果一个select … insert语句要插入10万行数据,按照这个逻辑的话就要申请10万次。
显然,这种申请自增id的策略,在大批量插入数据的情况下,不但速度慢,还会影响并发插入的性能。
因此,对于批量插入数据的语句,MySQL有一个批量申请自增id的策略:
语句执行过程中,第一次申请自增id,会分配1个;
1个用完以后,这个语句第二次申请自增id,会分配2个;
2个用完以后,还是这个语句,第三次申请自增id,会分配4个;
依此类推,同一个语句去申请自增id,每次申请到的自增id个数都是上一次的两倍。
举个例子,我们一起看看下面的这个语句序列:
insert…select,实际上往表t2中插入了4行数据。
但是,这四行数据是分三次申请的自增id,第一次申请到了id=1,第二次被分配了id=2和id=3, 第三次被分配到id=4到id=7。
由于这条语句实际只用上了4个id,所以id=5到id=7就被浪费掉了。
之后,再执行insert into t2values(null, 5,5),实际上插入的数据就是(8,5,5)。
这是主键id出现自增id不连续的第三种原因。
小结今天,我们从“自增主键为什么会出现不连续的值”这个问题开始,首先讨论了自增值的存储。
在MyISAM引擎里面,自增值是被写在数据文件上的。
而在InnoDB中,自增值是被记录在内存的。
MySQL直到8.0版本,才给InnoDB表的自增值加上了持久化的能力,确保重启前后一个表的自增值不变。
然后,我和你分享了在一个语句执行过程中,自增值改变的时机,分析了为什么MySQL在事务回滚的时候不能回收自增id。
insert into t values(null, 1,1);insert into t values(null, 2,2);insert into t values(null, 3,3);insert into t values(null, 4,4);create table t2 like t;insert into t2(c,d) select c,d from t;insert into t2 values(null, 5,5);MySQL 5.1.22版本开始引入的参数innodb_autoinc_lock_mode,控制了自增值申请时的锁范围。
从并发性能的角度考虑,我建议你将其设置为2,同时将binlog_format设置为row。
我在前面的文章中其实多次提到,binlog_format设置为row,是很有必要的。
今天的例子给这个结论多了一个理由。
最后,我给你留一个思考题吧。
在最后一个例子中,执行insert into t2(c,d) select c,d from t;这个语句的时候,如果隔离级别是可重复读(repeatable read),binlog_format=statement。
这个语句会对表t的所有记录和间隙加锁。
你觉得为什么需要这么做呢?你可以把你的思考和分析写在评论区,我会在下一篇文章和你讨论这个问题。
感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一起阅读。
上期问题时间上期的问题是,如果你维护的MySQL系统里有内存表,怎么避免内存表突然丢数据,然后导致主备同步停止的情况。
我们假设的是主库暂时不能修改引擎,那么就把备库的内存表引擎先都改成InnoDB。
对于每个内存表,执行这样就能避免备库重启的时候,数据丢失的问题。
由于主库重启后,会往binlog里面写“delete from tbl_name”,这个命令传到备库,备库的同名的表数据也会被清空。
因此,就不会出现主备同步停止的问题。
如果由于主库异常重启,触发了HA,这时候我们之前修改过引擎的备库变成了主库。
而原来的主库变成了新备库,在新备库上把所有的内存表(这时候表里没数据)都改成InnoDB表。
所以,如果我们不能直接修改主库上的表引擎,可以配置一个自动巡检的工具,在备库上发现内存表就把引擎改了。
同时,跟业务开发同学约定好建表规则,避免创建新的内存表。
set sql_log_bin=off;alter table tbl_name engine=innodb;