MySQL单表千万级数据查询优化大家怎么说(评论有亮点)

题图来自APOD

上次写了一篇MySQL优化实战的文章“MySQL千万级数据从190秒优化到1秒全过程”。

这篇文章主要还是在实战MySQL优化,所以从造数据到查询SQL优化SQL都没有业务或者其它依赖,优化的技巧也不涉及软件架构就是纯SQL优化。

由于笔者经验有限和篇幅限制没有展开讲很多细节,其中有很多争议的地方也在原帖进行了回复。

通过大家的讨论学习到很多东西。有句话在技术学习这块说的挺好,“一个人走的慢,一群人走的快”。通过讨论可以发现MySQL千万数据的全貌大概是怎样的。

以下enjoy~

千万数据的信息

原帖中实际产生的数据量有1500W行数据,以下基于此说明。

名称 说明
行数 1500W
磁盘大小 字段少,接近2GB
单表查询时间 查询快
关联查询时间 查询很慢

《阿里巴巴Java开发手册》有这么一条规约:

【推荐】单表行数超过 500 万行或者单表容量超过 2GB,才推荐进行分库分表。
说明:如果预计三年后的数据量根本达不到这个级别,请不要在创建表时就分库分表。

千万级数据在互联网公司是推荐分表的。笔者从事的传统行业千万级的大表还是很常见的~

笔者由此得出“千万级数据对于MySQL来说就是不太合理的一个存在”,至于是否合理也是仁者见仁智者见智了~

怎么优化的

  • 怼索引
  • 怼覆盖索引
  • 小表驱动大表
  • 强制索引
  • 减少数据量

优化技巧中,其中有的有效、有的没效果。

尤其是很多优化技巧涉及到千万级才会出现,也就是隐藏技巧,比如强制索引。最实用的还是覆盖索引。

有些技巧只是提及没有实际操作。以后会按照这种方式展展开写,欢迎关注。

大家怎么说

反向逻辑的

方向操作主要就是反PUA了,虽然写的文章水平一般,但是这波方向操作我是佩服的~
虽然技术确实能实现需求,但常在职场主打的一个就是身心愉悦~

  • 软件层面优化不了,那就交给硬件,硬件层面优化不了,那就交给人力

  • 你记住代码和人有一个能跑就行

  • 老板说,优化不了代码我们就优化需求,优化不了需求我们就优化客户

  • 千辛万苦优化到1秒,领导来了一句:“谁让你这么改的?给我改回去!”

  • 哈哈哈,甲方还没提需求,你就给我优化了,谁给钱啊

  • 迟早都是Oracle收割的韭菜

  • 我有5亿钱包数据,怎么优化都打不到秒出!

反对的

这个意见没毛病,千万数据在MySQL也很常见。
但是笔者在阿里云做过验证,配置是8核心16G内存,同样的脚本在阿里云MYSQL中验证最少还是需要3s+
单机MYSQL千万数据看来确实是很多业务无法允许的瓶颈了~

  • 哈哈,需求从“统计每个用户的订单总额”,变成“统计某几个用户的订单总额”,你小子是懂优化的

  • 优化不了就改需求是吧?优化思路是不对的,最后输出结果都不一样了

  • 抛开需求谈设计就是耍流氓...

  • 最后一部分,真 到了一秒

  • 单表千万数据量没什么不合理的,一次group by出所有的用户不分页才不合理。

  • 那是你们家的mysql支持不了单表1000w。我们家的可以,而且速度还很好。

支持的

主打的就是实战优化技巧,希望多多输出学习输出实战才能闭环增长呢

  • 本身这种全量查询大量数据的需求就不合理,当然是要优化业务了

  • 虽然但是哈哈哈哈 但是你这个文章给出的SQL和存储过程都可以直接使用并且调试步骤都有,拿来试试玩玩涨涨操作知识也挺好的呀~ 支持~

技术类的

这部分讨论主要停留在技术层面,软件硬件优化还是有很多的,可以看出平台里面还是很多潜水大牛的~

  • 我记得mysql的join缓冲区,有个设置,调大点,join效率会有明显提升

  • 是的 但是一般都有自适应

  • 数据库级别优化本来就是有极限的,最终都得靠应用级别优化

  • 个人习惯先用小表驱动大表, 添加索引和减少数据量进行优化。因为覆盖索引添加了查询的列很多时候只优化了当下的查询,但如果有很多相类似的sql要查询就很容易创建越来越多列,查询时间又没有减少

  • 千万级的数据量得用分库分表,还要用缓存,光索引是没有用的,在想啥呢

  • mysql适合互联网科技服务的业务场景,就是用户只看自己的数据,联表业务场景不多的情况。要是来一个传统企业级数据场景就难搞了,比如银行流水数据,企业内部财务订单数据,几个千万级的大表级联就很慢很慢了,这时候还是推荐上oracle和sqlserver商业数据库了,再不济也得来个pg。免费mysql存储海量数据的代价是人员成本高,硬件授权虽贵,但现在开发人员工资也不低。

  • 之前测试过阿里云的mysql,8c16g ssd 配置,1.2亿条数据 查询 23 毫秒,感觉阿里云有点厉害

  • 同样的脚本在阿里云MYSQL中验证最少还是需要3s+~配置是8核心16G内存,单机MYSQL千万数据看来确实是很多业务无法允许的瓶颈了~

  • 首先,MySQL千万数据,在MySQL8.0以上的版本默认配置下轻松驾驭。除非你是7年以上的老服务器,或者是虚拟机,或者你本地点测试。分区优化后,2000万性能损失也不大。隔壁部门单表5000万了,还在叠加。另外,文章整体不错,点赞!还有,分表慎用,切勿只为数据分流而分表。

  • 还有物理配置也算一个

  • MySQL没碰到,二十多年前,在Oracle上遇到,新系统,全系统初始化库存的时候,同事写的脚本,要执行六个小时,调整了下,大概不到二十分钟。

他山之石

文章确实还有很多完善的地方,比如硬件配置是性能测试的基准没有体现出来。

MySQL千万数据究竟大吗?结论是大但不是天花板。

不是关系型数据库的天花板也不是软件优化的天花板。

但是怎么说,MySQL作为被Oracle收购的一个开源软件,更像是一个弃子一样,所以各大云服务厂商都优化和迭代了MySQL,性能好很多~

软件的分层设计很重要,缓存、软件、代理、持久化每个环节的综合设计可以让软件很能打,平摊各个环节的取舍也就降低了风险~

关于作者

来自一线全栈程序员nine的探索与实践,持续迭代中。

欢迎评论、点赞、收藏、关注。

posted @ 2024-07-04 16:23  落叶微风  阅读(27)  评论(0编辑  收藏  举报