mysql如何处理大数据?
背景:公司某项目使用mysql数据库,一张订单表数据超过2亿了,查询速度极其慢。
处理方法:
1.分库分表。
2.数据表分区。
我这边采取的是第二种,数据表分区。
业务是全国的业务,数据量每天新增100万条。
在这种情况下如何分库分表,那么原有的业务逻辑都需要重新改一遍,这不亚于重构了。
但如果采用数据表分区则无需大改。
我以全国城市id为分区键,把订单表划分成 1000个分区,每个城市的交易数据都放在自己的分区内,这样每个查询条件只需要有分区键就行(原来一直都有)。
完美解决。
如需详细联系 请加
qq 646943067
微信:q646943067
备注请写 博客园
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix