Mysql DDL 大表 遇到的问题
一张表yunpan_item大概有十几万的数据,上面有一个FullText index。
alter table yunpan_item add column `data_index` bigint COMMENT '帖子id' after source;
执行的很慢,show full processlist发现status是copyin to tmp table. 一直执行了7个小时还没结束。
加上ALGORITHM=INSTANT,结果报错:InnoDB presently supports one FULLTEXT index creation at a time(可能是mysql的bug)。
于是在my.cnf上加上
tmp_table_size = 256M
max_heap_table_size = 256M
然后先把FullText index drop掉,然后执行add column,这个时候就没有copying to tmp table了。然后结束后把索引加回去。
喜欢艺术的码农
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· winform 绘制太阳,地球,月球 运作规律
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人