鴻飛

导航

 
  • 测试环境

  • 表信息

表数据量22.23万,占用空间44.494M

  • 用到的sql语句

增加列:alter table t_type add column new_column char(1) default null;

修改列:alter table t_type modify new_column char(200) default null;

删除列:alter table t_tpye drop column new_column;

表占用空间:

select concat(round(sum(data_length/1024/1024),3),'MB') as data_size,
concat(round(sum(max_data_length/1024/1024),3),'MB') as max_data_length,
concat(round(sum(data_free/1024/1024),3),'MB') as data_free,
concat(round(sum(index_length/1024/1024),3),'MB') as index_length
from information_schema.tables where table_name='t_type'

  • 测试结果

见如下表格:

占用空间 char(1) default null char(50) default null char(100) default null char(200) default null
data_size(MB) 45.123 44.922 44.922 44.922
index_length(MB) 2.256 2.256 2.256 2.256
data_free(MB) 0 0 0 0
 
占用空间 char(1) not null default '' char(50) not null default '' char(100) not null default '' char(200) not null default ''
data_size(MB) 44.922 44.721 44.721 44.721
index_length(MB) 2.256 2.256 2.256 2.256
data_free(MB) 0 0 0 0

 

向new_column char(200) not null default ''插入字符N个a\啊
占用空间\插入字符 1(a\啊) 2(aa\啊啊) 2(a啊/啊a) 3(aaa/啊哈呵) 35(a…a/啊…的/全半角混合)
data_size(MB) 45.729\46.733 46.733\48.961 48.961/48.961 48.961/48.961 63.377/66.617/67.617
index_length(MB) 2.256 2.256 2.256 2.256 2.256
data_free(MB) 0 0 0 0 4.24

 

这个时候,当插入35个字符时,产生了奇怪的现象,看下面截图

  • 重要步骤

可以看到,随着不断的更新字段中的数据,更新所耗费的时间逐渐增加(4.75->5.77->6.89->8.30),插入的最后一条数据(8.30sec),产生了4.240M的内存碎片。

优化表

优化后,表的大小明显减小,index_length也相应减小。

之前以为优化后的data_size为优化前的data_size减去data_free,看来不是这个样子。

通过上面的测试,对于char类型的字段,我得出了如下结论:

  • 结论:

1、对于char类型,char(1)占用的空间反而比char(50)占用的多。

2、char(N)随着N的增多,表占用的空间并没有增大,这样就和N多大就分配多大的说法相矛盾。所以下面斜体字说法是错误的:

char类型时定长的类型,即当定义的是char(10),输入的是"abc"这三个字符时,它们占的空间一样是10个字节,包括7个空字节。

3、在更新大量数据的时候,如果插入次数过多(我测试的也不多,也就比上面摆出的多了三次),会严重影响mysql的插入速度与性能。

4、随着字段中数据量的增多,表占用的空间并不是一成不变的。而且也并没有根据插入字符所占字节的多少呈现符合常理的变化。

注:怪不得别人都说mysql是个坑,如果这样的话,这样就应该解决了前几天的那个疑问,也解决了我之前一直想不清楚的疑问。如何解决这个问题,还需要更深一步的研究一下mysql。

posted on 2016-05-20 17:54  鴻飛  阅读(192)  评论(0编辑  收藏  举报