记一次postgresql数据库函数执行问题

 
 

一、函数说明:

首先编写了三个函数:
func_init.sql
func_process.sql
func_uuid.sql
 
 
1、func_init.sql 入参为一个int类型number,根据传入的number做循环,循环调用func_process.sql。
...
BEGIN

FOR i IN 1..num LOOP

    SELECT func_process.sql() INTO counts;

    if counts = 0 then return 'mac地址已使用完';
    end if;

end LOOP;
...

 

 
2、func_process.sql 没有入参,出参为完成状态值integer,里面共分五步:
    a)、查询macInfo表,得到一条state=0的mac值【该表有65w条数据,且只有mac和state两个字段,mac为主键】
select mac from macInfo where state = 0 limit 1;

 

    b)、调用func_uuid.sql,得到uuid【该方法通过plpythonu语言编写,生成UUID】
    c)、生成各个sequence(大概12个)
    d)、组装12个insert语句(12张表)【这里用到了第a步里得到的mac】
    e)、更新macInfo表,将mac值对应的数据的state改为1。
 
3、func_uuid.sql
通过plpythonu语言编写,生成UUID,与sql无关。
 
 

二、postgresql函数问题:

单个函数就是一个事物,无法主动提交事物。
也就是说,我func_init传入的值是多少,那么必须这些全部处理完才会提交事务,中途无法主动提交。
 

三、前提如下:

由于一开始没有特别的考虑性能问题,使用了insert into,而不是copy。
macInfo表里state没有建立索引。
一开始macInfo表的所有state都为0。
写了一个python脚本,在服务器循环调用func_init(10000),调用了65次,用来规避postgresql无法主动提交事务问题。
 

四、发生的问题以及排查

1、一开始跑的时候,
前几次func_init(10000),也就是执行10000次func_process,耗时135s。
func_init(10000)跑到第60次的时候,发现耗时非常久,需要20分钟多。
也就是速度慢了10倍。
 
检查postgresql所在服务器,发现当执行函数的时候,会将一个cpu占到90%,占所有cpu的6%。
当这个函数执行完成时,几乎不占,因此可以确定是这个函数造成的。
 
2、经过排除,发现是第a步,查询mac非常慢,每次耗时100ms。原本耗时是7ms。
猜想macInfo表中state当时值分布中为0的已经很少,都是为1的,且没有索引导致查询慢。
>> select "state", "count"("state") from macinfo GROUP BY state;
>> 
state count
1    641153
0    15000

 

 

3、因此为state加上索引。
CREATE INDEX "idx_macinfo_state" ON "usr"."macinfo" USING BTREE ("state");

 

4、再次执行,发现速度还是很慢,几乎没有改变。
5、既然索引没用,那么我删掉state为1的数据,只留下15000条state为0的数据。
create table usr.macinfo_copy as select * from usr.macinfo;
DELETE FROM usr.macinfo where "state" <> 0;

 

6、再次执行,本次执行了1000条,发现耗时680s,换算成10000条也就是 10分钟多点。
相比快了一倍,但是和最开始比还是慢了5倍。因此该方法还是不行
 
7、还原macinfo表,将数据还原成最初形式。再次执行。速度还是很慢,1000条500s。
 
五、小结
发现就是macinfo表的原因,而且必定能重现。
 
posted @ 2018-03-02 17:24  刍荛采葑菲  阅读(1366)  评论(0编辑  收藏  举报