玩蛇记--Python处理海量手机号码

一、任务描述

上周,老板给我一个小任务:批量生成手机号码并去重。给了我一个Excel表,里面是中国移动各个地区的可用手机号码前7位(如下图),里面有十三张表,每个表里的电话号码前缀估计大概是八千个,需要这些7位号码生成每个都生成后4位组成11位手机号码,也就说每一个格子里面的手机号码都要生成一万个手机号。而且还有,本来服务器已经使用了一部分手机号码了,要在生成的号码列表里去掉已经使用过的那一批。已经使用过的这一批号码已经导出到了一批txt文本里,约4000w,每个txt有10w个号码,里面有重复的,老板估计实际大概是3000w左右。老板可以给我分配使用一个16G内存、8核CPU的Windows服务器来跑程序。

二、任务分析

要处理海量数据,所以程序的执行效率和占用内存不能太高,应该能在开发机的4G内存下也大概跑得动,即关掉所有编程IDE和服务器软件,只用Notepad++和浏览器(用来查资料)的情况下不会卡机。这次任务可能会用到的技术有:程序Excel的处理,文件的遍历和读写,大型数组的操作,多线程并发。预估任务完成周期:一周(日常工作正常进行的前提下)。

三、技术分析

PHP:很熟悉,但是执行效率和内存占用不够好,可能会卡机,要实现多线程似乎有点复杂。(有待斟酌)

Javascript:较熟悉,执行效率和内存占用不太清楚,但是弱类型通常都比较堪忧,各种回调比较干扰思维不顺手。(不考虑)

Java:略懂,学起来和写起来都比较麻烦,开发效率比较慢。(有待斟酌)

C#:没用过,较难学(比JAVA易,比脚本难)。(有待斟酌)

C/C++:略懂,数组处理、多线程这两个似乎比较难搞。(不考虑)

Python:没用过,据说很容易学,有个研究生同学用它来做物理运算等,执行效率应该不低。(试试看)

于是就打着试试看的心态,打开了菜鸟教程(Runoob)的Python教程大概看了一下,目录中有几个数组(List、元组、字典)、文件IO、File和多线程,看了一下例程果然好简单。再度娘了一下python处理Excel,果断简单快捷!于是开启了玩蛇之路。

四、合并(./4000w/hebing.py)

本文开头说到,有4000w的已用号码列表,但是里面是有重复的,而后面的处理都需要用到这些号码。而看到这400多个txt文件加起来大小约500M,所以全部读进去再进行处理也可以承受。所以先把这些文件读进去合并去重,输出成为一个txt文件。最后得到的号码有1800w多条,输出txt文件大小约209M。

#!/usr/bin/python
# -*- coding: UTF-8 -*-

#把所有的文本都读出来
i = 1;
txtStrAll='';
while i<= 402:    #402
    fileobj = open('list-data- ('+ str(i) +').txt');
    txtStr = fileobj.read();
    txtStrAll += txtStr+'\n';
    fileobj.close();
    i+=1;

txtArr = txtStrAll.splitlines();    #分割成数组
print len( txtArr );    #39905386
txtArr = list(set(txtArr));            #去重
print len( txtArr );    #18316857

#合并成字符串,for in会要很久很久
newStr = '';
newStr = '\n'.join( txtArr );

#写入txt
newFileObj = open('list-dataAll.txt', "wb");
newFileObj.write( newStr );
newFileObj.close();
hebing.py

其中对数组内的元素进行合并去重的那一句是 txtArr = list( set(txtArr) ) 。很神奇对吧,这两个是什么函数?其实这两个都是转换类型的函数。先把它转换成了 set 类型,再转换为 list 类型(列表/数组)。python的set(集合)类型是一个无序不重复的元素集,所以list转换为set之后就自动去重了,当然同时顺序也会被打乱了,不过这里的顺序不重要就不用管它啦。

最后数组转换为字符串也是直接用字符串拼接数组就转换了,不要用for循环,非常非常耗时间的。

五、Excel处理(./preNum.py)

根据网上例程直接读取Excel第一个表里面的内容出来,合并成数组转成字符串存到文本里面去。在转成字符串的时候发现报错似乎是说数据类型不对,才知道原来python与PHP、JS不同,是强类型的=_=!于是先在Excel里把表里面的数据转换成字符串格式(excel里准确叫文本格式),转换后excel表里面的数据格左上角是有绿色的小三角形的。每个表单独处理生成一个文件,一个文件里面大概有八千个手机号码前缀。

#!/usr/bin/python
# -*- coding: UTF-8 -*-

#读取Excel,把每个表的 7位 号码都读取出来,存入文件
#共有13个表(三位数前缀),

#到python官网下载http://pypi.python.org/pypi/xlrd模块安装。
#安装方法:进入下载的 xlrd的文件夹,执行命令 python setup.py install
import sys
reload(sys)
sys.setdefaultencoding('utf-8');
#解决'ascii' codec can't encode character, Python2默认是GB2312编码

import xlrd

exel = xlrd.open_workbook('cellnum.xlsx');

tblIndex = 1;                        #第几个表
table1 = exel.sheets()[tblIndex];    #第N个表

ncols = table1.ncols;    #列数
#print ncols;

i=0;
dataAll = [];
while( i< ncols):
    dataArr = table1.col_values( i );
#    print dataArr;
    for num in dataArr[:]:            #每列中的数字格
        if not num.isdigit() :
            dataArr.remove(num);
            
    dataAll.append( dataArr );
    i += 1;

#dataAll 是一个表的数据List    
#print dataAll;

#写入txt
newStr = '';
for eCol in dataAll:
    colStr = '\n'.join( eCol );
    newStr += colStr+'\n';

newFileObj = open('exel-dataAll'+str(tblIndex)+'.txt', "wb");
newFileObj.write( newStr );
newFileObj.close();
preNum.py

六、生成号码并去掉已用过的

首先来想想,有十三个表,一个表里面有大概八千个号码前缀,每个前缀生成一万个号码,每个号码要与前面所说的1800万的已用手机号码进行比对去重。你会怎么做呢???

↓↓

↓↓

我的想法是,分成十三次来做,每次一个表,每个表中八千多个号码,使用多线程,八千多个线程,每个线程生成一万个号码并与那1800万个号码一 一比对。

其中生成和去重的核心代码如下,每生成一个号码的时间大概是0.5秒。所以估计了一下时间,10000*0.5s ≈ 83min,八千个线程大概要一个半小时左右。

#这里是重复的号码
#fileobj = open('testBugNum.txt');    #测试的
fileobj = open('list-dataAll.txt');    #实际的
bugTxtStr = fileobj.read();
fileobj.close();
bugTxtArr = bugTxtStr.splitlines();    #已用过的号码的列表

while j < 10000:    #生成一万个同前缀号码
    newNum = str( int(txtNum)*10000+j );
    j += 1;
#        print newNum;

    if not newNum in bugTxtArr:        #如果不在已用过的号码列表里
        numArr.append( '+86'+newNum );
        print '+86'+newNum;

我在本机大概运行了一下,观察了几分钟,似乎线程创建得比较慢,有些已经跑到了十几个了,有的才刚创建线程。线程调度嘛,不按照顺序嘛,除了输出很乱以外,似乎也没有什么其它问题。于是就上传到服务器上去跑了,然后再过了一会就下班回家了。第二天回到公司,连上服务器看看,出乎意料啊,看到输出的信息里面,那些线程才跑到 三百多,天呐什么时候才能跑到一万啊。而且还有坑爹的是,偶尔就看到有些线程创建失败⊙o⊙

七、思考思考(./doData.py)

从前面的运行信息来看,这里使用多线程似乎并没有加快程序的运行啊,这是为什么呢?如果不能用多线程,那么生成比对的地方就要改成另外更高效的方式了,有吗?

第一问,从网上找到答案,确实说在计算密集型程序中,多线程比单线程更糟,因为一个CPU就那么几个核,不同的线程还是一样要占用CPU资源,再加上线程调度的时间和空间,真是天坑。第二问,PHP中有从一个数组去除另一个数组的函数(官方说法叫做数组的差集 array_diff() ),那么python应该也会有这样的函数,先成一万个号码的数组再进行差集 会不会比原来 每个号码对比再合并效率快呢?

实践了一下,证明确实效率高了极多极多,python中的数组差集是这个样子的 numArr = list( set(numArr) - set(bugTxtArr) ) 测了一下,大概三秒完成一批号码(一批约等于一万个号码),之前是半秒一个号码\( ^▽^ )/。但也注意现在生成的一万个号码排序是乱的,因为中间转换成的set类型是无序的,如果需要从小到大排序,那还要再加个函数排序一下,问了老板说不用按顺序,那就直接这样了。

期间调试的时候发现,使用多线程有时会报错 Unhandled exception in thread started by sys.excepthook is missing 之类的,网上查资料说是因为主进程已经执行完毕,那么其创建的线程就会被关掉。所以我的做法就是让主进程最后为一直执行空语句,很像当年用C语言做单片机的做法呢→_→虽然最后不用多线程了,直接单线程处理,安全稳定。

#!/usr/bin/python
# -*- coding: UTF-8 -*-
import thread
from time import sleep

#生成号码的函数,传入号码前缀    
def generate(txtNum):
#    print txtNum;
    numArr = [];        #用来存号码数组的
    numArrStr = '';        #用来写入文件的
    global doneNum;
    global bugTxtArr;
    global totalNum;
    global tblIndex;
    j = 0;
    while j < 10000:    #生成一万个同前缀号码
        newNum = str( int(txtNum)*10000+j );
        j += 1;
#        print newNum;
        numArr.append( newNum );

#每个对比,但是非常耗时间
#        if not newNum in bugTxtArr:        #如果不在已用过的号码列表里
#            numArr.append( '+86'+newNum );
#            #print '+86'+newNum;

#    先全部合并,再数组去除(list 差集运算)            
#    numArr = list( set(numArr).difference(set(bugTxtArr)) );
    numArr = list( set(numArr) - set(bugTxtArr) );
    numArrStr = '\n'.join(numArr);

    #存入文件
    newFileObj = open('cellNum'+str(tblIndex)+'/'+str(txtNum)+'.txt', "wb");
    newFileObj.write( numArrStr );
    newFileObj.close();
    
    print '-----TASK--------'+str(txtNum)+'--OK-------------';
    doneNum += 1;    #完成的任务数加一
    if doneNum == totalNum:
        print '++++++---ALL---TASK---DONE---+++++++++++++++';    #完成所有任务

#########################################函数结束#####################################


#定义要处理的表
tblIndex = 9;

#把一个表合并后的数据读出来
fileobj = open('exel-dataAll'+str(tblIndex)+'.txt');
txtStr = fileobj.read();
fileobj.close();
txtArr = txtStr.splitlines();    #分割成数组
totalNum = len( txtArr );
#print txtArr;


#这里是重复的号码
#fileobj = open('testBugNum.txt');    #测试的
fileobj = open('list-dataAll.txt');    #实际的
bugTxtStr = fileobj.read();
fileobj.close();
bugTxtArr = bugTxtStr.splitlines();    #已用过的号码的列表
#print bugTxtArr;

print totalNum;
doneNum = 0;
num = 0;
for txtNum in txtArr:
    if txtNum.isdigit() :
        generate(txtNum);    #生成号码
    
#多线程,有多少个前缀就多少个线程,每个线程生成一万个号码
#测试发现执行效率没有提高,而内存消耗大很多,查资料了解到计算密集型任务用多线程没帮助的
#    try:        
#        thread.start_new_thread( generate, (txtNum,) )
#    except:
#        print "Error: "+str(txtNum)+" no Thread";
#        errfileobj = open('error-log'+str(tblIndex)+'.txt', 'a');
#        errfileobj.write( "Error: "+str(txtNum)+" no Thread\n" );
#        errfileobj.close();


#    num += 1;
#    if num > 10:
#        break;
    

#sleep(1);
#print 'sleep end';
#while 1==1 :    #主程序一直执行,以防线程提早结束
#    pass;
doData.py

八、合并整理(./hbData.py)

经过了大概六个小时的号码生成,最后就是把一个Excel表生成的八千多个文件整理,每十个文件合成一个,每个文件约十万个号码,每个号码前面加上 “+86” 。就遍历一下目录,没什么技术点就不详说了。

#!/usr/bin/python
# -*- coding: UTF-8 -*-
import os

def hebing( filesArr ):
    global tblIndex;
    i = 0;
    newStr = '';
    filesArrLen = len(filesArr);
    #print filesArr;
    for file in filesArr:
        txtStrAll = '';
        fileobj = open('cellNum'+str(tblIndex)+'/'+filesArr[i]);
        txtStr = fileobj.read();
        fileobj.close();
        txtStrAll += txtStr+'\n';

        txtArr = txtStrAll.splitlines();    #分割成数组

        #全部在开头加上+86
        arrLen = len(txtArr);
        #print arrLen;
        for j in range(0, arrLen):
            txtArr[j] = "+86"+txtArr[j];
            
        #转成字符串
        newStr += '\n'.join(txtArr);
        
        i += 1;

        #每10个文件写入txt,注意最后的不足十个的时候
        if not i%10 :    
            #print i;
            newFileObj = open('resList'+str(tblIndex)+'/'+str(i)+'.txt', "wb");
            newFileObj.write( newStr );
            newFileObj.close();
            newStr = '';
        elif i==filesArrLen :
            #print i;
            newFileObj = open('resList'+str(tblIndex)+'/'+str(i)+'.txt', "wb");
            newFileObj.write( newStr );
            newFileObj.close();
            newStr = '';


#把所有的文本都读出来
tblIndex = 1;
rootDir = os.getcwd()+"\cellNum"+str(tblIndex);
#print rootDir;
for parent,dirs,files in os.walk(rootDir):
#    print files;    #得到一个文件名List,按文件名排序的
#    hebing( files[0:15] );    #测试
    hebing( files );

    
"""
i = 1;
txtStrAll='';
while i<= 402:    #402
    fileobj = open('list-data- ('+ str(i) +').txt');
    txtStr = fileobj.read();
    txtStrAll += txtStr+'\n';
    fileobj.close();
    i+=1;

txtArr = txtStrAll.splitlines();    #分割成数组
print len( txtArr );    #39905386
txtArr = list(set(txtArr));            #去重
print len( txtArr );    #18316857

#合并成字符串,for in会要很久很久
newStr = '';
newStr = '\n'.join( txtArr );

#写入txt
newFileObj = open('list-dataAll.txt', "wb");
newFileObj.write( newStr );
newFileObj.close();
"""
hbData.py

后话,总共只有十三个表,这些程序稍微改一下,执行十三次就行了。值得注意的是,我这里的程序几乎每个都有一个全局变量 tblIndex, 是以防一文件里面一个个修改目录名和文件名,疏忽有可能导致的数据覆盖。

总结

  1. 使用脚本语言有一个很重要的要点:要尽量用语言提供的函数,不要自己实现算法,尤其是循环的那种,执行速度不在一个数量级。
  2. 处理大批量的数据,要拆分步骤,生成中间文件。大量数据复杂操作要小批量小批量地慢慢调试,结果无误才逐步切换成真实数据。
  3. 多线程在运算密集型的场景中是没有用武之处的,就算CPU是多核也没什么用,反而会造成顺序随机不易观察,线程不稳定容易出错,线程间切换内存消耗加大等弊端。
  4. 据说GPU可以用来挖矿、暴力破解等,对本场景这种高并发、简单逻辑的运算应该也非常适用,以后可能要用得上GPU编程(求推荐教程)。
posted @ 2016-04-22 19:42  北七星  阅读(2046)  评论(10编辑  收藏  举报
F**k me on Gitee