python 多进程练习 调用 os.system命令

 

 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
import sys
import getopt
import os
import multiprocessing
 
 
def list_all_file(path):
    """
    list all files of a directory
    :param path:
    :return:
    """
    file_list = []
    for (path, _, files) in os.walk(path):
        for filename in files:
            file_list.append(os.path.join(path, filename))
    return file_list
 
 
def process_file(filename, is_black):
    suffix = os.path.splitext(filename)[-1][1:]
    if suffix != "pcap":
        return
 
    if is_black:
        cmd = "python extract_tls_flow4.py -vr {} -o black/{}.txt  >logs/black/{}.log".format(filename, os.path.basename(filename), os.path.basename(filename))
    else:
        cmd = "python extract_tls_flow4.py -vr {} -o white/{}.txt  >logs/white/{}.log".format(filename, os.path.basename(filename), os.path.basename(filename))
    os.system(cmd)
 
 
def process_black_file(filename):
    process_file(filename, 1)
 
 
def process_white_file(filename):
    process_file(filename, 0)
 
 
def process_dir(sample_dir, is_black):
    file_list = list_all_file(sample_dir)
 
    process_num = 30
    pool = multiprocessing.Pool(processes=process_num)
    if is_black:
        pool.map(process_black_file, file_list)
    else:
        pool.map(process_white_file, file_list)
 
    pool.close()
    pool.join()
    print("End...........")
 
 
black_sample_dir = "/opt/data/samples/black_pcap"
white_sample_dir = "/opt/data/samples/white_pcap"
 
process_dir(black_sample_dir, 1)
process_dir(white_sample_dir, 0)

  

posted @   bonelee  阅读(2395)  评论(0编辑  收藏  举报
编辑推荐:
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· DeepSeek 开源周回顾「GitHub 热点速览」
历史上的今天:
2017-02-20 A N EAR -D UPLICATE D ETECTION A LGORITHM T O F ACILITATE D OCUMENT C LUSTERING——有时间看看里面的相关研究
2017-02-20 一个基于特征向量的近似网页去重算法——term用SVM人工提取训练,基于term的特征向量,倒排索引查询相似文档,同时利用cos计算相似度
2017-02-20 python UDP CS demo
2017-02-20 python glances来监控linux服务器CPU 内存 IO使用
2017-02-20 大数据日志分析产品——SaaS Cloud, e.g. Papertrail, Loggly, Sumo Logic;Open Source Frameworks, e.g. ELK stack, Graylog;Enterprise Products, e.g. TIBCO LogLogic, IBM QRadar, Splunk
点击右上角即可分享
微信分享提示