2.安装Spark与Python练习

一、安装Spark

检查基础环境hadoop,jdk

 

 

下载spark

 

 

 配置相关文件

 

 

 

 

 配置环境变量

 

 

 

 

 

 启动spark并运行python代码

 

def load_file(word_freq):     # 读文件到缓冲区
    try:     # 打开文件
        f = open(intext, 'r')
    except IOError as s:
        print(s)
        return None
    try:     # 读文件到缓冲区
        bvffer = f.read()
    except:
        print("ERROR!!")
        return None
    f.close()
    
    if bvffer:
        # 下面添加处理缓冲区 bvffer代码,统计每个单词的频率,存放在字典word_freq
        bvffer = bvffer.lower()
        for ch in '“‘!;,.?”':
            bvffer = bvffer.lower().replace(ch, " ")  #将所有字母转换成小写,便于统计
        words = bvffer.strip().split()         #strip消除空白符,split以空格作为单词分界
        for word in words:
            word_freq[word] = word_freq.get(word, 0)+1  #读取到的单词存放到字典

    return word_freq

def output_result(word_freq):
    if word_freq:
        sorted_word_freq = sorted(word_freq.items(), key=lambda v: v[1], reverse=True)
        for item in sorted_word_freq[:10]:  # 输出 Top 10 的单词
            print(item[0], item[1])

            f = open(outtext, 'a')
            f.write(str(item[0]) + ' ' +str(item[1]))
            f.write('\n')
            f.close()

if __name__ == "__main__":
    word_freq = {}
    intext = "text.txt"
    outtext = 'outtext.txt'
    a = load_file(word_freq)
    output_result(a)

 

 

 

 二、Python编程练习:英文文本的词频统计

1、准备文本

 

2、预处理:大小写,标点符号,停用词

 

3、统计每个单词出现的次数

 

4、结果写文件

 

 

 

 

 

posted @ 2022-03-06 01:31  益康大排档  阅读(30)  评论(0编辑  收藏  举报