几部电影的词云

前段时间,我们爬取了几部热门的电影,分别是《三生三世》,《战狼》,《二十二》,我们今天 就以这几部为例,进行一个简单的词云的制作。

我们主要以《二十二》为例,来制作一个评论的词云。

首先需要安装几个必要的工具库:

  • Pandas 用来实现文件读取和存储,以及必要的数据转换。
  • jieba 一个强大的分词工具,用来实现分词,也是我们实现词云的一个最重要的工具。
  • wordcloud 词云工具,用来实现最终的词云的制作,也是必要的工具。

下面我们就开始。

首先需要导入相应的库,并读取我们下载的csv文件。

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt

df_ershier = pd.read_csv('ershier.csv', encoding='utf-8')
df_ershier.comment.fillna(' ')
df_ershier.comment = df_ershier.comment.astype(str)

下面就是实现词云的主要步骤。

import jieba
from wordcloud import WordCloud
import PIL

result = []  # 用来存放切分的词

def parse(raw_text):
    for word in jieba.cut(raw_text):  # raw_text是字符串,也就是我们获取到的全部评论信息
        if len(word) > 1:
            result.append(word)
            

def wordcloudplot(data, file_name):   # data 是以空格分隔的字符串        
    path = 'msyh.ttf'
    alice_mask = np.array(PIL.Image.open('yuan.jpg'))
    stopwords = ['nan', '就是', '还是', '但是', '没有','觉得', '三生三世', '三生', '三世',
                '还有', '演员', '怎么', '这么', '电影', '这部']

    wordcloud = WordCloud(font_path=path, background_color="white",
                          margin=5,
                          width=1000, height=800,
                          mask=alice_mask, max_words=1000, max_font_size=100,
                          stopwords = stopwords, random_state=0)
                    
    wordcloud = wordcloud.generate(data)
    wordcloud.to_file(file_name)
    plt.imshow(wordcloud)
    plt.axis("off")
    plt.show()

下面是执行部分

raw_text = ' '.join(list(df_ershier.comment))
parse(raw_text)
text = ' '.join(result)
wordcloudplot(text, 'ershier_.jpg')

最后生成如下的词云

同样的道理,生成如下的《战狼》,《三生三世》

posted @ 2017-11-08 21:52  cnkai  阅读(712)  评论(0编辑  收藏  举报