环境配置需要安装的包
pip install pandas

pip install jieba

pip install sklearn

一、数据获取
利用python抓取美团的数据集,获取非空的数据,抓取的字段包括店名、评论、评论的打分

二、数据预处理

导入sklearn的包

系统默认的包 

1.数据洗涤
将爬取的数据进行数据洗涤,去除符号以及标点等,将结果按id和对应的评论重新组合在一起
形成一条数据一个评分

2.读取数据并做好标签

3.读取内容建立训练的字段
apply中的是分词函数,将每个句子化成词向量进行训练

tts分词的模型,test_size是测试集的大小

4.构建模型

其中stop_words是停用词

5.保存模型

将模型保存起来并在以后的使用中可以调用

1.导入joblib的包

2.用dump保存起来

三、模型建立

1.初始化使用的分类模型
初始化贝叶斯模型

2.训练模型建立管道保存

四、预测

1.模型预测

算出准确率

2.加载模型训练

3.结果

五、注意

在3.0.x的python版本中sklearn的导入模型有变化,参考我给出的模型包。参考链接很详细,但是导入模型有点旧,有些不能使用训练集的准确率那个包就是如此

六、参考
参考blog:http://blog.sciencenet.cn/blog-377709-1103593.html

最后根据店铺的评论数和评论关键字生成词云

词云:https://www.cnblogs.com/future-dream/p/11624463.html

github:https://github.com/pzq7025/emotion

posted on 2019-10-06 17:27  蔚蓝色の天空  阅读(921)  评论(0编辑  收藏  举报