摘要:
解决Python flask运行报错:UnicodeDecodeError: 'utf-8' codec can't decode byte 0xd2 in position 0: invalid continuation byte 阅读全文
摘要:
人工智能——LTP分词中外部词典的使用 阅读全文
摘要:
Python调用有道api进行翻译 阅读全文
![](https://img2020.cnblogs.com/blog/1975550/202107/1975550-20210712124502203-709261175.png)
摘要:
解决Python写入CSV后中文乱码问题 阅读全文
摘要:
解决Python运行报错:UnicodeDecodeError: 'gbk' codec can't decode byte 0xb0 in position 166: illegal multibyte sequence 阅读全文
摘要:
人工智能——爬取金庸小说人物关系
导语:人物数据来自于[金庸网](http://www.jinyongwuxia.cc/data/renwu/index.htm "金庸网"),为了便捷,人物姓名部分为手动复制到本地pachong.html文件中,最后的数据存在test2.csv中,人物关系数据来自百度百科。 阅读全文
![人工智能——爬取金庸小说人物关系](https://img2020.cnblogs.com/blog/1975550/202107/1975550-20210712122738924-48517383.png)
摘要:
导语:人物数据来自于金庸网,为了便捷,人物姓名部分为手动复制到本地pachong.html文件中,最后的数据存在test.csv中,代码最后的停止3秒,非常有必要。 项目完整文件见 爬取金庸小说人物介绍 效果图: 代码: from bs4 import BeautifulSoup import ur 阅读全文
![人工智能——爬取金庸小说人物介绍](https://img2020.cnblogs.com/blog/1975550/202107/1975550-20210712121648334-1024460917.png)
摘要:
导语:自然语言处理可视化:利用爬虫抓取互联网上《如懿传》(或其他)电视剧中演员的部分数据,分析演员的姓名、星座、身高、体重和籍贯等信息,绘制词云和玫瑰图。 原题其实是《延禧攻略》,不过触类旁通后,我决定改成《如懿传》,此次爬取数据的网站为https://www.tvzn.com,在实际中发现此网站前 阅读全文
![人工智能——自然语言处理可视化,绘制词云和玫瑰图。](https://img2020.cnblogs.com/blog/1975550/202107/1975550-20210712112243045-1337565406.jpg)
摘要:
导语:给定一段文本,利用Jieba分词软件进行分词,分析Jieba分词的原理,展示样本分词效果,样本的topK(10)词:topK(10)是指排序前十,这里我使用了《射雕英雄传》第一回作为给定的文本,即代码中的eg.txt,项目完整文件见人工智能——jieba分词实例 效果图: 代码: # -*- 阅读全文
![人工智能——jieba分词示例](https://img2020.cnblogs.com/blog/1975550/202107/1975550-20210712110828562-864375299.png)