seo与python大数据结合给文本分词并提取高频词
最近研究seo和python如何结合,参考网上的一些资料,写的这个程序。
目的:分析某个行业(例如:圆柱模板)用户最关心的一些词,根据需求去自动调整TDK,以及栏目,内容页的规划
使用方法:
1 2 3 4 5 6 7 8 9 10 11 12 | 1 、下载安装cygwin:http: / / www.cygwin.com / 2 、cygwin安装时别忘记安装curl,wget,iconv,lynx,dos2unix,Python等常用工具,特别是Python,这次主要就是用它了。 3 、去下载jieba中文分词组件: 首选:https: / / github.com / fxsjy / jieba / archive / master. zip 备用:https: / / pypi.python.org / pypi / jieba / 4 、安装jieba中文分词组件: 全自动安装: easy_install jieba 或者 pip install jieba / pip3 install jieba 半自动安装:先下载 https: / / pypi.python.org / pypi / jieba / ,解压后运行 python setup.py install 手动安装:将 jieba 目录放置于当前目录或者 site - packages 目录 通过 import jieba 来引用 5 、复制以下代码,另存为“jiebacmd.py” 6 、新建一个文件夹,将你需要分词的文本和jiebacmd.py拷进去,记住文本需要另存为utf - 8 编码,然后在cygwin里用cd命令把工作目录切换进新建的文件夹,再输入以下命令:cat abc.txt|python jiebacmd.py|sort|uniq - c|sort - nr|head - 100 |
代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 | #encoding=utf-8 #usage example (find top 100 words in abc.txt): #用途:找出abc.txt文件中出现频率最高的前100个词 #复制以下命令到cygwin里运行,abc.txt是你文本的文件名,head -100可以自己改成想要提取的前多少个词 #cat abc.txt | python jiebacmd.py | sort | uniq -c | sort -nr -k1 | head -100 #以上都是注释,不影响程序运行 from __future__ import unicode_literals import sys sys.path.append( "../" ) reload (sys) sys.setdefaultencoding( "utf-8" ) import jieba default_encoding = 'utf-8' if len (sys.argv)> 1 : default_encoding = sys.argv[ 1 ] while True : line = sys.stdin.readline() if line = = "": break line = line.strip() for word in jieba.cut(line): print (word) |
千行代码,Bug何处藏。 纵使上线又怎样,朝令改,夕断肠。
分类:
Python开发笔记
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具