摘要:
import pytesseract from PIL import Image im=Image.open('image.png') print(pytesseract.image_to_string(im))安装注意: 环境变量需要配置两处 1、path 2、TESSDATA_PREFIX初始路径 pytesseract.pytesseract.tesseract_cmd = 'd://Tes 阅读全文
2019年11月29日 #
2019年8月8日 #
摘要:
spaCy能够比较两个对象,并预测它们的相似程度。 预测相似性对于构建推荐系统或标记重复项很有用。 例如,您可以建议与当前正在查看的用户内容相似的用户内容,或者将支持凭单标记为与现有内容非常相似的副本。 每个Doc、Span和Token都有一个.similarity()方法,它允许您将其与另一个对象 阅读全文
2019年8月6日 #
摘要:
官方文档: https://spacy.io/api Spacy功能简介 可以用于进行分词,命名实体识别,词性识别等等,但是首先需要下载预训练模型 pip install --user spacy python -m spacy download en_core_web_sm pip install 阅读全文
摘要:
官方文档: https://radimrehurek.com/gensim/models/word2vec.html 1、训练模型定义 参数解释: 1.sg=1是skip-gram算法,对低频词敏感;默认sg=0为CBOW算法。 2.size是输出词向量的维数,值太小会导致词映射因为冲突而影响结果, 阅读全文
2019年8月1日 #
摘要:
git-url: https://github.com/lancopku/PKUSeg-python pkuseg:一个多领域中文分词工具包 pkuseg简单易用,支持细分领域分词,有效提升了分词准确度。 主要亮点 pkuseg具有如下几个特点: 编译和安装 目前仅支持python3 为了获得好的效 阅读全文
2019年7月30日 #
摘要:
一、jieba介绍jieba库是一个简单实用的中文自然语言处理分词库。 jieba分词属于概率语言模型分词。概率语言模型分词的任务是:在全切分所得的所有结果中求某个切分方案S,使得P(S)最大。 jieba支持三种分词模式: 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决 阅读全文
摘要:
url: https://github.com/fxsjy/jieba/blob/master/ jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built 阅读全文
2017年12月22日 #
摘要:
一 介绍 官网:http://selenium-python.readthedocs.io 二 安装 #安装:selenium+chromedriver pip3 install selenium 下载chromdriver.exe放到python安装路径的scripts目录中即可,注意最新版本是2 阅读全文
2017年12月19日 #
摘要:
Memcached Memcached 是一个高性能的分布式内存对象缓存系统,用于动态Web应用以减轻数据库负载。它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提高动态、数据库驱动网站的速度。Memcached基于一个存储键/值对的hashmap。其守护进程(daemon )是用C写的,但 阅读全文
2017年12月13日 #
摘要:
Scrapy Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中。其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Ser 阅读全文