摘要:
jieba中文分词¶ 中文与拉丁语言不同,不是以空格分开每个有意义的词,在我们处理自然语言处理的时候,大部分情况下,词汇是对句子和文章的理解基础。因此需要一个工具去把完整的中文分解成词。 jieba是一个分词起家的中文工具。 基本分词函数与用法¶ 安装:pip install jieba(全自动安装 阅读全文
摘要:
Python 正则表达式¶ In [1]: import re pattern = re.compile(r'hello.*\!') print(pattern) match = pattern.match('hello,World! how are you?') if match: print(m 阅读全文