pyltp的简单使用

上一篇我们搭建了pyltp的基本环境,现在我们用简单的示例来测试它的使用,因为还是新手,肯定会有很多不全面的地方,后面我慢慢补充。

我们采用PyCharm作为编辑器,进行示例。

0.    检查pyltp

首先先检查下python27/Lib/site-packages/目录下是否存在pyltp的相关文件夹:

 

 
                    pyltp的安装位置

1.    创建项目

    1.1 创建一个新的python项目

创建一个新的python项目,并取名为:firstLtp

注意更改PyCharm的以下设置,因为你的pyltp是安装在这里的,所以如此设置你的pyltp才能够正常使用:

 

 
                          新手注意~

1.2 创建src

在venv目录下,创建src文件夹。

 
        如上

2.    基本组件的使用

    2.1 分词模块使用

(1)创建SentenceSplitterTest.py

# -- coding: utf-8 --**

#测试分句使用-SentenceSplitter

from pyltp import Sentence

Splittersentence = SentenceSplitter.split('测试分句,这是分句1。这是分句2。这个是,分句3。')

for i in range(len(sentence)):

    print i+1,':',sentence[i]

(2)获得结果

C:\Python27\python.exe E:/for_study/PyCharmSpace/firstLtp/venv/src/SentenceSplitterTest.py

1 : 测试分句,这是分句1。

2 : 这是分句2。

3 : 这个是,分句3。

Process finished with exit code 0

    2.2 分词使用

(1)SegmentorTest.py

# -- coding: utf-8 --**

#测试分词使用 - Segmentor

import os

LTP_DATA_DIR = 'F:/zou/LTP/ltp_data/ltp_data' #v3.3.1报错Segmentor: Model not loaded!,使用新版本模型v3.4.0运行成功

cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model') # 分词模型路径,模型名称为‘cws.‘

from pyltp import Segmentorsegmentor = Segmentor() # 初始化实例

segmentor.load(cws_model_path) # 加载模型

words = segmentor.segment('欧几里得是西元前三世纪的希腊数学家。') # 分词

print ' '.join(words)segmentor.release() # 释放模型,但是人名并未识别,以下方法可以识别出人名

path_name = 'F:/zou/LTP/Names-Corpus-master/Names-Corpus/testName.txt'segmentor = Segmentor() # 初始化实例

segmentor.load_with_lexicon(cws_model_path, path_name) # 加载模型地址,参数lexicon是自定义词典的文件路径

words = segmentor.segment('欧几里得是西元前三世纪的希腊数学家。')print ' '.join(words)segmentor.release()

 

 

(2)获得结果

C:\Python27\python.exe E:/for_study/PyCharmSpace/firstLtp/venv/src/SegmentorTest.py

欧 几 里 得 是 西元前 三 世纪 的 希腊 数学家 。

[INFO] 2019-03-10 13:23:55 loaded 3 lexicon entries

欧几里得 是 西元前 三 世纪 的 希腊 数学家 。

Process finished with exit code 0

                          将欧几里得添加到用户字典里,于是可以识别到欧几里得为一个词(人名),改善结果并提高准确率。

    2.3  词性标注使用

(1)PostaggerTest.py

# -- coding: utf-8 --**

#测试词性标注- Postagger

LTP_DATA_DIR ='F:/zou/LTP/ltp_data/ltp_data' #v3.3.1同样报错模型未加载,采用v3.4.0

import os

pos_model_path = os.path.join(LTP_DATA_DIR,'pos.model')# 词性标注模型路径,模型名称为`pos.model`

from pyltpimport Postagger

postagger = Postagger()# 初始化实例

postagger.load(pos_model_path)# 加载模型

words = ['欧几里得','是','西元前','三','世纪','的','希腊','数学家','。']

postags = postagger.postag(words)# 词性标注

for iin range(len(words)):

print words[i],'(',

print postags[i],')',

postagger.release()# 释放模型

(2)获得结果

C:\Python27\python.exe E:/for_study/PyCharmSpace/firstLtp/venv/src/PostaggerTest.py

欧几里得 ( nh ) 是 ( v ) 西元前 ( nt ) 三 ( m ) 世纪 ( n ) 的 ( u ) 希腊 ( ns ) 数学家 ( n ) 。 ( wp )

Process finished with exit code 0

词性标注对应如下:附录

 
                    863词性标注集

    2.4 命名实体识别使用

(1)NamedEntityRecognizerTest.py

# -- coding: utf-8 --**

#命名实体识别测试- NamedEntityRecognizer

LTP_DATA_DIR ='F:/zou/LTP/ltp_data/ltp_data' #v3.3.1同样报错模型未加载,采用v3.4.0

import os

ner_model_path = os.path.join(LTP_DATA_DIR,'ner.model')# 命名实体识别模型路径,模型名称为`ner.model`

from pyltpimport NamedEntityRecognizer

recognizer = NamedEntityRecognizer()# 初始化实例

recognizer.load(ner_model_path)# 加载模型

words = ['欧几里得','是','西元前','三','世纪','的','希腊','数学家','。']

postags = ['nh','v','nt','m','n','u','ns','n','wp']

nertags = recognizer.recognize(words, postags)# 命名实体识别

print ' '.join(nertags)

recognizer.release()# 释放模型

(2)获得结果

C:\Python27\python.exe E:/for_study/PyCharmSpace/firstLtp/venv/src/NamedEntityRecognizerTest.py

S-Nh O O O O O S-Ns O O

Process finished with exit code 0

 
NamedEntityRecognizer

    2.5 依存句法分析的使用

(1)ParserTest.py

# -- coding: utf-8 --**

#依存句法分析测试- Parser

LTP_DATA_DIR ='F:/zou/LTP/ltp_data/ltp_data' #v3.3.1同样报错模型未加载,采用v3.4.0

import os

par_model_path = os.path.join(LTP_DATA_DIR,'parser.model')# 依存句法分析模型路径,模型名称为`parser.model`

from pyltpimport Parser

parser = Parser()# 初始化实例

parser.load(par_model_path)# 加载模型

words = ['欧几里得','是','西元前','三','世纪','的','希腊','数学家','。']

postags = ['nh','v','nt','m','n','u','ns','n','wp']

arcs = parser.parse(words, postags)# 句法分析

rely_id = [arc.headfor arcin arcs]# 提取依存父节点id

relation = [arc.relationfor arcin arcs]# 提取依存关系

heads = ['Root' if id ==0 else words[id-1]for idin rely_id]# 匹配依存父节点词语

for iin range(len(words)):

print relation[i] +'(' + words[i] +', ' + heads[i] +')'

parser.release()# 释放模型

(2)获得结果

C:\Python27\python.exe E:/for_study/PyCharmSpace/firstLtp/venv/src/ParserTest.py

SBV(欧几里得, 是)

HED(是, Root)

ATT(西元前, 世纪)

ATT(三, 世纪)

ATT(世纪, 数学家)

RAD(的, 世纪)

ATT(希腊, 数学家)

VOB(数学家, 是)

WP(。, 是)

Process finished with exit code 0

 
                     依存句法关系

示例代码

posted @ 2019-04-18 16:47  森林1997  阅读(2013)  评论(0编辑  收藏  举报