python -nltk

1. 用word_tokenize的时候说 u'tokenizers/punkt/english.pickle' not found.

我nltk.download(),想把所有的corpus下下来,但经常断。于是手动在网站上把corpora下下来,但还是说不对。

其实只要nltk.download('punkt')

posted @ 2016-05-12 17:09  白天黑夜每日c  阅读(168)  评论(0编辑  收藏  举报