摘要:
在英文中,单词之间有空格做天然的分割,分词变得非常简单。但是在中文中就没有那么容易了,所以分词是自然语言处理的基础,分词不好,后面很难去做进一步分析。尽管现在NLP中有很多算法以字来切分,比如bert,中文分词仍然是NLP中很重要、很基础的一块工作。目前已经有许多开源的中文分词工具,比如jieba, 阅读全文
搜索
最新评论
- 1. Re:pandas.read_sql_query()读取数据库数据用chunksize的坑
- 近期发现可以在传入的Connector配置按流式处理选项, engine = create_engine('mysql+pymysql://xxxxx', execution_options={'st...
- --stjimreal
- 2. Re:Softmax函数详解与推导
可以
- --索跑跑
- 3. Re:全连接层(FC)与全局平均池化层(GAP)
Thanks
- --Le0v1n
- 4. Re:数据预处理:独热编码(One-Hot Encoding)和 LabelEncoder标签编码
- @feng-itp 这样在回归模型训练时这4列数据是否单独会将每一列作为变量参与模型训练??...
- --小张乔啊乔
- 5. Re:pandas.read_sql_query()读取数据库数据用chunksize的坑
- @只会玩辅助 连接量太多是指数据库同时访问量太多?...
- --理想几岁