上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 27 下一页
摘要: neo4j通过neo4j-admin import导入CSV文件 1.数据准备:节点文件:lv,zhibiao 关系文件:duiying三个文件均为在EXCEL保存为CSV文件格式 2.找到neo4j的安装路径的bin文件夹,新建一个move文件夹 3.复制三个文件到该文件夹下,并选择打开方式——记 阅读全文
posted @ 2021-04-28 10:44 小杨的冥想课 阅读(1389) 评论(0) 推荐(0) 编辑
摘要: 文本的表示方法有哪些 基于one-hot、tf-idf、textrank 等的bag-of-words 主题模型:LSA (SVD) 、pLSA、LDA 基于词向量的固定表征: Word2vec、FastText、GloVe 基于词向量的动态表征:ELMo、GPT、BERT 阅读全文
posted @ 2021-04-28 09:26 小杨的冥想课 阅读(231) 评论(0) 推荐(0) 编辑
摘要: 深度学习框架 TensorFlow 特点:静态框架 而TensorFlow就是AI技术层中的学习框架。所谓学习框架,你可以用它来处理大量数据,快速建立数学模型, TensorFlow是一个软件,在该软件里面,用户需要使用Python等语言通过编程来搭建数学模型 TensorFlow Serving 阅读全文
posted @ 2021-04-28 09:21 小杨的冥想课 阅读(67) 评论(0) 推荐(0) 编辑
摘要: 优先级限制下的调度问题:在满足限制条件的情况下如何安排并完成所有任务 有向图中的环 如果一个有优先级限制的问题中存在有向环,那么这个问题肯定是无解的。因此我们需要首先进行有向环检测 有向环检测:检测给定的有向图是否包含环,若有环,通常只需找出一个即可 寻找环利用了DFS方法,维护一个递归调用期间已访 阅读全文
posted @ 2021-04-22 10:56 小杨的冥想课 阅读(286) 评论(0) 推荐(0) 编辑
摘要: pyltp安装闭坑指南 pyltp是中文NLP最基础的工具,但这个包真的难装小哥颇费一般周折 官网是这样说的,但大概率是装不上,我试了两种方法用了pycharm上的装包工具和pip都不行 主要的原因是: pyltp值提供了python3.5和python3.6版本,所以必须把自己的python的版本 阅读全文
posted @ 2021-04-17 21:02 小杨的冥想课 阅读(137) 评论(0) 推荐(0) 编辑
摘要: pip安装包到不同的python解释器 在装包的时候经常会在不同的环境上装不同的包,这时候在装包的时候就需要选择不同的python环境 方法一:全路径安装C:\Users\lenovo\AppData\Local\Programs\Python\Python36\python3.exe -m pip 阅读全文
posted @ 2021-04-17 20:32 小杨的冥想课 阅读(1068) 评论(0) 推荐(0) 编辑
摘要: WARNING: Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None)) after connec 在用pip安装包时,报错 一种可能kexueshangwnag了开着,改成直连模式,或关掉就可以了 阅读全文
posted @ 2021-04-16 19:48 小杨的冥想课 阅读(1134) 评论(0) 推荐(0) 编辑
摘要: 词向量 几个概念 词嵌入(word embedding):把文本转换成数值形式,或者说——嵌入到一个数学空间里,而 词向量:一个单词所对应的向量,向量之间的数学关系可以表示单词之间的语义关系 词的离散式表示 ***one-hot *** Bag of Words(词袋模型) 没有表达单词在原来句子中 阅读全文
posted @ 2021-04-14 08:53 小杨的冥想课 阅读(318) 评论(0) 推荐(0) 编辑
摘要: 基于规则的关系抽取 流程 基于规则和人工抽取关系词——>基于抽取的关系词抽取关系句——>基于人工总结的模板结合同义词和re模块进行模板匹配抽取三元组 规则 句子关系词抽取(所谓的关系词就是含有某个关系的句子,经常出现并且特有的词,要有区分度:与全局普通句子的区分度,与其他关系句子的区分度) 采用类似 阅读全文
posted @ 2021-04-13 22:54 小杨的冥想课 阅读(1097) 评论(0) 推荐(0) 编辑
摘要: NLP(十三)中文分词工具的使用尝试 转自:jclian91](https://segmentfault.com/u/jclian91) 本文将对三种中文分词工具进行使用尝试,这三种工具分别为哈工大的LTP,结巴分词以及北大的pkuseg。 首先我们先准备好环境,即需要安装三个模块:pyltp, j 阅读全文
posted @ 2021-04-11 17:25 小杨的冥想课 阅读(195) 评论(0) 推荐(0) 编辑
上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 27 下一页