上一页 1 ··· 42 43 44 45 46 47 48 49 50 ··· 64 下一页
摘要: eval()返回的数值标量 read_eval()返回的是这个变量的tensor,类型是read 直接上代码: 输出: 阅读全文
posted @ 2018-12-20 16:34 今夜无风 阅读(388) 评论(0) 推荐(0) 编辑
摘要: 一、深度学习模型 1.CNN 2.LSTM 3.Attention 二、与传统机器学习模型的比较 1.SVM 2.LR 3.GBDT 4.XGBoost 5.RandomForest 6.LightGBM 三、文本特征选择 1.一般短文本的长度在200字符左右,需要更加精巧的模型来判别 2.对于网络 阅读全文
posted @ 2018-12-20 16:07 今夜无风 阅读(942) 评论(0) 推荐(0) 编辑
摘要: 当我们训练自己的神经网络的时候,无一例外的就是都会加上一句 sess.run(tf.global_variables_initializer()) ,这行代码的官方解释是 初始化模型的参数。那么,它到底做了些什么? global_variables_initializer 返回一个用来初始化 计算图 阅读全文
posted @ 2018-12-20 15:51 今夜无风 阅读(2372) 评论(0) 推荐(0) 编辑
摘要: 感谢原著,原文出处:https://www.cnblogs.com/wangyaning/p/7853879.html 1.绪论 过去几年,深度神经网络在模式识别中占绝对主流。它们在许多计算机视觉任务中完爆之前的顶尖算法。在语音识别上也有这个趋势了。而中文文本处理,以及中文自然语言处理上,似乎没有太 阅读全文
posted @ 2018-12-20 09:33 今夜无风 阅读(778) 评论(0) 推荐(0) 编辑
摘要: 一、原有模型的架构 biLSTM + CRF 二、对原有模型加入注意力机制 LSTM输出层加入注意力,参考文章:《Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification》,该文 阅读全文
posted @ 2018-12-18 19:40 今夜无风 阅读(2776) 评论(0) 推荐(0) 编辑
摘要: 做nlp的时候,如果用到tf-idf,sklearn中用CountVectorizer与TfidfTransformer两个类,下面对和两个类进行讲解 一、训练以及测试 CountVectorizer与TfidfTransformer在处理训练数据的时候都用fit_transform方法,在测试集用 阅读全文
posted @ 2018-12-18 19:33 今夜无风 阅读(4568) 评论(3) 推荐(1) 编辑
摘要: 当你需要按照矩阵维度复制数据时候,可以使用tensorflow的tile函数 阅读全文
posted @ 2018-12-17 17:18 今夜无风 阅读(1655) 评论(0) 推荐(0) 编辑
摘要: 训练模型利用gensim.models.Word2Vec(sentences)建立词向量模型该构造函数执行了三个步骤:建立一个空的模型对象,遍历一次语料库建立词典,第二次遍历语料库建立神经网络模型可以通过分别执行model=gensim.models.Word2Vec(),model.build_v 阅读全文
posted @ 2018-12-17 11:29 今夜无风 阅读(3087) 评论(0) 推荐(0) 编辑
摘要: 查看机器上GPU情况 命令: nvidia-smi 功能:显示机器上gpu的情况 命令: nvidia-smi -l 功能:定时更新显示机器上gpu的情况 命令:watch -n 3 nvidia-smi 功能:设定刷新时间(秒)显示GPU使用情况 在终端执行程序时指定GPU CUDA_VISIBL 阅读全文
posted @ 2018-12-16 16:28 今夜无风 阅读(1771) 评论(0) 推荐(0) 编辑
摘要: 最近,使用python的logging模块,因为这个写入日志写完后就没有管它。在存储日志信息的时候,一直提示: UnicodeEncodeError: 'gbk' codec can't encode character '\xbb' in position 0: illegal multibyte 阅读全文
posted @ 2018-12-15 15:16 今夜无风 阅读(1212) 评论(0) 推荐(0) 编辑
上一页 1 ··· 42 43 44 45 46 47 48 49 50 ··· 64 下一页