上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 27 下一页
摘要: ckpt_file = os.path.join(self.args.bert_dir, 'model.ckpt-6123') # 获取图的reader reader = self.tf_instance.train.NewCheckpointReader(ckpt_file) # 根据节点名称获取节点 output_weights = reader.get_tensor('output_we... 阅读全文
posted @ 2019-02-16 17:19 下路派出所 阅读(2121) 评论(0) 推荐(0) 编辑
摘要: 1.先获取节点 2.获取图 阅读全文
posted @ 2019-02-16 17:16 下路派出所 阅读(737) 评论(0) 推荐(0) 编辑
摘要: 1.定义 2.定义model_fn: 2.使用estimator.predict 1 阅读全文
posted @ 2019-01-03 18:04 下路派出所 阅读(3358) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/hrlnw/p/8067214.html 阅读全文
posted @ 2018-12-27 15:37 下路派出所 阅读(227) 评论(0) 推荐(0) 编辑
摘要: 以往的TensorFLow模型数据的导入方法可以分为两个主要方法,一种是使用feed_dict另外一种是使用TensorFlow中的Queues。前者使用起来比较灵活,可以利用Python处理各种输入数据,劣势也比较明显,就是程序运行效率较低;后面一种方法的效率较高,但是使用起来较为复杂,灵活性较差 阅读全文
posted @ 2018-12-24 17:27 下路派出所 阅读(545) 评论(0) 推荐(0) 编辑
摘要: VocabularyProcessor:类似于keras里面的那个padding,将词映射到词向量词字典的id上 阅读全文
posted @ 2018-12-23 11:42 下路派出所 阅读(667) 评论(0) 推荐(0) 编辑
摘要: 直观理解与模型整体结构 先来看一个翻译的例子“I arrived at the bank after crossing the river” 这里面的bank指的是银行还是河岸呢,这就需要我们联系上下文,当我们看到river之后就应该知道这里bank很大概率指的是河岸。在RNN中我们就需要一步步的顺 阅读全文
posted @ 2018-12-19 12:00 下路派出所 阅读(583) 评论(0) 推荐(0) 编辑
摘要: Windows: https://www.lfd.uci.edu/~gohlke/pythonlibs/#fasttext 下载需要的版本 然后:pip install 文件名 阅读全文
posted @ 2018-12-19 10:33 下路派出所 阅读(779) 评论(0) 推荐(0) 编辑
摘要: EM算法也称期望最大化(Expectation-Maximum,简称EM)算法,它是一个基础算法,是很多机器学习领域算法的基础,比如隐式马尔科夫算法(HMM), LDA主题模型的变分推断等等 1. EM算法要解决的问题 我们经常会从样本观察数据中,找出样本的模型参数。 最常用的方法就是极大化模型分布 阅读全文
posted @ 2018-12-18 19:55 下路派出所 阅读(416) 评论(0) 推荐(0) 编辑
摘要: 即排除当前词的主题分配,根据其他词的主题分配和观察到的单词来计算当前词主题的概率公式 里面用到了伽马函数的性质 当Gibbs sampling 收敛后,我们需要根据最后文档集中所有单词的主题分配来计算和,作为我们估计出来的概率图模型中的隐含变量。每个文档上Topic的后验分布和每个Topic下的te 阅读全文
posted @ 2018-12-18 16:09 下路派出所 阅读(269) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 27 下一页