上一页 1 ··· 21 22 23 24 25 26 27 28 29 ··· 60 下一页
摘要: 2019-09-10 19:46:07 问题描述:Seq2Seq模型引入注意力机制是为了解决什么问题?为什么选择使用双向循环神经网络模型? 问题求解: 在实际任务中使用Seq2Seq模型,通常会先使用一个循环神经网络作为编码器,将输入序列编码成一个向量表示;然后再使用一个循环神经网络模型作为解码器, 阅读全文
posted @ 2019-09-10 22:39 hyserendipity 阅读(299) 评论(0) 推荐(0) 编辑
摘要: 2019-09-10 22:17:21 问题描述:精确率和召回率的权衡。 问题求解: 要回答这个问题首先要明确这两个概念,精确率是分类正确的正样本 / 判定为正样本的总数;召回率是分类正确的正样本 / 真正正样本的总数。 Presion 和 Recall 是既矛盾又统一的两个指标,为了提高Presi 阅读全文
posted @ 2019-09-10 22:24 hyserendipity 阅读(908) 评论(0) 推荐(0) 编辑
摘要: 2019-09-10 19:29:26 问题描述:什么是Seq2Seq模型?Seq2Seq模型在解码时有哪些常用办法? 问题求解: Seq2Seq模型是将一个序列信号,通过编码解码生成一个新的序列信号,通常用于机器翻译、语音识别、自动对话等任务。在Seq2Seq模型提出之前,深度学习网络在图像分类等 阅读全文
posted @ 2019-09-10 19:46 hyserendipity 阅读(1282) 评论(0) 推荐(0) 编辑
摘要: 2019-09-09 15:36:13 问题描述:word2vec 和 glove 这两个生成 word embedding 的算法有什么区别。 问题求解: GloVe (global vectors for word representation) 与word2vec,两个模型都可以根据词汇的 " 阅读全文
posted @ 2019-09-09 16:16 hyserendipity 阅读(2997) 评论(0) 推荐(0) 编辑
摘要: 2019-09-07 22:36:21 问题描述:word2vec是如何工作的? 问题求解: 谷歌在2013年提出的word2vec是目前最常用的词嵌入模型之一。word2vec实际是一种浅层的神经网络模型,它有两种网络结构,分别是cbow和skip gram。 cbow的目标是根据上下文来预测中心 阅读全文
posted @ 2019-09-07 22:38 hyserendipity 阅读(366) 评论(0) 推荐(0) 编辑
摘要: 2019-09-07 22:01:45 问题描述:LSTM是如何实现长短期记忆功能的? 问题求解: 与传统的循环神经网络相比,LSTM仍然是基于当前输入和之前的隐状态来计算当前的隐状态,只不过对内部的结构进行了精心的设计,加入了更新门,遗忘门和输出门这三个门和一个内部记忆单元。 在一个训练好的网络中 阅读全文
posted @ 2019-09-07 22:02 hyserendipity 阅读(1783) 评论(0) 推荐(0) 编辑
摘要: 2019-09-07 16:34:48 877. Stone Game 问题描述: 问题求解: 典型的博弈问题,也是一个典型的min-max问题。通常使用算diff的方法把min-max转为求max。 dp[i][j] : i ~ j 玩家 A 和 玩家 B 得分的diff。 1140. Stone 阅读全文
posted @ 2019-09-07 16:36 hyserendipity 阅读(511) 评论(0) 推荐(0) 编辑
摘要: 2019-09-03 10:29:36 x & (x - 1) x & (x-1)相当于消除了 x 从右向左数遇到的第一个 1。 应用一、用 O(1) 时间检测整数 n 是否是 2 的幂次。 若 n 是 2 的幂次,则 n & (n - 1) == 0。 应用二、计算整数二进制中包含 1 的个数。 阅读全文
posted @ 2019-09-03 10:31 hyserendipity 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 2019-09-01 20:59:55 总体感受:最近几次参加contest发现自己的水平还是严重的不够,尤其是在处理一些异常情况的时候,遇到TLE,MLE如何有效的进行Debug是需要去锻炼的。 注意点: 1)TLE,首先可以通过加上特殊判断进行解决,这个需要在实际的问题中考虑好特殊的情况,过滤掉 阅读全文
posted @ 2019-09-01 23:50 hyserendipity 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 2019-08-29 17:17:15 问题描述:比较RNN,GRU,LSTM。 问题求解: 循环神经网络 RNN 传统的RNN是维护了一个隐变量 ht 用来保存序列信息,ht 基于 xt 和 ht-1 来计算 ht 。 ht = g( Wi xt + Ui ht-1 + bi ) yt = g( 阅读全文
posted @ 2019-08-29 17:17 hyserendipity 阅读(234) 评论(0) 推荐(0) 编辑
上一页 1 ··· 21 22 23 24 25 26 27 28 29 ··· 60 下一页