上一页 1 ··· 36 37 38 39 40 41 42 43 44 ··· 56 下一页

2021年5月16日

摘要: 题目描述 Given a binary tree, return the inorder traversal of its nodes values. For example: Given binary tree{1,#,2,3}, 1 \ 2 / 3 return[1,3,2]. Note: Re 阅读全文
posted @ 2021-05-16 12:25 朴素贝叶斯 阅读(92) 评论(0) 推荐(0) 编辑
摘要: 题目描述 Given a binary tree, return the preorder traversal of its nodes' values. For example: Given binary tree{1,#,2,3}, 1 \ 2 / 3 return[1,2,3]. Note: 阅读全文
posted @ 2021-05-16 11:37 朴素贝叶斯 阅读(40) 评论(0) 推荐(0) 编辑
摘要: 题目描述 Clone an undirected graph. Each node in the graph contains a label and a list of its neighbors. OJs undirected graph serialization:Nodes are labe 阅读全文
posted @ 2021-05-16 10:43 朴素贝叶斯 阅读(38) 评论(0) 推荐(0) 编辑
摘要: 题目描述 Sort a linked list using insertion sort. /** * Definition for singly-linked list. * struct ListNode { * int val; * ListNode *next; * ListNode(int 阅读全文
posted @ 2021-05-16 09:35 朴素贝叶斯 阅读(57) 评论(0) 推荐(0) 编辑
摘要: 题目描述 现在你总共有 n 门课需要选,记为 0 到 n-1。在选修某些课程之前需要一些先修课程。 例如,想要学习课程 0 ,你需要先完成课程 1 ,我们用一个匹配来表示他们: [0,1]。给定课程总量以及它们的先决条件,返回你为了学完所有课程所安排的学习顺序。可能会有多个正确的顺序,你只要返回一种 阅读全文
posted @ 2021-05-16 08:27 朴素贝叶斯 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 题目描述 现在你总共有 n 门课需要选,记为 0 到 n-1。在选修某些课程之前需要一些先修课程。 例如,想要学习课程 0 ,你需要先完成课程 1 ,我们用一个匹配来表示他们: [0,1]。给定课程总量以及它们的先决条件,判断是否可能完成所有课程的学习? 示例 1: 输入: 2, [[1,0]] 输 阅读全文
posted @ 2021-05-16 07:13 朴素贝叶斯 阅读(47) 评论(0) 推荐(0) 编辑

2021年5月14日

摘要: 文章原地址为:https://zhuanlan.zhihu.com/p/37601161 概述 注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人 阅读全文
posted @ 2021-05-14 20:45 朴素贝叶斯 阅读(276) 评论(0) 推荐(0) 编辑

2021年5月13日

摘要: 函数定义 torch.full_like(input, fill_value, *, dtype=None, layout=torch.strided, device=None, requires_grad=False, memory_format=torch.preserve_format) → 阅读全文
posted @ 2021-05-13 21:13 朴素贝叶斯 阅读(323) 评论(0) 推荐(0) 编辑
摘要: 函数定义 torch.where(condition, x, y) → Tensor Return a tensor of elements selected from either x or y, depending on condition. The operation is defined a 阅读全文
posted @ 2021-05-13 20:45 朴素贝叶斯 阅读(279) 评论(0) 推荐(0) 编辑
摘要: 概述 我们前面介绍的文本分类算法,都是句子级别的分类,用到长文本、篇章级,虽然也是可以的,但速度精度都会下降,于是有研究者提出了**层次注意力分类框架**,即模型Hierarchical Attention,见论文Hierarchical Attention Networks for Documen 阅读全文
posted @ 2021-05-13 20:17 朴素贝叶斯 阅读(1349) 评论(0) 推荐(0) 编辑
上一页 1 ··· 36 37 38 39 40 41 42 43 44 ··· 56 下一页

导航