随笔分类 - NLP
摘要:问题: # 你这个学期必须选修 numCourses 门课程,记为 0 到 numCourses - 1 。 # # 在选修某些课程之前需要一些先修课程。 先修课程按数组 prerequisites 给出,# 其中 prerequisites[i] = [ai, bi] ,表# 示如果要学习课程 a
阅读全文
摘要:python中的collections.defaultdict()函数 一种特殊类型的字典本身就保存了默认值defaultdict(),defaultdict类的初始化函数接受一个类型作为参数,当所访问的键不存在的时候,可以实例化一个值作为默认值。 简单使用:
阅读全文
摘要:问题: # 给你单链表的头节点 head ,请你反转链表,# 并返回反转后的链表。 方法: 1)双指针迭代法 def reverseList(self, head: ListNode) -> ListNode: # 双指针法,申请两个指针 prev = None curr = head while
阅读全文
摘要:问题: # 给定一个大小为 n 的数组,找到其中的多数元素。# 多数元素是指在数组中出现次数 大于 ⌊ n/2 ⌋ 的元素。 # # 你可以假设数组是非空的,并且给定的数组总是存在多数元素。 # 方法:哈希、排序 class Solution: def majorityElement(self, n
阅读全文
摘要:用max自带函数 def find_max(): # 统计一段文本中出现最多的字母 # 函数会把第一个参数的每个值依次放入key提供的比较大小的方法里 import string text = "dengyexun" return max(string.ascii_lowercase, key=te
阅读全文
摘要:问题: # 给你两个单链表的头节点 headA 和 headB ,请你找出并返回两个单链表相交的起始节点。如果两个链表没有交点,返回 null 。 方法:双指针法分别遍历两个链表,第一次相遇即为相交点 参考代码: class Solution: def getIntersectionNode(sel
阅读全文
摘要:fastText是Facebook于2016年开源的一个词向量计算和文本分类工具,在文本分类任务中,fastText(浅层网络)往往能取得和深度网络相媲美的精度,却在训练时间上比深度网络快许多数量级。在标准的多核CPU上, 能够训练10亿词级别语料库的词向量在10分钟之内,能够分类有着30万多类别的
阅读全文
摘要:背景介绍 阿里巴巴的生态系统下面有很多的计算平台,上面有各种各样的业务层,最中间是买家和卖家之间包括销售、支付等等之间的关系,外面建了一圈从娱乐到广告到金融到购物到物流等等各方面这样一个生态,中间有非常多的数据能够关联起来,所以对于阿里巴巴而言,这个图可以非常简练的概括我们在做什么,中间是最重要的数
阅读全文
摘要:问题: # 给你二叉树的根结点 root ,请你将它展开为一个单链表: # # # 展开后的单链表应该同样使用 TreeNode ,其中 right 子指针指向链表中下一个结点,而左子指针始终为 null 。 # 展开后的单链表应该与二叉树 先序遍历 顺序相同。 # # # # # 示例 1: #
阅读全文
摘要:思路: 1、由二叉树的前(先)序序列和中序序列建立该二叉树 分析:若二叉树的任意两个结点的值都不相同,则二叉树的前序序列和中序序列能唯一确定一棵二叉树。另外,由前序序列和中序序列的定义可知,前序序列中第一个结点必为根结点,而在中序序列中,根结点刚好是左、右子树的分界点,因此,可按如下方法建立二叉树:
阅读全文
摘要:问题: # 给你一个二叉树,请你返回其按 层序遍历 得到的节点值。 (即逐层地,从左到右访问所有节点)。 方法:广度优先遍历 # leetcode submit region begin(Prohibit modification and deletion) # Definition for a b
阅读全文
摘要:问题: # 给定一个二叉树,检查它是否是镜像对称的。 # # # # 例如,二叉树 [1,2,2,3,4,4,3] 是对称的。 方法:递归 # leetcode submit region begin(Prohibit modification and deletion) # Definition
阅读全文
摘要:拿数据标注业务来说,学者们通过一些技术手段或者数学方法来降低人们标注的成本,学者们把这个方向称之为主动学习(Active Learning)。在整个机器学习建模的过程中有人工参与的部分和环节,并且通过机器学习方法筛选出合适的候选集给人工标注的过程。主动学习(Active Learning)的大致思路
阅读全文
摘要:[ ]+的意思是大于0取原值,小于0则取0。这叫做合页损失函数,训练方法叫做margin-based ranking criterion。此loss函数来自SVM,目的是将正和负尽可能分开。一般margin=1。 其中d是L1或L2的距离,表示h+r向量与t向量之间的距离。 资料:https://w
阅读全文
摘要:torch.nn.Module.apply(fn) # 递归的调用weights_init函数,遍历nn.Module的submodule作为参数 # 常用来对模型的参数进行初始化 # fn是对参数进行初始化的函数的句柄,fn以nn.Module或者自己定义的nn.Module的子类作为参数 # f
阅读全文