上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 24 下一页
摘要: 链接: "LeetCode643" 给定$n$个整数,找出平均数最大且长度为$ k $的连续子数组,并输出该最大平均数。 示例 1: 输入: $[1,12, 5, 6,50,3]$, k = 4 输出: 12.75 解释: 最大平均数 (12 5 6+50)/4 = 51/4 = 12.75 相关标 阅读全文
posted @ 2020-01-18 22:10 Jamest 阅读(117) 评论(0) 推荐(0) 编辑
摘要: 在YouTube团队推荐系统Rank阶段,DNN输出层使用了weighted—LR,这既是这篇论文的一大创新点,也是一大难点。在这里,重新梳理下该算法的思路与推导,并进行推广。 理解 先说下常见的逻辑回归(LR)模型。LR模型假设数据服从伯努利分布,当某件事情发生,认为其概率为p,则当其不发生,概率 阅读全文
posted @ 2019-11-16 11:22 Jamest 阅读(6233) 评论(0) 推荐(2) 编辑
摘要: 链接: "LeetCode640" 求解一个给定的方程,将x以字符串"x= value"的形式返回。该方程仅包含'+',' '操作,变量 x 和其对应系数。 如果方程没有解,请返回“No solution”。 如果方程有无限解,则返回“Infinite solutions”。 如果方程中只有一个解, 阅读全文
posted @ 2019-11-10 10:29 Jamest 阅读(316) 评论(0) 推荐(0) 编辑
摘要: 链接: "LeetCode638" 在LeetCode商店中, 有许多在售的物品。 然而,也有一些大礼包,每个大礼包以优惠的价格捆绑销售一组物品。 现给定每个物品的价格,每个大礼包包含物品的清单,以及待购物品清单。请输出确切完成待购清单的最低花费。 每个大礼包的由一个数组中的一组数据描述,最后一个数 阅读全文
posted @ 2019-11-08 23:05 Jamest 阅读(196) 评论(0) 推荐(0) 编辑
摘要: 链接: "LeetCode636" 给一个非空二叉树,返回每层的平均值组成的数组。 相关标签: 树 解法:BFS迭代,层序遍历,计算每层的平均值记录到res数组,最后返回res数组。神奇的地方在于不能在累加的时候先除以count,而是先累加到一起再除,不然通不过case。 python: C++: 阅读全文
posted @ 2019-11-06 17:27 Jamest 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 链接: "LeetCode636" 给一个$n$个函数运行记录的log数组,表示非抢占式CPU调用函数的情况,即同时只能运行一个函数。格式为$id:start\ or\ end:time$,求每个函数占用cpu的总时间。 Input: n = $2$ logs = $["0:start:0","1: 阅读全文
posted @ 2019-11-06 17:26 Jamest 阅读(172) 评论(0) 推荐(0) 编辑
摘要: 两年时间,LeetCode刷了600+的同时,我也了解、训练了很多经典的数据结构与算法问题。在刷题的过程中,对数据结构与算法有了更深的了解,对Python语言做了更多的实践。我相信,刷题不只是为了找工作,更多也是在提升自己。在此,记录自己刷题的总结与感悟。 我相信刷题的过程中有三种境界: 1、模仿与 阅读全文
posted @ 2019-11-06 09:35 Jamest 阅读(170) 评论(0) 推荐(0) 编辑
摘要: wide&deep在个性化排序算法中是影响力比较大的工作了。wide部分是手动特征交叉(负责memorization),deep部分利用mlp来实现高阶特征交叉(负责generalization),wide部分和deep部分joint train。 Deep&Cross Network模型我们下面将 阅读全文
posted @ 2019-11-05 15:42 Jamest 阅读(3466) 评论(0) 推荐(0) 编辑
摘要: 本质上GBDT+LR是一种具有 stacking 思想的二分类器模型,所以可以用来解决二分类问题。这个方法出自于Facebook 2014年的论文 Practical Lessons from Predicting Clicks on Ads at Facebook 。 GBDT+LR 使用最广泛的 阅读全文
posted @ 2019-11-03 14:32 Jamest 阅读(3566) 评论(4) 推荐(0) 编辑
摘要: FM通过对于每一位特征的隐变量内积来提取特征组合,最后的结果也不错,虽然理论上FM可以对高阶特征组合进行建模,但实际上因为计算复杂度原因,一般都只用到了二阶特征组合。对于高阶特征组合来说,我们很自然想到多层神经网络DNN。 DeepFM目的是同时学习低阶和高阶的特征交叉,主要由FM和DNN两部分组成 阅读全文
posted @ 2019-11-03 12:56 Jamest 阅读(2473) 评论(1) 推荐(1) 编辑
上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 24 下一页