上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 23 下一页
摘要: 给定N个人的出生年份和死亡年份,第i个人的出生年份为birth[i],死亡年份为death[i],实现一个方法以计算生存人数最多的年份。 你可以假设所有人都出生于1900年至2000年(含1900和2000)之间。如果一个人在某一年的任意时期都处于生存状态,那么他们应该被纳入那一年的统计中。例如,生 阅读全文
posted @ 2020-05-14 10:03 USTC丶ZCC 阅读(1293) 评论(0) 推荐(0) 编辑
摘要: 我有两个列表:一个包含一组x点,另一个包含y点。我需要按照从最低到最高的顺序对x点的列表进行排序,并且移动y点以跟随它们的x个对应点。 x = [3,2,1] y = [1,2,3] points = zip(x,y) points [(3, 1), (2, 2), (1, 3)] sorted(p 阅读全文
posted @ 2020-05-14 09:23 USTC丶ZCC 阅读(867) 评论(0) 推荐(0) 编辑
摘要: 1.数据竞赛流程 数据分析主要目的是分析数据原有的分布和内容; 特征工程目的是从数据中抽取出有效的特征; 模型训练与验证部分包括数据划分的方法以及数据训练的方法; 模型融合参考我的另一篇介绍模型融合的博客。 1.1.数据分析 在拿到数据之后,首先要做的就是要数据分析(Exploratory Data 阅读全文
posted @ 2020-05-13 22:56 USTC丶ZCC 阅读(420) 评论(0) 推荐(0) 编辑
摘要: 写在前面:相关模型的具体介绍请阅读我的另一篇博客机器学习算法岗面试与提问总结 1.请你介绍一下逻辑回归模型LR LR(Logistic Regression)虽然是回归模型,但却是经典的分类方法。 对比一下SVM,在二分类问题中,如果你问SVM,它只会回答你该样本是正类还是负类;而你如果问LR,它则 阅读全文
posted @ 2020-05-13 22:11 USTC丶ZCC 阅读(456) 评论(0) 推荐(0) 编辑
摘要: 给你一个长度为 n 的整数数组 nums,其中 n > 1,返回输出数组 output ,其中 output[i] 等于 nums 中除 nums[i] 之外其余各元素的乘积。 示例: 输入: [1,2,3,4]输出: [24,12,8,6] 提示:题目数据保证数组之中任意元素的全部前缀元素和后缀( 阅读全文
posted @ 2020-05-13 21:09 USTC丶ZCC 阅读(169) 评论(0) 推荐(0) 编辑
摘要: d={"ok":1,"no":2} #对字典按键排序,用元组列表的形式返回 d1 = sorted(d.items(), key=lambda d:d[0],reverse = False) #[('no', 2), ('ok', 1)] #对字典按值排序,用元组列表的形式返回 d2 = sorte 阅读全文
posted @ 2020-05-13 18:58 USTC丶ZCC 阅读(862) 评论(0) 推荐(0) 编辑
摘要: Counter中文意思是计数器,也就是我们常用于统计的一种数据类型,在使用Counter之后可以让我们的代码更加简单易读。 我们先看一个简单的例子: #统计词频 colors = ['red', 'blue', 'red', 'green', 'blue', 'blue'] result = {} 阅读全文
posted @ 2020-05-13 18:50 USTC丶ZCC 阅读(1016) 评论(0) 推荐(1) 编辑
摘要: 题目描述:给定一个整数数组 a,其中1 ≤ a[i] ≤ n (n为数组长度), 其中有些元素出现两次而其他元素出现一次。找到所有出现两次的元素。你可以不用到任何额外空间并在O(n)时间复杂度内解决这个问题吗? 示例: 输入:[4,3,2,7,8,2,3,1] 输出:[2,3] 思路1:这个题目开头 阅读全文
posted @ 2020-05-13 10:51 USTC丶ZCC 阅读(128) 评论(0) 推荐(0) 编辑
摘要: n 名士兵站成一排。每个士兵都有一个 独一无二 的评分 rating 。 每 3 个士兵可以组成一个作战单位,分组规则如下: 从队伍中选出下标分别为 i、j、k 的 3 名士兵,他们的评分分别为 rating[i]、rating[j]、rating[k] 作战单位需满足: rating[i] < r 阅读全文
posted @ 2020-05-12 16:00 USTC丶ZCC 阅读(209) 评论(0) 推荐(0) 编辑
摘要: 论文地址:https://arxiv.org/abs/1706.03762 正如论文的题目所说的,Transformer中抛弃了传统的CNN和RNN,整个网络结构完全是由Attention机制组成。更准确地讲,Transformer由且仅由self-Attenion和Feed Forward Neu 阅读全文
posted @ 2020-05-12 11:31 USTC丶ZCC 阅读(2577) 评论(0) 推荐(0) 编辑
上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 23 下一页