摘要: 需求 占内存太大:但是没有想明白哪里占?参数? 那就计算一下参数:每个特征哈希出多少个结果 常见方法 Pruning(修剪): 因为神经网络很多权重几乎为0,这类参数作用不大,部分参数删掉也不影响模型预测效果 Weight Factorization(权重分解):权重矩阵可以进行低秩矩阵分解,即lo 阅读全文
posted @ 2021-04-09 10:13 nuo-o 阅读(35) 评论(0) 推荐(0) 编辑
摘要: 百度 https://blog.csdn.net/u012991043/article/details/81707057 https://leetcode-cn.com/problems/sort-of-stacks-lcci/ https://www.nowcoder.com/questionTe 阅读全文
posted @ 2021-04-07 21:27 nuo-o 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 危害 从样本量悬殊的角度 考虑 loss_function 通常都是正负例 loss 的求和,那么一旦一方样本数居多,loss就偏向于一方的loss,说明就在学习负例。造成最终结果不正确。 从易分类的角度 一定有些样本是特别易分类的,一旦这些样本量多起来,就对 loss 贡献不容小觑了。造成最终模型 阅读全文
posted @ 2021-04-07 15:59 nuo-o 阅读(71) 评论(0) 推荐(0) 编辑
摘要: 定义问题 1. 数据偏差 在有点击的数据上训练 stay 模型,在全局估计。(然而我们系统里面,是用了非点击的数据的 = = 跟论文里面不一样啊!!!我要不要剔除这部分数据呢) 2. 数据稀疏 正例样本少。 常见多目标优化形式 1. 针对每一个目标单独建模,线上加权。难以维护。 2. 针对样本进行加 阅读全文
posted @ 2021-03-19 19:33 nuo-o 阅读(751) 评论(0) 推荐(0) 编辑
摘要: 不知道别人的二十五岁是怎样的,我是焦虑+迷茫,焦虑自己成长的还不够快,迷茫自己会不会在内卷的社会里逐渐泡沫。最大的困惑就是不知道自己要什么。 《被讨厌的勇气》是在最近看到的最鸡汤却最能鼓舞我的书。摘录一些,以备以后迷茫再来时的无力感。 无法达成理想的自己就会产生一种自卑感。例如,越是有远大志向的初始 阅读全文
posted @ 2021-03-09 09:34 nuo-o 阅读(78) 评论(0) 推荐(0) 编辑
摘要: 发现我司online learning 模式好像真的蛮牛逼的,许多公司都是 daily 全量更新或者增量更新。 1. 推荐系统模型上线3部曲 offline 用7天数据,训练 base, exp 两个模型。用第八天的近接着的一个小时数据来测试,比较 user_auc。如果有提升,用一个月的数据训练一 阅读全文
posted @ 2021-02-28 20:39 nuo-o 阅读(435) 评论(0) 推荐(0) 编辑
摘要: 什么是过拟合 就是模型过于复杂 在训练集合上过度拟合 随着模型越来越复杂,在 test set 上面的 error 会呈现先下降后上升的趋势。 造成在 training set 上的表现比 test set 上面好。 解决思路 简化模型 减少特征 减小参数 正则化 dropout 减小参数的意义: 阅读全文
posted @ 2021-02-23 07:19 nuo-o 阅读(323) 评论(0) 推荐(1) 编辑