05 2022 档案
摘要:https://blog.csdn.net/weixin_35474374/article/details/112334484 没怎么看懂,先记录一下
阅读全文
摘要:https://mp.weixin.qq.com/s/ygj3psYzQSCmf848KhFE4w Estimator读书笔记
阅读全文
摘要:https://mp.weixin.qq.com/s/MHm7AxmcuEgFR_oNbNqFkQ 参考这篇文章 BERT预训练方法 BERT 模型使用两个预训练目标来完成文本内容特征的学习。 掩藏语言模型(Masked Language Model,MLM)通过将单词掩盖,从而学习其上下文内容特征
阅读全文
摘要:转载: 前几日在 macOS 里往 NTFS 格式的移动硬盘(其实是老电脑里拆机下来的硬盘套了个壳)拷了几个视频。今天想要打开时却发现打不开了,而且在 Finder 里文件被选中时呈灰色,如图: 无论是在 Finder 中打开还是在视频播放器里,都是提示「项目 xxx 已被 macOS 使用,不能打
阅读全文
摘要:参考这篇文章: https://blog.csdn.net/qq_44886213/article/details/123721940 https://www.bilibili.com/video/BV1n7411T7o6?spm_id_from=333.999.0.0
阅读全文
摘要:https://easyai.tech/blog/gnn-deepwalk-graphsage/ 参考这篇文章 给定一个部分标记的 graph G,目标是利用这些标记的节点来预测未标记的节点的标签。它学习用包含邻域信息的 d 维向量 h_v 表示每个节点。即: 其中 x_co[v] 表示与 v 相连
阅读全文
摘要:https://github.com/CastellanZhang/alphaFM AlphaFM源码 再找DeepWalk的文章看一下 https://zhuanlan.zhihu.com/p/458843906 冷启动 https://zhuanlan.zhihu.com/p/48057256
阅读全文
摘要:2021年NLP书籍 https://mp.weixin.qq.com/s?__biz=MzAxMTk4NDkwNw==&mid=2247485513&idx=1&sn=395321ff60106db9be0eea63c5a50043&chksm=9bb9812dacce083b0450a568a3
阅读全文
摘要:参考这篇文章: https://blog.csdn.net/cxkyxx/article/details/108455805 我的理解:focal loss不是解决样本不平衡的问题,是解决hard/easy样本的问题。 平衡交叉熵 focal loss 样本平衡focal loss
阅读全文
摘要:https://zhuanlan.zhihu.com/p/166469248 双塔模型是应用非常普遍的深度学习召回模型,但是其本身也存在一些问题,比如使用softmax函数计算后验概率会带来采样偏差,popular item在负采样时出现的频率也会比较高等。 而Google2019年提出的双塔模型则
阅读全文
摘要:DSSM中的负样本为什么是随机采样得到的,而不用“曝光未点击”当负样本? 召回是将用户可能喜欢的item,和用户根本不感兴趣的海量item分离开来,他面临的数据环境相对于排序来说是鱼龙混杂的。 所以我们希望召回训练数据的正样本是user和item匹配度最高的那些样本,也即用户点击样本,负样本是use
阅读全文
摘要:这篇文章 https://zhuanlan.zhihu.com/p/250146007 其实随机算法分为两类:蒙特卡罗方法和拉斯维加斯方法,蒙特卡罗方法指的是算法的时间复杂度固定,然而结果有一定几率失败,采样越多结果越好。拉斯维加斯方法指的是算法一定成功,然而运行时间是概率的。 不可约:每个状态都能
阅读全文
摘要:继续看这些文章: 《你一定从未看过如此通俗易懂的马尔科夫链蒙特卡罗方法(MCMC)解读》上下 https://zhuanlan.zhihu.com/p/250146007 https://zhuanlan.zhihu.com/p/253784711 《如何快速理解马尔科夫链蒙特卡洛法?》 https
阅读全文