上一页 1 ··· 60 61 62 63 64 65 66 67 68 ··· 107 下一页
摘要: 1.为什么要去噪?深度模型拟合如ZINB分布有什么作用? 为何假定服从ZINB分布,这个假定是有效的? 模型拟合出ZINB分布的参数,然后呢?数据与raw数据相比会有什么改变吗? 学习了这篇基于双线性回归的去噪模型: 说明了填充数据是对dropout的点进行填充的,那怎么就能确定这个0是dropou 阅读全文
posted @ 2020-01-03 21:44 lypbendlf 阅读(492) 评论(0) 推荐(0) 编辑
摘要: 1.在linux服务器上创建新用户时,出现了以下问题: 解决办法,通过加sudo啊创建新用户,并不是改文件的属性之类的。 但是在登陆时又说,等不上,因为 /usr/bin/xauth: file /home/user/.Xauthority does not exist 解决:https://www 阅读全文
posted @ 2020-01-01 16:09 lypbendlf 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 1.学习模糊神经推理系统 https://blog.csdn.net/leneey/article/details/80909047 基本对过程有了了解,但是要对它形成讲解还不行,所以先看论文吧。 2.学习模糊逻辑 https://blog.csdn.net/yuyanjingtao/article 阅读全文
posted @ 2019-12-16 20:29 lypbendlf 阅读(271) 评论(0) 推荐(0) 编辑
摘要: 1.了解了freebase。 2.开放领域的关系抽取。 3.哈里斯分布假设https://blog.csdn.net/david0611/article/details/80691043 上下文相近的词,它的语义也相近。 4.https://www.cnblogs.com/vpegasus/p/re 阅读全文
posted @ 2019-12-16 00:54 lypbendlf 阅读(106) 评论(0) 推荐(0) 编辑
摘要: 1.详解Transformer https://zhuanlan.zhihu.com/p/48508221(非常好的文章) 2.Bert学习 https://zhuanlan.zhihu.com/p/46652512 模型的主要创新点都在pre-train方法上,即用了Masked LM和Next 阅读全文
posted @ 2019-12-15 21:44 lypbendlf 阅读(1504) 评论(0) 推荐(0) 编辑
摘要: 转自:https://www.cnblogs.com/Luv-GEM/p/11598294.html (ok) 1.关系抽取从实现的算法来看,主要分为四种: 1、手写规则(Hand-Written Patterns); 2、监督学习算法(Supervised Machine Learning); 3 阅读全文
posted @ 2019-12-15 11:14 lypbendlf 阅读(753) 评论(0) 推荐(0) 编辑
摘要: 1.了解关系抽取任务。 一般:https://www.cnblogs.com/vpegasus/p/re.html https://shomy.top/2018/02/28/relation-extraction/ (待看) 全监督、远程监督、实体和关系的联合学习、基于树的方法。这个还是太全面复杂, 阅读全文
posted @ 2019-12-15 10:21 lypbendlf 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 2.DE工作。 如果是指定了两种细胞类型,那么就从两种cell类型中取样n_samples,当然是越多越好,经过VAE模型获取到了px_scales(经过校正)表达的百分比,之后用它计算贝贝叶斯因子,是通过判断两个矩阵的大小,并且求均值,log(res/1-res)。 如果是1 vs all,那么就 阅读全文
posted @ 2019-12-05 21:48 lypbendlf 阅读(179) 评论(0) 推荐(0) 编辑
摘要: 1.中午和下午一直在做高软开发的PPT,晕死。 2.这里由于sv用到了贝叶斯因子,并且有对感兴趣的基因得到: 图1 贝叶斯因子的计算公式: 从书中给出的例子可以看出,要接受原假设,就要贝叶斯因子>1的。 sv中取log也是为了防止贝叶斯因子过小而产生溢出吧。 那么就目前的理解,在图1中,THY1是拒 阅读全文
posted @ 2019-12-05 02:04 lypbendlf 阅读(148) 评论(0) 推荐(0) 编辑
摘要: 1.在看imputation的样例代码 测试损失是怎么得出来的呢?将X输入进模型,并且预测出了X',那么此时就可以根据loss函数来计算了,包括重建的概率损失,以及隐空间变量和库大小变量的KL散度。 那么imputation它是如何进行的呢?查看代码后我发现了,首先从数据集中加载已经扰乱过的数据: 阅读全文
posted @ 2019-12-03 19:59 lypbendlf 阅读(180) 评论(0) 推荐(0) 编辑
上一页 1 ··· 60 61 62 63 64 65 66 67 68 ··· 107 下一页