上一页 1 2 3 4 5 6 7 8 9 10 ··· 54 下一页
摘要: 今天是2022年7月12日,差不多小半个月没看论文了,因为模型一直运行不起来+系统搭建的一塌糊涂,今天干脆摆烂,本咸鱼要去看新的论文了(逃避旧工作,bushi)。 对了,我们放暑假了,可是我没放暑假... 论文:Graph-Augmented Normalizing Flows for Anomal 阅读全文
posted @ 2022-07-19 15:25 ZERO- 阅读(2140) 评论(0) 推荐(0) 编辑
摘要: 2022/6/18 11:32,简单记录一下随笔(因为不写点东西,根本注意力不集中,看5分钟可能要摸鱼10分钟,还是要写点,突然发现,草稿箱里最早的一篇没写完的博客是去年的7月2日,救命啊,我拖了一年了,还没写完)。 论文:CoST: Contrastive Learning of Disentan 阅读全文
posted @ 2022-06-30 22:04 ZERO- 阅读(2168) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2022-05-03 16:07 ZERO- 阅读(0) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2022-05-03 16:05 ZERO- 阅读(0) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2022-03-28 16:36 ZERO- 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 具体的看链接,感觉都是感性的分析,因为没有严格的界定。 粗糙理解: 输出的是类别,比如明天天气是晴天还是阴天,是分类。 预测一个数值,比如明天气温是多少度,这是回归。 传送门1:【机器学习小常识】“分类” 与 “回归”的概念及区别详解 传送门2:分类与回归区别是什么? 传送门3:1.4 数据分类问题 阅读全文
posted @ 2021-11-15 15:58 ZERO- 阅读(278) 评论(0) 推荐(0) 编辑
摘要: Encoder-Decoder、Seq2Seq、Attention 传送门1:Encoder-Decoder 和 Seq2Seq 因为注意力不集中,所以这篇随笔就是看别人的文章,随手参考写写的。 1.Encoder-Decoder Encoder-Decoder模型并不特指某种具体算法,而是一种通用 阅读全文
posted @ 2021-10-09 16:29 ZERO- 阅读(342) 评论(0) 推荐(0) 编辑
摘要: 首先是整体认知,Attention的位置: 传送门1:Attention 机制 传送门2:Attention用于NLP的一些小结 一句话概括:Attention就是从关注全局到关注重点。 借鉴了人类视觉的选择性注意力机制,核心目标也是从众多信息中选择出更关键的信息。 Attention的思路就是:带 阅读全文
posted @ 2021-09-26 15:32 ZERO- 阅读(443) 评论(0) 推荐(0) 编辑
摘要: 参考1:CNN、RNN、DNN区别 参考2:一文读懂 CNN、DNN、RNN 内部网络结构区别 一张图解释所有: 感知机(输入层、输出层、一个隐藏层)-->不能解决复杂的函数-->神经网络NN出现(多层感知机出现,使用sigmoid或tanh、反向传播BP算法)-->层数加深,出现局部最优和梯度消失 阅读全文
posted @ 2021-09-13 10:54 ZERO- 阅读(4926) 评论(0) 推荐(0) 编辑
摘要: 把以前看的乱七八糟的先整理一下,从最简单的开始。 人工智能、机器学习与深度学习的关系, 一张图解释所有: Over. //过于糊弄,再写点东西 人工智能诞生于20世纪50年代。 人工智能的简洁定义:努力将通常由人类完成的智力任务自动化。 人工智能是一个综合性的领域,不仅包括机器学习与深度学习,还包括 阅读全文
posted @ 2021-09-12 15:40 ZERO- 阅读(417) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 54 下一页