上一页 1 2 3 4 5 6 7 8 ··· 27 下一页
摘要: 遇到个离谱的事情,自定义数据集跑cross entropy loss的时候, loss1 = w_loss.loss(log_ps1, source_batch_labels) loss1.backward() backward()这里总是报错,搞了半天最后发现是数据集设定的时候,给labels是i 阅读全文
posted @ 2022-06-27 01:36 TR_Goldfish 阅读(508) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/weixin_45842280/article/details/124399571 (1)缩小图像(或称为下采样(subsampled)或降采样(downsampled))的主要目的有两个: 1、使得图像符合显示区域的大小; 2、生成对应图像的缩略图。 ( 阅读全文
posted @ 2022-06-24 10:16 TR_Goldfish 阅读(42) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/qq_40520596/article/details/106015404 阅读全文
posted @ 2022-06-24 08:36 TR_Goldfish 阅读(55) 评论(0) 推荐(0) 编辑
摘要: 如何理解深度学习源码里经常出现的logits? - 咸鱼天的回答 - 知乎 https://www.zhihu.com/question/60751553/answer/549169261 深度学习源码中经常出现的logits其实和统计中定义的logit=log(p/1-p)没什么太大关系,就是定义 阅读全文
posted @ 2022-06-24 01:38 TR_Goldfish 阅读(44) 评论(0) 推荐(0) 编辑
摘要: backbone、head、neck等深度学习中的术语解释 - liuwei的文章 - 知乎 https://zhuanlan.zhihu.com/p/348800083 阅读全文
posted @ 2022-06-23 08:51 TR_Goldfish 阅读(267) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/102231853 个人理解的话可以从两个角度: 就是语义分割的话只需要分出不同类就行,同类的不同个体不需要分,但是Instance Segmentation这里在语义分割的基础上又把不同的类进行了分割 目标检测后,需要对检测的部分做进一步的 阅读全文
posted @ 2022-06-18 01:32 TR_Goldfish 阅读(3779) 评论(0) 推荐(0) 编辑
摘要: “熵是描述系统混乱的量,熵越大说明系统越混乱,携带的信息就越少,熵越小说明系统越有序,携带的信息越多。” 阅读全文
posted @ 2022-06-17 19:01 TR_Goldfish 阅读(70) 评论(0) 推荐(0) 编辑
摘要: https://www.runoob.com/python/python-func-enumerate.html 阅读全文
posted @ 2022-06-14 23:48 TR_Goldfish 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 来源:https://blog.csdn.net/LZL2020LZL/article/details/124247783 什么是消融实验: 当作者提出了一种新的方案时,这个方案同时改变了多个条件/参数,那么在消融实验中,作者会一一控制一个条件/参数不变,来看看结果,到底是哪个条件/参数对结果的影响 阅读全文
posted @ 2022-06-10 15:52 TR_Goldfish 阅读(732) 评论(0) 推荐(0) 编辑
摘要: 参考: https://zhuanlan.zhihu.com/p/427209024 FixMatch:https://zhuanlan.zhihu.com/p/340474319 其实就是对图片做操作 +++ 在训练方面,我们主要考虑两种类型的数据增广: geometric augmentatio 阅读全文
posted @ 2022-06-10 15:43 TR_Goldfish 阅读(171) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 ··· 27 下一页