12 2023 档案

摘要:很多帖子都说了,设置requires_grad_()就行。 但是我这次遇到的不一样,设置了都不行。 我是这种情况,在前面设置了torch.no_grad():,又在这个的作用域下进行了requires_grad_(),这是不起作用的。 简单版: with torch.no_grad(): model 阅读全文
posted @ 2023-12-26 11:10 ZephyrYin 阅读(57) 评论(0) 推荐(0) 编辑
摘要:Leaderboard: https://www.kaggle.com/competitions/open-problems-single-cell-perturbations/leaderboard 2nd Solution: https://www.kaggle.com/competitions 阅读全文
posted @ 2023-12-22 23:41 ZephyrYin 阅读(11) 评论(0) 推荐(0) 编辑
摘要:有一种可能的情景: A/B/C路径中B不存在,那么就存不下东西,而且cv2也不报exception。 阅读全文
posted @ 2023-12-12 14:56 ZephyrYin 阅读(762) 评论(0) 推荐(0) 编辑
摘要:现在attention的热度已经过去了,基本上所有的attention都是transformer的kqv形式的,甚至只要说道attention,默认就是transformer的attention。 为避免遗忘历史,我这里做一个小总结。繁杂的att我就不去了解了,只了解下经典的。 以下以hi 阅读全文
posted @ 2023-12-11 14:45 ZephyrYin 阅读(19) 评论(0) 推荐(0) 编辑
摘要:场景 写了gitignore,但是漏写了不少东西,结果很多不想加进去的东西也被git add了,此时还没有commit,想把刚刚add的东西去掉,不要让他commit进去 使用 使用 git rm。 一种是 git rm --cached "文件路径",不删除物理文件,仅将该文件从缓存中删除; 一种 阅读全文
posted @ 2023-12-07 11:30 ZephyrYin 阅读(43) 评论(0) 推荐(0) 编辑
摘要:可以调用模型的父类Module中的type方法,例如model.type(torch.float64),将网络模型model的参数和缓冲区强制转换为torch.float64类型,这样就可以训练torch.float64类型的数据了,还可以指定其他类型。另外还有一些强制转换为某一种类型的方法:flo 阅读全文
posted @ 2023-12-06 15:50 ZephyrYin 阅读(161) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示