12 2023 档案
摘要:很多帖子都说了,设置requires_grad_()就行。 但是我这次遇到的不一样,设置了都不行。 我是这种情况,在前面设置了torch.no_grad():,又在这个的作用域下进行了requires_grad_(),这是不起作用的。 简单版: with torch.no_grad(): model
阅读全文
摘要:Leaderboard: https://www.kaggle.com/competitions/open-problems-single-cell-perturbations/leaderboard 2nd Solution: https://www.kaggle.com/competitions
阅读全文
摘要:有一种可能的情景: A/B/C路径中B不存在,那么就存不下东西,而且cv2也不报exception。
阅读全文
摘要:现在attention的热度已经过去了,基本上所有的attention都是transformer的kqv形式的,甚至只要说道attention,默认就是transformer的attention。 为避免遗忘历史,我这里做一个小总结。繁杂的att我就不去了解了,只了解下经典的。 以下以
阅读全文
摘要:场景 写了gitignore,但是漏写了不少东西,结果很多不想加进去的东西也被git add了,此时还没有commit,想把刚刚add的东西去掉,不要让他commit进去 使用 使用 git rm。 一种是 git rm --cached "文件路径",不删除物理文件,仅将该文件从缓存中删除; 一种
阅读全文
摘要:可以调用模型的父类Module中的type方法,例如model.type(torch.float64),将网络模型model的参数和缓冲区强制转换为torch.float64类型,这样就可以训练torch.float64类型的数据了,还可以指定其他类型。另外还有一些强制转换为某一种类型的方法:flo
阅读全文