摘要: 讲解 对比学习论文中出现: # compute logits # Einstein sum is more intuitive # positive logits: Nx1 l_pos = torch.einsum('nc,nc->n', [q, k]).unsqueeze(-1) # negati 阅读全文
posted @ 2022-02-22 20:27 zae 阅读(658) 评论(0) 推荐(0) 编辑
摘要: 取参数: g=model.named_parameters() parm={} for name,parameters in model.named_parameters(): print(name,':',parameters.size()) parm[name]=parameters.detac 阅读全文
posted @ 2022-02-22 11:00 zae 阅读(499) 评论(0) 推荐(0) 编辑
摘要: parser.add_argument("--flag", action="store_true", help="Run or not.") 当你不输入 --flag 的时候,默认为 False;输入 --flag 的时候,才会触发 True 值。【符合常理】 当然用方式,反过来也可以指定 acti 阅读全文
posted @ 2022-02-22 09:31 zae 阅读(854) 评论(0) 推荐(0) 编辑
摘要: import uuid uuid_str = uuid.uuid4().hex tmp_file_name = 'tmpfile_%s.txt' % uuid_str print tmp_file_name 阅读全文
posted @ 2022-01-02 16:15 zae 阅读(310) 评论(0) 推荐(0) 编辑
摘要: 准确率(Accuracy)、精确率(Precision)和召回率(Recall)的区别 数量 对于一个二分类问题,我们定义如下指标: :True Positive,即正确预测出的正样本个数 :False Positive,即错误预测出的正样本个数(本来是负样本,被我们预测成了正样本) :True N 阅读全文
posted @ 2021-12-30 19:52 zae 阅读(4700) 评论(4) 推荐(0) 编辑
摘要: (Pdb) sample [['SOCCER', 'O'], ['-', 'O'], ['JAPAN', 'B-LOC'], ['GET', 'O'], ['LUCKY', 'O'], ['WIN', 'O'], ['CHINA', 'B-PER'], ['IN', 'O'], ['SURPRISE 阅读全文
posted @ 2021-12-13 10:07 zae 阅读(39) 评论(0) 推荐(0) 编辑
摘要: torch.masked_select用于截取valid的标签太好用了: pred=torch.tensor([2,3,4,5]) mask=torch.ByteTensor([1,1,0,0]) torch.masked_select(pred,mask) # deprecated, 用bool值 阅读全文
posted @ 2021-12-05 17:53 zae 阅读(801) 评论(0) 推荐(0) 编辑
摘要: 一、BMES 四位序列标注法 B表示一个词的词首位值,M表示一个词的中间位置,E表示一个词的末尾位置,S表示一个单独的字词。 我/S 是/S 广/B 东/M 人/E (符号标注,‘东’是‘广’和‘人’的中间部分,凑成‘广东人’这个实体) 我/ 是/ 广东人/ (标注上分出来的实体块) 二、BIO 三 阅读全文
posted @ 2021-12-04 14:24 zae 阅读(1277) 评论(0) 推荐(0) 编辑
摘要: 函数作用 torch.where()函数可以是按照给定的条件合并两个tensor; 条件满足的位置取前者,否则取后者。 代码示例 >>> import torch >>> a=torch.randn(3,5) >>> b=torch.ones(3,5) >>> a tensor([[-0.0310, 阅读全文
posted @ 2021-12-03 22:20 zae 阅读(1816) 评论(0) 推荐(0) 编辑
摘要: 每个通道上(单独计算,最后concat),一个batch内的所有样例的所有像素都参与平均。全连接中,是每个特征位置的所有scalar数值都参与求平均;卷积层中,是每个channel是一个特征,所有batchsz个样例里面的h*w个像素点矩阵作为全连接中的一个元素(一个feature上的scalar) 阅读全文
posted @ 2021-11-28 11:09 zae 阅读(132) 评论(0) 推荐(0) 编辑