摘要:
1、The latest in Machine Learning | Papers With Code 2、https://www.catalyzex.com/ 3、https://www.connectedpapers.com/ 4、https://www.semanticscholar.org/ 阅读全文
摘要:
我们先来写一个简单的例子,帮助理解 season = ['spring','summer','fall','winter']print(season)输出结果: [‘spring’, ‘summer’, ‘fall’, ‘winter’] 下面,我们再引入for循环 for i ,data in e 阅读全文
摘要:
Epoch(时期): 当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一次>epoch。(也就是说,所有训练样本在神经网络中都 进行了一次正向传播 和一次反向传播 ) 再通俗一点,一个Epoch就是将所有训练样本训练一次的过程。 然而,当一个Epoch的样本(也就是所有的训练样本)数 阅读全文
摘要:
一篇 LATEX 文档, 由三个部分组成: 文档类声明, 导言区, 正文 ###中文 \documentclass{ctexart} #声明部分,常用的有:article(英文格式), book,report \newcommand{\wuda}{中国湖北省武汉大学} #导言区 \begin{doc 阅读全文
摘要:
我们在进行写代码的时候,有时候会发现有的m = nn.Conv2d(16, 33, 3, stride=2,bias=False) ,bias是False,而默认的是True。为啥呢?是因为一般为False的时候,nn.Conv2d()后面通常接nn.BatchNorm2d(output)。 是因为 阅读全文
摘要:
torch.squeeze(A,N) 如果不指定位置参数N,如果数组A的维度为(1,1,3)那么执行 torch.squeeze(A,1) 后A的维度变为 (1,3),中间的维度被删除 注: 1. 如果指定的维度大于1,那么将操作无效 2. 如果不指定维度N,那么将删除所有维度为1的维度 torch 阅读全文
摘要:
不拷贝: 如果只是简单的赋值,那么不会进行拷贝。不进行变量的拷贝。示例代码如下: a = np.arange(12) b = a #这种情况不会进行拷贝 print(b is a) #返回True,说明b和a是相同的 2、View或者浅拷贝:有些情况,会进行变量的拷贝,但是他们所指向的内存空间都是一 阅读全文
摘要:
1.什么是One_Hot? 对于这个问题,之前谷歌了一下,还涉及寄存器了(one-hot编码是N位状态寄存器为N个状态进行编码的方式)。。真的无语。这里不说那些很底层的,我们只需要了解one-hot编码是将类别变量转换为机器学习算法中容易处理的一种形式! 概念太抽象了,对太抽了,那么从实际例子来说明 阅读全文
摘要:
Dice系数和mIoU是语义分割的评价指标,在这里进行了简单知识介绍。讲到了Dice顺便在最后提一下Dice Loss,以后有时间区分一下在语义分割中两个常用的损失函数,交叉熵和Dice Loss。 一、Dice系数 1.概念理解 Dice系数是一种集合相似度度量函数,通常用于计算两个样本的相似度, 阅读全文
摘要:
一、易混概念 对于一些常见的距离先做一个简单的说明 1.欧式距离 假设X和Y都是一个n维的向量,即 则欧氏距离: 2.L2范数 假设X是n维的特征 L2范数: 3.闵可夫斯基距离 这里的p值是一个变量,当p=2的时候就得到了欧氏距离。 4.曼哈顿距离 来源于美国纽约市曼哈顿区,因为曼哈顿是方方正正的 阅读全文