摘要:
生成式与判别式区别二者的区别主要就是由于一个是***联合概率分布P(x,y)***,另一个估计***条件概率分布P(y|x)***,而生成式模型能够根据贝叶斯公式得到判别式模型也是根据公式而来。联合概率分布,则是特征值对应某标签的概率,现在要判断一个特征值对应的标签,根据联合概率,只能算出其对应各标 阅读全文
摘要:
在一个英译中的场景中,source是英文,target是中文。 注意力只是实现了一个与一个对齐。例如source为Tom chases Jerry,Taget为汤姆追杰瑞。注意力是把Tom和汤姆对应,chases和追逐对应,Jerry和杰瑞对应。 而自注意力可以发现source和source,tar 阅读全文
摘要:
关于卷积神经网络的尺寸设计,有一些经验可以参考:(1)输入层:一般而言,输入层的大小应该能够被2整除很多次,常用的数字包括32,64,96和124。(2)卷积层:卷积层应该尽可能使用小尺寸的滤波器,比如3×3或者5×5,如果要使用更大的滤波器尺寸(如7×7),通常会用在第一个面对原始图像的卷积层上。 阅读全文
摘要:
转载自:(18条消息) 【深度学习实战】从零开始深度学习(二):多层全连接神经网络与MNIST手写数字分类_喵木木的博客-CSDN博客_从零开始全连接神经 view()函数的功能与reshape类似,用来转换size大小。view()函数作用是将一个多行的Tensor,拼接成一行。 import t 阅读全文
摘要:
原文链接:https://blog.csdn.net/Jenny_oxaza/article/details/105628663 import torchvision.models as models resnet18 = models.resnet18() alexnet = models.ale 阅读全文
摘要:
转载自:(18条消息) pytorch中transform常用的几个方法_木瓜子的博客-CSDN博客_pytorch transform 一、 裁剪——Crop 1.随机裁剪:transforms.RandomCrop 2.中心裁剪:transforms.CenterCrop 3.随机长宽比裁剪 t 阅读全文
摘要:
转载自:step(iter)、epoch、batch size之间的关系 - 西西嘛呦 - 博客园 (cnblogs.com) 阅读全文