摘要: weight形状为[out_features, in_features] 简单的说就是,在定义时使用的是[out_features, in_features],而在单层线性神经网络计算时使用的是weight的转置矩阵。 https://blog.csdn.net/dss_dssssd/article 阅读全文
posted @ 2022-01-25 17:56 Tomorrow1126 阅读(762) 评论(0) 推荐(0) 编辑
摘要: torch.matmul(input, other, out = None) 函数对 input 和 other 两个张量进行矩阵相乘。torch.matmul 函数根据传入参数的张量维度有很多重载函数。 阅读全文
posted @ 2022-01-25 17:54 Tomorrow1126 阅读(944) 评论(0) 推荐(0) 编辑
摘要: Dropout说的简单一点就是:我们在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强, 因为它不会太依赖某些局部的特征 阅读全文
posted @ 2022-01-25 16:15 Tomorrow1126 阅读(156) 评论(0) 推荐(0) 编辑