摘要: 此处的神经网络层都利用了计算图的正向传播和反向传播的概念,关于详细内容参考[1][2],此处只列出Python的代码实现 ReLU层 class Relu: def __init__(self): self.mask = None def forward(self, x): self.mask = 阅读全文
posted @ 2021-03-29 08:43 剑伟 阅读(121) 评论(0) 推荐(0) 编辑