【PyTorch基础】PReLU
api:
CLASS torch.nn.
PReLU
(num_parameters=1, init=0.25, device=None, dtype=None)
注意参数和ReLU不一样的;
原理:
PReLU(x)=max(0,x)+a∗min(0,x)
其中,a是一个学习参数,默认a是对所有通道的,如果参数有通道数,则不同的a是对应不同通道的;
参考
1. PReLU_pytorch;
2.
完
各美其美,美美与共,不和他人作比较,不对他人有期待,不批判他人,不钻牛角尖。
心正意诚,做自己该做的事情,做自己喜欢做的事情,安静做一枚有思想的技术媛。
版权声明,转载请注明出处:https://www.cnblogs.com/happyamyhope/
心正意诚,做自己该做的事情,做自己喜欢做的事情,安静做一枚有思想的技术媛。
版权声明,转载请注明出处:https://www.cnblogs.com/happyamyhope/