摘要:
7、在多分类实验的基础上使用至少三种不同的激活函数 Relu 激活函数函数 优点: 1. 使用ReLU的SGD算法的收敛速度比 sigmoid 和 tanh 快。 2. 在x>0区域上,不会出现梯度饱和、梯度消失的问题。 3. 计算复杂度低,不需要进行指数运算,只要一个阈值就可以得到激活值。 缺点: 阅读全文
摘要:
6、利用torch.nn实现前馈神经网络解决多分类问题 #导入必要的包 import torch import numpy as np from torch import nn from torchvision.datasets import MNIST import torchvision.tra 阅读全文
摘要:
5、利用torch.nn实现前馈神经网络解决二分类问题 #导入必要的包 import torch import torch.nn as nn from torch.utils.data import TensorDataset,DataLoader from torch.nn import init 阅读全文
摘要:
4、利用torch.nn实现前馈神经网络解决回归问题 #导入必要的包 import torch from torch import nn import numpy as np import matplotlib.pyplot as plt from torch.utils.data import D 阅读全文
摘要:
3、手动实现前馈神经网络解决多分类问题 #导入必要的包 import torch import numpy as np import random from IPython import display import matplotlib.pyplot as plt from torch.utils 阅读全文
摘要:
2、手动实现前馈神经网络解决二分类问题 #导入必要的包 import numpy as np import torch from torch import nn from sklearn.model_selection import train_test_split import matplotli 阅读全文
摘要:
1、手动实现前馈神经网络解决回归问题 #导入必要的包 import torch import numpy as np import random from IPython import display from matplotlib import pyplot as plt import torch 阅读全文