上一页 1 ··· 60 61 62 63 64 65 66 67 68 ··· 73 下一页
摘要: 返回DataFrame每列的数值类型。 阅读全文
posted @ 2021-07-27 20:58 祥瑞哈哈哈 阅读(205) 评论(0) 推荐(0) 编辑
摘要: pandas.DataFrame.fillna 就是给Nan值填充数据的。把NAN值用0替换。 阅读全文
posted @ 2021-07-27 20:05 祥瑞哈哈哈 阅读(97) 评论(0) 推荐(0) 编辑
摘要: DataFrame.iloc选择DataFrame数据结构的行和列。 DataFrame.iloc[0:2,0:3]; 表示该数据结构0:2,0-2行; 表示该数据结构0:3,0-3列; 因此读取数据结构的0-2行已经0-3列。 通过该函数对数据进行切片。python3的切片方法不适用于datafr 阅读全文
posted @ 2021-07-27 19:32 祥瑞哈哈哈 阅读(415) 评论(0) 推荐(0) 编辑
摘要: 该函数返回一个表格型的数据结构,有行索引和列索引。 用printf可以将返回值内容全部输出。 除了最左边的列,其余的列均是从csv文档里读取。 阅读全文
posted @ 2021-07-27 19:17 祥瑞哈哈哈 阅读(2268) 评论(0) 推荐(0) 编辑
摘要: 首先打开Anaconda promt输入代码activate 环境名//确定要接收包的环境。 接下来输入conda install pandas 阅读全文
posted @ 2021-07-27 19:04 祥瑞哈哈哈 阅读(3015) 评论(0) 推荐(0) 编辑
摘要: axis equal;保证横纵坐标轴单位刻度比相同。 阅读全文
posted @ 2021-07-26 23:03 祥瑞哈哈哈 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 当神经网络层数较多时,模型的数值稳定性就容易变差。假设输出o=XW1W2W3W4W5W6W7。假设激活函数为恒等函数不考虑bias,对W1求导,就是W2W3W4W5W6W7,如果这5个权值较大导致梯度爆炸,否则梯度衰减。 阅读全文
posted @ 2021-07-26 20:33 祥瑞哈哈哈 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 正向传播按输入层到输出层的顺序依次计算,并将计算所得中间变量进行存储,这是导致神经网络需要较大内存的原因。 方向传播从输出层到输入层顺序依次计算,利用了链式法则。所求梯度与中间变量当前值有关,这就是为什么需要保持中间变量的原因。 阅读全文
posted @ 2021-07-26 20:26 祥瑞哈哈哈 阅读(227) 评论(0) 推荐(0) 编辑
摘要: torch.optim.SGD返回一个优化器类。 sgd=torch.optim.SGD(paramater,lr=0.5); lr表示学习率,paramater表示参数。 sgd.zero_grad()清除各点的梯度 sgd.step()进行一次优化 阅读全文
posted @ 2021-07-26 19:38 祥瑞哈哈哈 阅读(1282) 评论(0) 推荐(0) 编辑
摘要: torch.nn.init.normal_(tensor,mean=0,std=1) 可以给一个变量初始化。 mean是正态分布的均值,std是正态分布的标准差。 阅读全文
posted @ 2021-07-26 19:24 祥瑞哈哈哈 阅读(1034) 评论(0) 推荐(0) 编辑
上一页 1 ··· 60 61 62 63 64 65 66 67 68 ··· 73 下一页