摘要: Cplex求解教程(基于OPL语言,可作为大规模运算输入参考) 针对大规模线性优化问题的Cplex求解思路,使用Cplex中的OPL语言实现 阅读全文
posted @ 2023-09-21 00:32 码头牛牛 阅读(1077) 评论(0) 推荐(0) 编辑
摘要: 深度学习(十四)——优化器 反向传播可以求出神经网路中每个需要调节参数的梯度,优化器可以根据梯度进行调整,达到降低整体误差的作用。本节我们对优化器进行介绍。 阅读全文
posted @ 2023-09-15 10:41 码头牛牛 阅读(503) 评论(0) 推荐(0) 编辑
摘要: 深度学习(十三)——损失函数与反向传播 介绍MAE、MSE、交叉熵三种损失函数计算及使用方法,以及反向传播的作用。 阅读全文
posted @ 2023-08-24 21:13 码头牛牛 阅读(652) 评论(0) 推荐(1) 编辑
摘要: 深度学习(十二)——神经网络:搭建小实战和Sequential的使用 “搭个网络真不难,像呼吸一样简单。”周华健学长如是地说(狗头) 阅读全文
posted @ 2023-08-23 19:14 码头牛牛 阅读(605) 评论(0) 推荐(1) 编辑
摘要: 深度学习(十一)——神经网络:线形层及其他层介绍 主要介绍神经网络线性层的计算,即torch.nn.Linear的原理及应用。并插入一些神经网络的其他层介绍,及调用pytorch中网络模型的方法。 阅读全文
posted @ 2023-08-22 18:05 码头牛牛 阅读(1218) 评论(0) 推荐(0) 编辑
摘要: 深度学习(十)——神经网络:非线性激活 主要介绍了ReLU和Sigmiod两种非线性激活函数,以及在神经网络中进行非线性转换的目的。 阅读全文
posted @ 2023-08-05 18:17 码头牛牛 阅读(376) 评论(0) 推荐(1) 编辑
摘要: 深度学习(九)——神经网络:最大池化的作用 主要介绍神经网络中的最大池化操作,以及最大池化的作用 阅读全文
posted @ 2023-07-21 18:58 码头牛牛 阅读(624) 评论(0) 推荐(1) 编辑
摘要: 深度学习(八)——神经网络:卷积层 主要介绍神经网络中的卷积层操作,包括构建卷积层、处理图像、可视化 阅读全文
posted @ 2023-07-20 00:20 码头牛牛 阅读(188) 评论(1) 推荐(0) 编辑
摘要: 深度学习(七)——神经网络的卷积操作 关于torch.nn.functional操作的深入理解,主要介绍卷积计算过程。 阅读全文
posted @ 2023-07-19 21:12 码头牛牛 阅读(393) 评论(0) 推荐(0) 编辑
摘要: 深度学习(六)——神经网络的基本骨架:nn.Module的使用 终于卷到神经网络了 ...(˘̩̩̩ε˘̩ƪ) 阅读全文
posted @ 2023-07-14 22:50 码头牛牛 阅读(176) 评论(0) 推荐(1) 编辑