摘要: 3.11模型选择、欠拟合和过拟合 Dive Into Deep Learning 训练误差和泛化误差 训练误差(train-error): 模型在训练数据集上表现出的误差 泛化误差(generalization error): 模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的 阅读全文
posted @ 2021-02-12 16:00 strategist_614 阅读(299) 评论(0) 推荐(0) 编辑
摘要: 权重衰减 应对过拟合问题的常用方法:权重衰减(weight decay) 方法 权重衰减等价于$L_2$范数正则化(regularization) $L_2$范数正则化在模型原损失函数基础上添加$L_2$范数惩罚项,从而得到训练所需要最小化的函数.$L_2$范数惩罚项指的是模型权重参数每个元素的平方 阅读全文
posted @ 2021-02-12 15:56 strategist_614 阅读(397) 评论(0) 推荐(0) 编辑
摘要: 线性回归的从零开始实现 导入本节中实验所需的包或模块,其中的matplotlib包可用于作图,且设置成嵌入显示。 #导包 %matplotlib inline from IPython import display from matplotlib import pyplot as plt from 阅读全文
posted @ 2021-02-10 23:52 strategist_614 阅读(124) 评论(0) 推荐(0) 编辑
摘要: 面向对象编程 面向对象基础 面向对象编程,是一种通过对象的方式,把现实世界映射到计算机模型的一种编程方法。 抽象的是类(class) 具体的是实例(instance) class和instance class是一种对象模版,它定义了如何创建实例,因此,class本身就是一种数据类型 instance 阅读全文
posted @ 2021-02-10 01:21 strategist_614 阅读(73) 评论(0) 推荐(0) 编辑
摘要: 导jar包 第一步 第二步 阅读全文
posted @ 2021-02-03 22:19 strategist_614 阅读(45) 评论(0) 推荐(0) 编辑
摘要: P1535 P1535 记忆化搜索 \(dp[i][j][t]\) 表示从 \(i,j\) 开始走还剩下 \(t\) 秒时方案数 那么开始时就是 \(dfs(stx,sty,t)\) 到达 \(edx,edy,0\) 时算一种路线 那么整个的结构就很清晰了: if(judge(x + 1,y)) a 阅读全文
posted @ 2020-06-02 12:40 strategist_614 阅读(124) 评论(0) 推荐(0) 编辑
摘要: 二分类问题 首先进行数据处理: 将读入的数据转成向量,将整数序列编码为二维矩阵 def v(sequences, dimension=10000): results = np.zeros((len(sequences), dimension)) for i, sequence in enumerat 阅读全文
posted @ 2020-05-31 10:19 strategist_614 阅读(275) 评论(0) 推荐(0) 编辑
摘要: 基础 2D张量:密集链接层、全连接层(Dense类) 3D张量:循环层(LSTM层) 4D张量 (图像数据):二维卷积层(Conv2D) 具体操作: 1、定义训练数据:input ,output 2、定义层组成网络 3、配置学习过程,选择损失函数、优化器和需要监控的目标 4、调用 \(fit\) 方 阅读全文
posted @ 2020-05-26 12:50 strategist_614 阅读(113) 评论(0) 推荐(0) 编辑
摘要: CodeForces 1333F 题意:是在 $S$ 中挑选长度是 $2\sim n$ 的子集合,要求这些子集合中 $S_k\{a,b,c,...\}$ 任意元素 $max(gcd(a,b))$ 的值最小。 首先集合是你去选的,那么先去想怎么是的最后选出的子集和中任意两个元素的 $gcd$ 的最大值 阅读全文
posted @ 2020-04-09 09:57 strategist_614 阅读(211) 评论(0) 推荐(0) 编辑
摘要: ABC136 枚举 ,判断位数是否是奇数即可。 c++ int solve(int n) { int ans = 0; while(n) { n /= 10; ans++; } return ans; } int main() { int n; cin n; int ans = 0; for (in 阅读全文
posted @ 2020-04-07 12:21 strategist_614 阅读(219) 评论(0) 推荐(0) 编辑