07 2023 档案

摘要:例如,循环神经网络在实践中一个常见问题是数值不稳定性。 尽管我们已经应用了梯度裁剪等技巧来缓解这个问题, 但是仍需要通过设计更复杂的序列模型来进一步处理它。 具体来说,我们将引入两个广泛使用的网络, 即门控循环单元(gated recurrent units,GRU)和 长短期记忆网络(long s 阅读全文
posted @ 2023-07-30 09:05 浪矢-CL 阅读(160) 评论(0) 推荐(0) 编辑
摘要:#include <iostream> #include <stdio.h> #include <algorithm> #include <vector> using namespace std; const int N = 100010; int h[N], ne[N], e[N], idx; i 阅读全文
posted @ 2023-07-28 10:58 浪矢-CL 阅读(18) 评论(0) 推荐(0) 编辑
摘要:仍然是拓扑排序,找最长路 #include<iostream> #include<vector> #include<queue> using namespace std; const int maxn=10001; int n,m,ans,t[maxn],tot[maxn],in[maxn]; ve 阅读全文
posted @ 2023-07-27 22:00 浪矢-CL 阅读(23) 评论(0) 推荐(0) 编辑
摘要:广搜入度为0 的点 #include<bits/stdc++.h> using namespace std; const int N=1e2+10; int in[N],n; vector<int>v[N]; queue<int>q; void topsort() {//拓扑排序 while(!q. 阅读全文
posted @ 2023-07-27 21:36 浪矢-CL 阅读(181) 评论(0) 推荐(0) 编辑
摘要:只要距离不是0x3f3f3 就代表能联通 #include <bits/stdc++.h> using namespace std;//防X抄袭 int n; int a[110][110]; #define inf 0x3f3f3f3f int main() { cin >> n; for (in 阅读全文
posted @ 2023-07-27 21:26 浪矢-CL 阅读(53) 评论(0) 推荐(0) 编辑
摘要:套模版,然后求和 #include<bits/stdc++.h> using namespace std; int n,m,ans=0; int dis[101][101],a[10001]; int main() { scanf("%d%d",&n,&m); for(int i=1;i<=m;i+ 阅读全文
posted @ 2023-07-27 21:13 浪矢-CL 阅读(20) 评论(0) 推荐(0) 编辑
摘要:如题 可以理解为不断地消除中间节点k,把 i 和 j 经过中间节点的最短距离更新到 map[i][j]中, 相当于我们在i和j之间直接建立了一条可以用map[i][j]最短路径(把中间节点k消除了) 遍历n次就把所有的中间节点消除了,在任何两个节点 i,j 之间都建立了一条直连的最短路径map[i] 阅读全文
posted @ 2023-07-27 21:08 浪矢-CL 阅读(1013) 评论(1) 推荐(1) 编辑
摘要:广搜图的题 #include <iostream> #include <cstring> #include <vector> #include <queue> using namespace std; const int maxn = 1e6+5, maxm = 2e6+5; const int m 阅读全文
posted @ 2023-07-27 20:25 浪矢-CL 阅读(5) 评论(0) 推荐(0) 编辑
摘要:图论简介: 图(Graph) 图可以被表示为 G={V, E},其中 V={v1, ... , vN}表示n个点,E= {e1, ... , eM}表示m条边。 常用的储存方式包括邻接表和邻接矩阵。 连通分量(Connected Component):各节点间至少存在一条边可以连通。 图的最短路入门 阅读全文
posted @ 2023-07-27 20:12 浪矢-CL 阅读(31) 评论(0) 推荐(0) 编辑
摘要:记忆化 #include <cstdio> //头文件 #include <iostream> #include <cstring> using namespace std; int T, w; short a[1009]; int f[1005][3][31]; //记忆化的三维数组记录dfs i 阅读全文
posted @ 2023-07-25 16:33 浪矢-CL 阅读(36) 评论(0) 推荐(0) 编辑
摘要:需要用short防止MLE,然后记忆化记录状态 #include <cstdio> #include <iostream> #include <cmath> #include <algorithm> using namespace std; int t,x,y,mod;//定义 short book 阅读全文
posted @ 2023-07-25 16:18 浪矢-CL 阅读(20) 评论(0) 推荐(0) 编辑
摘要:这里需要一点点的拓扑知识,然后构建链表。 接着就是一个记忆化搜索。 #include <cstdio> #include <string> #include <cmath> #include <algorithm> #include <iostream> #include <vector> usin 阅读全文
posted @ 2023-07-25 16:05 浪矢-CL 阅读(21) 评论(0) 推荐(0) 编辑
摘要:可以当成一个记忆化的入门例题吧,虽然不太想搜索。 #include<cstdlib> #include<cstdio> #include<cstring> using namespace std; int memry[25][25][25]; bool vis[25][25][25]; int mw 阅读全文
posted @ 2023-07-25 14:55 浪矢-CL 阅读(9) 评论(0) 推荐(0) 编辑
摘要:搜索过程中可以记录下每个点所能划的最远距离,这样下次划到这里就可以省略很多搜索分支。 #include<iostream> #include<cstdio> #include<cmath> using namespace std; int dx[4]={0,0,1,-1}; int dy[4]={1 阅读全文
posted @ 2023-07-25 14:45 浪矢-CL 阅读(7) 评论(0) 推荐(0) 编辑
摘要:状态压缩,和剪枝 最优化剪枝:如果距离大于当前最短距离,则必然不最优 。 如果当前连通块到某点的距离大于之前记录的距离,则该走法不最优。(dp[i][j]实现) 状态压缩:用二进制的每一位表示某个点是否访问过,例如第一个点访问过则二进制第一位为1. 首先我们在状态中有一个 当前到了数组哪个点的状态, 阅读全文
posted @ 2023-07-24 17:13 浪矢-CL 阅读(18) 评论(0) 推荐(0) 编辑
摘要:排序后枚举原来木棍的长度,然后去搜索,搜索成功则结束程序。 搜索不成功的则尽早退出搜索。 剪枝: 顺序剪枝:对木棍排序,然后先用大的后用小的 (若a=b+c,则如果既可以使用a也可以使用b+c那么使用a,因为b和c可能会在后面单独被用到 而且,先用大的去拼可以更快的排除错误选项) 等效性剪枝:当前状 阅读全文
posted @ 2023-07-24 16:08 浪矢-CL 阅读(55) 评论(0) 推荐(0) 编辑
摘要:题目表述似乎有点问题,该题目可以理解为找有几个山顶,每个山顶的高度都大于等于周围的高度,且向外延伸时高度降低。 问有多少个这样的山/山顶。 顺序剪枝:先排序,然后从高的开始搜索,搜到过的地方就不会再搜。而每个没被搜到过的地方必然存在一个新的山。 排除等效剪枝:如果被搜过则不用再搜了,其搜索是等效的。 阅读全文
posted @ 2023-07-24 16:01 浪矢-CL 阅读(33) 评论(0) 推荐(0) 编辑
摘要:从下往上搜索,枚举每层的半径和高度作为分支 搜索状态:第dep层,当前外表面积s,当前体积v,dep+1层的高度和半径 整个蛋糕的底面积=最底层的圆面积,这样在m-1层搜索时,只需要计算侧面积 剪枝: 两个剪枝 最优化剪枝: 如果接下来每层半径高度都取最小的,h层后面积仍然很大 可行性剪枝: 如果接 阅读全文
posted @ 2023-07-24 15:43 浪矢-CL 阅读(25) 评论(0) 推荐(0) 编辑
摘要:最简单的优化是从小到大去枚举,这样可以防止重复计数。 可行性剪枝:每次枚举到 i 时判断,如果此后的数都>= i 他们的和是否会过大(把过大的分支剪掉) pass:优化方案不唯一 由于数据原因,sum+i<=n这个判定条件也可以过。 #include<cstdio> #include<iostrea 阅读全文
posted @ 2023-07-24 15:40 浪矢-CL 阅读(39) 评论(0) 推荐(0) 编辑
摘要:本章的循环神经网络(recurrent neural network,RNN)可以更好地处理序列信息。 循环神经网络通过引入状态变量存储过去的信息和当前的输入,从而可以确定当前的输出。许多使用循环网络的例子都是基于文本数据的,因此我们将在本章中重点介绍语言模型。 8.1. 序列模型 为了实现对下一时 阅读全文
posted @ 2023-07-22 21:45 浪矢-CL 阅读(322) 评论(0) 推荐(0) 编辑
摘要:之前没了解过硬件,更没听过开发板。但最近可能会用到,所以看了一些视频和资料,简单梳理一下: 开发板(demoboard)是用于嵌入式系统开发的电路板,Arduino编程语言及芯片,树莓派的操作系统,正点原子以及昇腾的生态等等都很出名。之前厂家面向企业生产,最近好多个人用户也开始使用。开发板与个人计算 阅读全文
posted @ 2023-07-22 21:05 浪矢-CL 阅读(201) 评论(0) 推荐(0) 编辑
摘要:剪枝是去除搜索树当中不必要的搜索路径,从而优化算法,降低时间开销。 常见的剪枝包括: 1可行性剪枝 2排除等效剪枝 3最优性剪枝 4顺序剪枝 5记忆化剪枝 下面将一一举例介绍其原理: 1可行性剪枝 在寻找所有的解决方案时,若某种方案明显不可行/无法找到答案,则停止继续搜索。 2排除等效剪枝 当该方案 阅读全文
posted @ 2023-07-22 15:26 浪矢-CL 阅读(99) 评论(0) 推荐(0) 编辑
摘要:RuntimeError: Given input size: (128x1x1). Calculated output size: (128x0x0). Output size is too small 问题原因: 在池化层之前,我的图像就变成1x1的了,使用池化层就出错了 阅读全文
posted @ 2023-07-20 15:27 浪矢-CL 阅读(654) 评论(0) 推荐(0) 编辑
摘要:本地电脑木得GPU,自己CPU训练模型贼慢,于是打算来colab训练 我本来是这样导入 !pip install d2l 结果导入很慢,等待时间过长,就去网上搜了搜 !pip install d2l==0.14 加了版本号就变得很快了。但是似乎某些函数是在0.16里才有 !pip install d 阅读全文
posted @ 2023-07-19 16:17 浪矢-CL 阅读(422) 评论(0) 推荐(0) 编辑
摘要:conv_arch = ((1, 64), (1, 128), (2, 256), (2, 512), (2, 512)) 7.1. 深度卷积神经网络(AlexNet) 更多的数据和更高性能的硬件使得深度卷积神经网络在2012年出现突破。 2012年,AlexNet横空出世,首次证明了学习到的特征可 阅读全文
posted @ 2023-07-19 11:26 浪矢-CL 阅读(351) 评论(0) 推荐(0) 编辑
摘要:6.1从全连接层到卷积层 之前的多层感知机,仅仅通过将图像数据展平成一维向量而忽略了每个图像的空间结构信息。 卷积神经网络则改善了这一点,且卷积神经网络需要的参数少于全连接架构的网络同时卷积也很容易用GPU并行计算,因此更适合于高效的进行计算。 练习 1假设卷积层 (6.1.3)覆盖的局部区域Δ=0 阅读全文
posted @ 2023-07-16 21:09 浪矢-CL 阅读(184) 评论(0) 推荐(0) 编辑
摘要:5.1块和层 我们一直在通过net(X)调用我们的模型来获得模型的输出。 这实际上是net.__call__(X)的简写。 这个前向传播函数非常简单: 它将列表中的每个块连接在一起,将每个块的输出作为下一个块的输入。 import torch from torch import nn from to 阅读全文
posted @ 2023-07-16 13:54 浪矢-CL 阅读(167) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示