会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
codersgl
因过竹院逢僧话,偷得浮生半日闲
博客园
首页
新随笔
联系
订阅
管理
随笔 - 61
文章 - 18
评论 - 1
阅读 -
8762
上一页
1
2
3
4
5
6
7
8
下一页
2025年1月4日
采样点数
摘要: 采样点数的确定取决于多个因素,以下是一些常见场景及其对应的求解方法: 基于信号带宽和采样定理 采样定理:为了能够从采样信号中无失真地恢复原始连续信号,采样频率 \(f_s\) 必须至少是原始信号最高频率 \(f_{max}\) 的两倍,即 \(f_s \geq 2f_{max}\)。 确定采样点数:
阅读全文
posted @ 2025-01-04 21:50 codersgl
阅读(102)
评论(0)
推荐(0)
编辑
采样
摘要: 采样是指在特定的时间间隔内测量一个连续信号的幅度,以将其转换为离散信号。
阅读全文
posted @ 2025-01-04 21:49 codersgl
阅读(4)
评论(0)
推荐(0)
编辑
2024年8月21日
Github搜索小tips
摘要: 在GitHub上进行有效搜索可以帮助您更快地找到所需的代码、项目和用户。以下是一些实用的GitHub搜索技巧: 关键词搜索 直接在搜索框中输入相关关键词,例如 python web framework。 限定搜索范围 使用 in:name、in:description、in:readme 等限定词来
阅读全文
posted @ 2024-08-21 22:59 codersgl
阅读(61)
评论(0)
推荐(0)
编辑
2024年8月8日
微调
摘要: 微调 步骤 下面将介绍迁移学习中的常见技巧:微调(fine-tuning)。如下图所示,微调包括以下四个步骤。 在源数据集(例如ImageNet数据集)上预训练神经网络模型,即源模型。 创建一个新的神经网络模型,即目标模型。这将复制源模型上的所有模型设计及其参数(输出层除外)。我们假定这些模型参数包
阅读全文
posted @ 2024-08-08 13:28 codersgl
阅读(14)
评论(0)
推荐(0)
编辑
编码器和解码器
摘要: 编码器 在编码器的接口中,我们只指定长度可变的序列作为编码器的输入X。任何继承自Encoder基类的模型将完成代码实现。 from torch import nn #@save class Encoder(nn.Module): """编码器-解码器架构的基本编码器接口""" def __init_
阅读全文
posted @ 2024-08-08 13:19 codersgl
阅读(25)
评论(0)
推荐(0)
编辑
数据增广
摘要: 在介绍数据增广前,我们先了解一个有趣的故事 CES上的真实故事 在某一年的CES展会上,有一家做智能售货机的公司,发现他们的演示机器在现场效果很差,因为现场 不同的色温 桌面的灯光反射不一样 为了解决这个问题,他们连夜现场收集了数据,训练了一个新的模型,同时买了一块新桌布,才解决了这个问题。 数据增
阅读全文
posted @ 2024-08-08 10:10 codersgl
阅读(31)
评论(0)
推荐(0)
编辑
Transformer详解
摘要: 本文详细介绍了transformer的整体架构以及各个组件。 transformers的总体架构 下面让我们从简单到复杂来深入了解一下transformers的总体架构 黑盒结构 以机器翻译为例,每当我们输入一段文本,则会输出一段文本,而transformer就是这一过程的黑盒。 编码器解码器结构
阅读全文
posted @ 2024-08-08 00:44 codersgl
阅读(145)
评论(0)
推荐(0)
编辑
2024年8月7日
CPU和GPU
摘要: CPU 提升CPU利用率1 在计算\(a + b\)之前,需要准备数据 主内存->L3缓存->L2缓存->L1缓存->CPU寄存器 L1访问延时:0.5ns L2访问延时:7ns(\(14\times L1访问延时\)) L3访问延时:100ns(\(200\times L2访问延时\)) 提升空间
阅读全文
posted @ 2024-08-07 20:03 codersgl
阅读(13)
评论(0)
推荐(0)
编辑
2024年8月5日
残差网络(resNet)
摘要: 随着我们设计越来越深的网络,深刻理解“新添加的层如何提升神经网络的性能”变得至关重要。更重要的是设计网络的能力,在这种网络中,添加层会使网络更具表现力, 为了取得质的突破,我们需要一些数学基础知识。 函数类 首先,假设有一类特定的神经网络架构\(\mathcal{F}\),它包括学习速率和其他超参数
阅读全文
posted @ 2024-08-05 18:45 codersgl
阅读(61)
评论(0)
推荐(0)
编辑
批量规范化
摘要: 训练深层神经网络是十分困难的,特别是在较短的时间内使他们收敛更加棘手。 本节将介绍批量规范化(batch normalization) (Ioffe and Szegedy, 2015),这是一种流行且有效的技术,可持续加速深层网络的收敛速度。 再结合在下一节将介绍的残差块,批量规范化使得研究人员能
阅读全文
posted @ 2024-08-05 10:46 codersgl
阅读(85)
评论(0)
推荐(0)
编辑
上一页
1
2
3
4
5
6
7
8
下一页
公告
昵称:
codersgl
园龄:
10个月
粉丝:
4
关注:
0
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
我的标签
HTML
(10)
排序
(6)
YOLO
(3)
recite
(1)
合集
(1)
卷积神经网络(12)
随笔分类
(57)
CV(3)
English(1)
电子技术基础(13)
概率论与数理统计(3)
日常发现(7)
算法(10)
信号与系统(20)
随笔档案
(61)
2025年1月(52)
2024年8月(9)
文章分类
(17)
Machine Learning(1)
大模型(1)
卷积神经网络(12)
知识(3)
文章档案
(18)
2024年8月(18)
相册
(3)
图床(3)
阅读排行榜
1. 费曼积分法——以一个简单的例子讲解(1187)
2. Jupyter Lab和Jupyter Notebook的区别(1088)
3. Windows使用命令行终止任务(863)
4. 零状态响应、零输入响应、强迫响应、自然响应、稳态响应、暂态响应和全响应之间的的关系(314)
5. 常见概率分布及其数学期望和方差(286)
评论排行榜
1. 费曼积分法——以一个简单的例子讲解(1)
推荐排行榜
1. 费曼积分法——以一个简单的例子讲解(1)
最新评论
1. Re:费曼积分法——以一个简单的例子讲解
您好,阅读了您今年8月份写的《费曼积分法——以一个简单的例子讲解 》颇有感受。我对你在文章开头提到的费恩曼积分法的“官方解释”尤其感兴趣:‘费曼积分法(Feynman integral)是一种求解复变...
--明明很明明
点击右上角即可分享