上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 36 下一页

2020年6月25日

LMDB数据库加速Pytorch文件读取速度

摘要: 问题背景 训练深度学习模型往往需要大规模的数据集,这些数据集往往无法直接一次性加载到计算机的内存中,通常需要分批加载。数据的I/O很可能成为训练深度网络模型的瓶颈,因此数据的读取速度对于大规模的数据集(几十G甚至上千G)是非常关键的。例如:https://discuss.pytorch.org/t/ 阅读全文

posted @ 2020-06-25 18:28 那抹阳光1994 阅读(5982) 评论(1) 推荐(0) 编辑

2020年6月23日

torch.tensor默认requires_grad=False

摘要: torch.tensor(data, dtype=None, device=None, requires_grad=False, pin_memory=False) → Tensor torch.zeros(*size, out=None, dtype=None, layout=torch.stri 阅读全文

posted @ 2020-06-23 17:00 那抹阳光1994 阅读(3659) 评论(0) 推荐(0) 编辑

MATLAB保存char或字符串数组至txt

摘要: a = char('100_1', '100_2'); dlmwrite('D:\desktop\a.txt', a, 'delimiter', '', 'newline', 'pc'); >>> 100_1 100_2 阅读全文

posted @ 2020-06-23 10:05 那抹阳光1994 阅读(4995) 评论(0) 推荐(0) 编辑

2020年6月22日

matlab 遍历结构体struc的成员

摘要: MATLAB中专门用于对结构数组的操作的函数并不多,通过 help datatypes获取数据类型列表,可以看到其中的结构数据类型的有关的函数,主要如表4.3.1所示。表4.3.1 结构数组的操作函数函数名 功能描述 deal 把输入处理成输出 fieldnames 获取结构的字段名 getfiel 阅读全文

posted @ 2020-06-22 22:08 那抹阳光1994 阅读(3743) 评论(0) 推荐(0) 编辑

MATLAB信号减采样

摘要: 在不影响计算结果精度的前提下,为了降低计算成本,通常对信号进行减采样。 减采样之后的样本仍需满足大于奈奎斯特频率,以避免产生混叠。 为了避免发生混叠,通常应在减采样前施加一个抗混叠低通滤波器。 https://cnx.org/contents/p8E-T146@5/Decimation-and-Do 阅读全文

posted @ 2020-06-22 13:11 那抹阳光1994 阅读(5870) 评论(1) 推荐(0) 编辑

2020年6月17日

Pytorch中的buffer

摘要: Pytorch模型中的parameter与buffer https://zhuanlan.zhihu.com/p/89442276 阅读全文

posted @ 2020-06-17 18:31 那抹阳光1994 阅读(850) 评论(0) 推荐(1) 编辑

2020年6月16日

Python3 中的map

摘要: 最近看一段Python2写的代码,有一句: torch.FloatTensor(map(lambda x: x['values'], data)) Python3下运行后报错: TypeError: new(): data must be a sequence (got map) 我的data明明是 阅读全文

posted @ 2020-06-16 21:42 那抹阳光1994 阅读(1933) 评论(0) 推荐(0) 编辑

Pytorch加载变长度序列数据

摘要: 在处理序列数据集时,有时会遇到变长度的样本。此时因为尺寸不一致,无法直接利用pytorch中dataloader的默认加载方式(沿着批维度直接Stack)。 处理这种数据集,一种办法是可以事先记录每个样本的长度,并把所有的数据集样本补全至最长的样本长度,这样所有样本长度一致,可以直接加载。但是会有一 阅读全文

posted @ 2020-06-16 16:39 那抹阳光1994 阅读(4027) 评论(0) 推荐(1) 编辑

pytorch中如何处理RNN输入变长序列padding

摘要: 一、为什么RNN需要处理变长输入 假设我们有情感分析的例子,对每句话进行一个感情级别的分类,主体流程大概是下图所示: 思路比较简单,但是当我们进行batch个训练数据一起计算的时候,我们会遇到多个训练样例长度不同的情况,这样我们就会很自然的进行padding,将短句子padding为跟最长的句子一样 阅读全文

posted @ 2020-06-16 16:28 那抹阳光1994 阅读(1365) 评论(0) 推荐(0) 编辑

pytorch中LSTM的细节分析理解(转载)

摘要: 虽然看了一些很好的blog了解了LSTM的内部机制,但对框架中的lstm输入输出和各个参数还是没有一个清晰的认识,今天打算彻底把理论和实现联系起来,再分析一下pytorch中的LSTM实现。 先说理论部分。一个非常有名的blog把原理讲得很清楚,推荐参考。总之就是这些公式: 简单来说就是,LSTM一 阅读全文

posted @ 2020-06-16 15:02 那抹阳光1994 阅读(2637) 评论(0) 推荐(0) 编辑

上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 36 下一页

导航