上一页 1 2 3 4 5 6 7 8 9 10 ··· 16 下一页
摘要: import torch from torch import nn from torch.nn import functional as F from d2l import torch as d2l batch_size, num_steps = 32, 35 train_iter, vocab = 阅读全文
posted @ 2023-10-12 10:47 AncilunKiang 阅读(92) 评论(0) 推荐(0) 编辑
摘要: %matplotlib inline import math import torch from torch import nn from torch.nn import functional as F from d2l import torch as d2l batch_size, num_ste 阅读全文
posted @ 2023-10-11 19:01 AncilunKiang 阅读(117) 评论(0) 推荐(0) 编辑
摘要: 8.4.1 无隐状态的神经网络 对于无隐藏装态的神经网络来说,给定一个小批量样本 XRn×d,则隐藏层的输出 HRn×h 通过下式计算: \[\bo 阅读全文
posted @ 2023-10-10 22:34 AncilunKiang 阅读(66) 评论(0) 推荐(0) 编辑
摘要: 8.3.1 学习语言模型 依靠在 8.1 节中对序列模型的分析,可以在单词级别对文本数据进行词元化。基本概率规则如下: P(x1,x2,,xT)=t=1TP(xt|x1,,xt1)例如,包含了四个单词的一个文本序列的概率是: \[P( 阅读全文
posted @ 2023-10-09 21:34 AncilunKiang 阅读(164) 评论(1) 推荐(0) 编辑
摘要: import collections import re from d2l import torch as d2l 解析文本的常见预处理步骤: 将文本作为字符串加载到内存中。 将字符串拆分为词元(如单词和字符)。 建立一个词表,将拆分的词元映射到数字索引。 将文本转换为数字索引序列,方便模型操作。 阅读全文
posted @ 2023-10-09 10:01 AncilunKiang 阅读(143) 评论(0) 推荐(0) 编辑
摘要: 到目前为止,我们遇到的数据主要是表格数据和图像数据,并且所有样本都是独立同分布的。然而,大多数的数据并非如此。比如语句中的单词、视频中的帧以及音频信号,都是有顺序的。 简言之,如果说卷积神经网络可以有效地处理空间信息,那么本章的循环神经网络(recurrent neural network,RNN) 阅读全文
posted @ 2023-10-08 23:02 AncilunKiang 阅读(253) 评论(0) 推荐(0) 编辑
摘要: 如何读论文? 以下参考李沐大佬的教学。 论文结构 典型的论文结构是这样的: 题目 摘要 介绍 算法 实验验证 结论 三遍阅读法 第一遍 Pass 1 阅读重点:摘要和结论 阅读步骤: 先读题目和摘要,了解这篇论文在做什么,解决了什么问题。 再读结论,结论通常和摘要差不多,可能有对摘要中问题的回答。 阅读全文
posted @ 2023-10-08 22:58 AncilunKiang 阅读(59) 评论(0) 推荐(0) 编辑
摘要: 论文标题 《ImageNet Classification with Deep Convolutional Neural Networks》 ImageNet :经典的划时代的数据集 Deep Convolutional:深度卷积在当时还处于比较少提及的地位,当时主导的是传统机器学习算法 作者 一作 阅读全文
posted @ 2023-10-07 23:56 AncilunKiang 阅读(208) 评论(0) 推荐(0) 编辑
摘要: 7.7.1 从 ResNet 到 DenseNet DenseNet 可以视为 ResNet 的逻辑扩展。 ResNet 将函数展开为 f(x)=x+g(x),即一个简单的线性项和一个复杂的非线性项。 若将 f 拓展成超过两部分,则 阅读全文
posted @ 2023-09-24 07:48 AncilunKiang 阅读(87) 评论(0) 推荐(0) 编辑
摘要: import torch from torch import nn from torch.nn import functional as F from d2l import torch as d2l 7.6.1 函数类 如果把模型看作一个函数,我们设计的更强大的模型则可以看作范围更大的函数。为了使函 阅读全文
posted @ 2023-09-23 08:24 AncilunKiang 阅读(385) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 16 下一页
点击右上角即可分享
微信分享提示