摘要:
代码 我们把文本当作一个时序序列,这也是整个自然语言处理干的事情。NLP说白了就是把文本拿过来,把里面的每一个字符,词当作一个变量,作为一个样本,然后样本之间是有时序信息的。可以认为文本就是一条很长的序列。 文本预处理:核心思想就是如何把这些文本变成可以训练的东西。 tokens:这里是按照行来分词 阅读全文
摘要:
LeNet 上面是LeNet的结构示意图。 模型定义 net = nn.Sequential( # 这里输出是28*28,所以要padding=2,填充为32*32 nn.Conv2d(1, 6, kernel_size=5, padding=2), nn.Sigmoid(), nn.AvgPool 阅读全文
摘要:
序列模型 我们这个是第四部分的一开始,叫做序列模型的东西,也就是 Sequence Model。其实就是整个RNN,整个NLP都是在处理一个序列。我们之前看到的图片是一个空间信息,而我们现在要考虑一个时间信息的模型,这个就是很不一样的地方。 之前我们都是假设有t个独立的随机变量,也就是这张图片和上一 阅读全文