摘要: max-pooling有很多种实现方式 (1)kmax-pooling 阅读全文
posted @ 2017-08-03 09:13 Joyce_song94 阅读(4230) 评论(0) 推荐(0) 编辑
摘要: 一、背景知识 1.1 什么是分词? NLP的基础任务分为三个部分,词法分析、句法分析和语义分析,其中词法分析中有一种方法叫Tokenization,对汉字以字为单位进行处理叫做分词。 Example : 我 去 北 京 S S B E 注:S代表一个单独词,B代表一个词的开始,E表示一个词的结束(北 阅读全文
posted @ 2017-07-31 11:23 Joyce_song94 阅读(1837) 评论(0) 推荐(0) 编辑
摘要: 1. CNN双通道 + dropout=0.5 + 100dim 79.5% 2. CNN双通道 + dropout=0.7 + 300dim 80.34% 3. BiLSTM + 200hidden + 100dim + dropout=0.4 79.6% 4. embedding(300,mod 阅读全文
posted @ 2017-07-28 23:41 Joyce_song94 阅读(406) 评论(0) 推荐(0) 编辑
摘要: Q1:def train() 中的model.train()的作用是什么?为什么要写? A1:class torch.nn.Module中 train(mode=True) Sets the module in training mode. This has any effect only on m 阅读全文
posted @ 2017-07-28 19:14 Joyce_song94 阅读(2444) 评论(0) 推荐(0) 编辑
摘要: 第一章 1、什么是占位符和变量? 无论是占位符还是变量,都是tensor,tensor是tensorflow计算的节点。 占位符和变量是不同类型的tensor。占位符的值由用户自行传递,不依赖于其他tensor,通常用来存储样本数据和标签。 tf.Tensor类是核心类,占位符(tf.placeho 阅读全文
posted @ 2017-07-28 09:45 Joyce_song94 阅读(559) 评论(0) 推荐(0) 编辑
摘要: application 1 application 2 function_cat() 阅读全文
posted @ 2017-07-23 15:50 Joyce_song94 阅读(1406) 评论(0) 推荐(0) 编辑
摘要: A DataLoader wraps a Dataset and provides minibatching, shuffling, multithreading, for you。 阅读全文
posted @ 2017-07-21 23:56 Joyce_song94 阅读(3878) 评论(0) 推荐(0) 编辑
摘要: method 1 method 2 PyTorch nn Define new Modules 阅读全文
posted @ 2017-07-21 23:37 Joyce_song94 阅读(7668) 评论(0) 推荐(0) 编辑
摘要: Tensors的一些应用 阅读全文
posted @ 2017-07-21 20:46 Joyce_song94 阅读(206) 评论(0) 推荐(0) 编辑
摘要: PyTorch Tensors are just like numpy arrays, but they can run on GPU.No built-in notion of computational graph, or gradients, or deep learning.Here we 阅读全文
posted @ 2017-07-21 17:20 Joyce_song94 阅读(869) 评论(0) 推荐(0) 编辑