12 2019 档案

摘要:python装饰器(fuctional decorators)就是用于拓展原来函数功能的一种函数,目的是在不改变原函数名(或类名)的情况下,给函数增加新的功能。 1.函数作为参数值返回 def hi(name="yasoob"): def greet(): return "now you are i 阅读全文
posted @ 2019-12-31 16:39 suwenyuan 阅读(154) 评论(0) 推荐(0) 编辑
摘要:coco中image_caption的数据格式,对应的文件captions_train2014.json和captions_val2014.json 1.使用json加载文件 对应的解析代码如下: import json if __name__=='__main__': base_path = r' 阅读全文
posted @ 2019-12-25 21:17 suwenyuan 阅读(3701) 评论(0) 推荐(0) 编辑
摘要:一、易混概念 对于一些常见的距离先做一个简单的说明 1.欧式距离 假设X和Y都是一个n维的向量,即X=x1,x2,x3,xnY=y1,y2,y3,yn 则欧氏距离:D(X,Y)=i=1n(xiyi)2 2.L 阅读全文
posted @ 2019-12-25 17:25 suwenyuan 阅读(6223) 评论(0) 推荐(2) 编辑
摘要:1.json 内存操作:json.dumps()和json.loads() json.dumps()是将一个Python数据类型转化为字符串 json.loads()是将字符串转化为原先的数据类型(与json.dumps()是互逆操作,还原json.dumps()转化时的数据类型) 文件操作:jso 阅读全文
posted @ 2019-12-23 16:45 suwenyuan 阅读(295) 评论(0) 推荐(0) 编辑
摘要:1. SemStyle: Learning to Generate Stylised Image Captions using Unaligned Text(2018 CVPR) 主要研究方向:本论文主要是做语言风格,就是对同一张图片有多种描述。 2. Neural Baby Talk(2018 c 阅读全文
posted @ 2019-12-22 16:24 suwenyuan 阅读(461) 评论(0) 推荐(0) 编辑
摘要:1. SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning(2017 CVPR) 主要研究方向:大多数现有的基于注意力的图像字幕模型只考虑了空间特征,本文是对同一层的fea 阅读全文
posted @ 2019-12-22 16:19 suwenyuan 阅读(199) 评论(0) 推荐(0) 编辑
摘要:一、英文数据清洗 英文数据清洗是去除缩写、非字母符号、专有名词的缩写、提取词干、提取词根。 1.常规的清洗方式 去除非字母符号和常用缩写 #coding=utf-8 import jieba import unicodedata import sys,re,collections,nltk from 阅读全文
posted @ 2019-12-16 16:42 suwenyuan 阅读(3122) 评论(0) 推荐(0) 编辑
摘要:一、指标概述 这四种指标都是机器翻译的自动评价指标,对于一些生成式文本任务,也是使用这几种评价指标。 二、Bleu原理详解 BLEU是IBM于2002年提出的。我们假定人工给出的译文为reference,机器翻译的译文为candidate。 1.最早的BLEU算法 最早的BLEU算法是直接统计cad 阅读全文
posted @ 2019-12-14 22:35 suwenyuan 阅读(3979) 评论(0) 推荐(0) 编辑
摘要:nn.CrossEntropyLoss()这个损失函数和我们普通说的交叉熵还是有些区别。 x是模型生成的结果,class是数据对应的label $loss(x,class)=-log(\frac{exp(x[class])}{\sum_j exp(x[j])})=-x[class]+log( 阅读全文
posted @ 2019-12-11 16:13 suwenyuan 阅读(7904) 评论(0) 推荐(2) 编辑
摘要:具体示例如下,注意观察维度的变化 1.改变tensor维度的操作:transpose、view、permute、t()、expand、repeat #coding=utf-8 import torch def change_tensor_shape(): x=torch.randn(2,4,3) s 阅读全文
posted @ 2019-12-11 11:16 suwenyuan 阅读(14536) 评论(0) 推荐(0) 编辑
摘要:如下是tensor乘法与加减法,对应位相乘或相加减,可以一对多 import torch def add_and_mul(): x = torch.Tensor([[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]) y = torch.Tensor 阅读全文
posted @ 2019-12-11 11:15 suwenyuan 阅读(11832) 评论(0) 推荐(0) 编辑
摘要:Variable一般的初始化方法,默认是不求梯度的 import torch from torch.autograd import Variable x_tensor = torch.randn(2,3) #将tensor转换成Variable x = Variable(x_tensor) prin 阅读全文
posted @ 2019-12-11 11:01 suwenyuan 阅读(1443) 评论(0) 推荐(0) 编辑
摘要:一、Attention 1.基本信息 最先出自于Bengio团队一篇论文:NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE ,论文在2015年发表在ICLR。 encoder-decoder模型通常的做法是将一 阅读全文
posted @ 2019-12-10 22:09 suwenyuan 阅读(2198) 评论(0) 推荐(0) 编辑
摘要:pack_padded_sequence是将句子按照batch优先的原则记录每个句子的词,变化为不定长tensor,方便计算损失函数。 pad_packed_sequence是将pack_padded_sequence生成的结构转化为原先的结构,定长的tensor。 其中test.txt的内容 As 阅读全文
posted @ 2019-12-10 10:31 suwenyuan 阅读(2611) 评论(0) 推荐(0) 编辑
摘要:常用命令如下 g++ -g -std=c++11 a.cpp -std 指定c++的版本 -g 在可执行程序中包含标准调试信息 -o FILE 指定输出文件名,在编译为目标代码时,这一选项不是必须的。如果FILE没有指定,缺省文件名是a.out. 阅读全文
posted @ 2019-12-09 22:28 suwenyuan 阅读(807) 评论(0) 推荐(0) 编辑
摘要:1.Show and Tell: A Neural Image Caption Generator Google团队的成果 整体处理流程: 1)通过CNN提取到图片的特征,简称feature。 2)而后将feature输入到LSTM中,生成第一个词S0 3)而后每个词Si的生成只需要上一个生成的词S 阅读全文
posted @ 2019-12-09 17:16 suwenyuan 阅读(199) 评论(0) 推荐(0) 编辑
摘要:istringstream用法,见如下代码 #include <iostream> #include"sstream" using namespace std; int main() { istringstream is("I am\tlove C++\nand I love C"); string 阅读全文
posted @ 2019-12-05 14:59 suwenyuan 阅读(1361) 评论(0) 推荐(0) 编辑
摘要:1.openpyxl 注意事项:对应的row和column的值必须大于等于1,其中1表示第一行或者第一列,文件格式是xlsx。 import openpyxl def operation_excel(): # fine_tune_no() # 新建excel,改变sheet名字,并写入内容 wb = 阅读全文
posted @ 2019-12-04 22:18 suwenyuan 阅读(6260) 评论(0) 推荐(0) 编辑
摘要:使用matplotlib绘制图像 import matplotlib.pyplot as plt from matplotlib.pyplot import MultipleLocator import numpy as np import seaborn as sns #描绘曲线图,可以对通过np 阅读全文
posted @ 2019-12-04 22:17 suwenyuan 阅读(440) 评论(0) 推荐(0) 编辑
摘要:GAN网络的整体公式: 公式各参数介绍如下: X是真实地图片,而对应的标签是1。 G(Z)是通过给定的噪声Z,生成图片(实际上是通过给定的Z生成一个tensor),对应的标签是0。 D是一个二分类网络,对于给定的图片判别真假。 D和G的参数更新方式: D通过输入的真假图片,通过BCE(二分类交叉熵) 阅读全文
posted @ 2019-12-04 17:05 suwenyuan 阅读(1384) 评论(0) 推荐(0) 编辑
摘要:1.MSCap: Multi-Style Image Captioning with Unpaired Stylized Text 生成多种风格的caption 当前的image captioning systems的问题:生成的caption是很相对很中性,不能体现人类语言风格的多种多样 面临的困 阅读全文
posted @ 2019-12-04 14:54 suwenyuan 阅读(761) 评论(0) 推荐(0) 编辑
摘要:利用pytorch来构建网络模型,常用的有如下三种方式 前向传播网络具有如下结构: 卷积层--》Relu层--》池化层--》全连接层--》Relu层 对各Conv2d和Linear的解释如下 Conv2d的解释如下 """ Conv2d(in_channels, out_channels, kern 阅读全文
posted @ 2019-12-03 21:18 suwenyuan 阅读(1095) 评论(0) 推荐(0) 编辑
摘要:1.格式化输出,占位符 #整型输出%d print ('整型 %d'% 10)#整型 10 #输出浮点数,小数点后保留两位有效位数 print ('浮点数,小数点后保留两位有效位数 %.2f ' % (1.890))#浮点数,小数点后保留两位有效位数 1.89 #输出字符串%s print ('字符 阅读全文
posted @ 2019-12-03 17:12 suwenyuan 阅读(718) 评论(0) 推荐(0) 编辑
摘要:2018文本分类任务经典论文如下 1.Hierarchical Convolutional Attention Networks for Text Classification 2018 ACL 引用量:5+ ensemble:层级网络、self-attention、卷积、elu 2.Underst 阅读全文
posted @ 2019-12-02 11:07 suwenyuan 阅读(362) 评论(0) 推荐(0) 编辑
摘要:2017文本分类任务经典论文如下 1.Very Deep Convolutional Networks for Text Classification 基本信息:2017 aCL 200+ 模型框架:字符级卷积,和resnet结构很相似,最后加了三层全连接层,三次池化,在所有的卷积之后,有一个k-m 阅读全文
posted @ 2019-12-02 11:05 suwenyuan 阅读(422) 评论(0) 推荐(0) 编辑
摘要:2016文本分类任务经典论文如下 1.Hierarchical Attention Networks for Document Classification 基本信息:2016 NAACL 800+ 2.Neural Attention Models for Sequence Classificat 阅读全文
posted @ 2019-12-02 11:00 suwenyuan 阅读(140) 评论(0) 推荐(0) 编辑
摘要:2015年的经典分类论文整理如下 1.character-level-convolutional-networks-for-text-classification 基本信息:2015 nips 1000+ 模型参数:字符个数70,亦即特征有70;输入长度是1014,每个字母可以是one-hot或者是 阅读全文
posted @ 2019-12-02 10:59 suwenyuan 阅读(134) 评论(0) 推荐(0) 编辑
摘要:Convolutional Neural Networks for Sentence Classification 基本信息:2014 emnlp 4000+ 适合场景:句子级别分类,亦即短文本分类 创新点:开创性的将卷积操作应用到自然语言处理当中 模型结构:卷积——依照词的方向,进行一维卷积;池化 阅读全文
posted @ 2019-12-02 10:57 suwenyuan 阅读(243) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示